EURO-STANDART-TEST

Goodwill Certification System

(800) 500-77-10
(495) 506-95-58

Опасности распространения искусственного интеллекта


Главная >

 Чем опасно распространение искусственного интеллекта ?


  По мере внедрения искусственного интеллекта в нашу жизнь, голоса, предупреждающие о потенциальных опасностях, связанных с искусственным интеллектом, звучат все громче.

  “Эти создания могут стать умнее нас и могут решить захватить власть, и сейчас нам нужно подумать о том, как этого избежать”, - сказал Джеффри Хинтон, известный как “Крестный отец искусственного интеллекта” за свою фундаментальную работу по машинному обучению и алгоритмам нейронных сетей. В 2023 году Хинтон покинул свой пост в Google, чтобы “поговорить об опасностях искусственного интеллекта”, отметив, что часть его даже сожалеет о деле всей своей жизни.
 
Опасности-распространения-искусственного-интеллекта-(1).jpg

 Известный ученый-компьютерщик не одинок в своих опасениях.

  Основатель Tesla и SpaceX Илон Маск вместе с более чем 1000 другими технологическими лидерами в открытом письме к 2023 году призвал приостановить масштабные эксперименты с ИИ, сославшись на то, что эта технология может “представлять серьезную угрозу для общества и человечества”.


Опасности искусственного интеллекта


Автоматизация приводит к потере работы многих людей
Нарушения конфиденциальности
Искажение алгоритмов, вызванное неверными данными
Социально-экономическое неравенство
Неконтролируемый ИИ, обладающий самосознанием

  Будь то растущая автоматизация определенных рабочих мест, алгоритмы с гендерными и расовыми предубеждениями или автономное оружие, которое работает без контроля человека (и это лишь некоторые из них), беспокойство возникает по целому ряду причин. И мы все еще находимся на очень ранних стадиях понимания того, на что действительно способен ИИ.

14 ОПАСНОСТЕЙ, КОТОРЫЕ МОЖЕТ СОЗДАТЬ ИСКУСТВЕННЫЙ ИНТЕЛЛЕКТ

 Вопросы о том, кто разрабатывает ИИ и для каких целей, делают еще более важным понимание его потенциальных недостатков. Ниже мы более подробно рассмотрим возможные опасности искусственного интеллекта и способы управления его рисками.


1. Отсутствие прозрачности и объяснимости ИИ

  Модели ИИ и глубокого обучения могут быть сложными для понимания даже для тех, кто непосредственно работает с технологией. Это приводит к отсутствию прозрачности в том, как и почему ИИ приходит к своим выводам, что приводит к отсутствию объяснений того, какие данные используют алгоритмы ИИ или почему они могут принимать предвзятые или небезопасные решения. Эти опасения привели к использованию объяснимого искусственного интеллекта, но до того, как прозрачные системы искусственного интеллекта станут общепринятой практикой, еще далеко.

  Что еще хуже, компании, занимающиеся ИИ, по-прежнему хранят молчание о своих продуктах. Бывшие сотрудники OpenAI и Google DeepMind обвинили обе компании в сокрытии потенциальной опасности своих инструментов ИИ. Из-за такой секретности широкая общественность не знает о возможных угрозах, а законодателям сложно принимать упреждающие меры, гарантирующие ответственное развитие ИИ.


2. Сокращение рабочих мест из-за автоматизации ИИ

  По мере того как роботы с искусственным интеллектом становятся умнее и ловчее, для выполнения тех же задач будет требоваться меньше людей. И хотя, по оценкам, к 2025 году искусственный интеллект создаст 97 миллионов новых рабочих мест, многие сотрудники не будут обладать навыками, необходимыми для выполнения этих технических функций, и могут остаться без работы, если компании не повысят квалификацию своей рабочей силы.

3. Манипулирование обществом с помощью алгоритмов ИИ

  Социальные манипуляции также представляют опасность искусственного интеллекта. Этот страх стал реальностью, поскольку политики полагаются на платформы для продвижения своей точки зрения, одним из примеров чего является Фердинанд Маркос-младший, возглавляющий армию троллей TikTok, чтобы завоевать голоса молодых филиппинцев на выборах на Филиппинах в 2022 году.

TikTok

  TikTok является лишь одним из примеров платформы социальных сетей, основанной на алгоритмах искусственного интеллекта. TikTok  заполняет ленту пользователя контентом, связанным с предыдущими медиа, которые он просматривал на платформе. Критика в адрес приложения направлена против этого процесса и неспособности алгоритма отфильтровывать вредоносный и неточный контент, что вызывает опасения по поводу способности TikTok защитить своих пользователей от вводящей в заблуждение информации.

Дипфейки

  Онлайн-СМИ и новости стали еще более мрачными в свете изображений и видео, созданных посредством ИИ, средств изменения голоса, также глубоких подделок (Дипфейк). Эти инструменты могут легко генерировать реалистичные фотографии, видео, аудиоклипы или заменять изображение одного человека на другого на существующей картинке или видео. В результате у злоумышленников появляется еще один способ распространять дезинформацию и военную пропаганду, создавая кошмарный сценарий, при котором бывает почти невозможно отличить достоверные новости от ложных.

4. Еще одна опасность искусственного интеллекта - социальное наблюдение с помощью технологии ИИ

  Искусственный интеллект может негативно повлиять на конфиденциальность и безопасность. Ярким примером является использование технологии распознавания лиц в Китае в офисах, школах и других местах. Помимо отслеживания передвижений человека, китайское правительство может собрать достаточно данных, чтобы отслеживать его деятельность, взаимоотношения и политические взгляды.

5. Недостаточная защита данных с помощью инструментов искусственного интеллекта

  Исследование, проведенное компанией AvePoint в 2024 году, показало, что конфиденциальность и безопасность данных вызывают наибольшую озабоченность у компаний. И у компаний могут быть веские причины для колебаний, учитывая большие объемы данных, сосредоточенных в инструментах искусственного интеллекта, и отсутствие регулирования в отношении этой информации.

  Проводим сертификацию в области управления информационной безопасностью

  Системы искусственного интеллекта часто собирают персональные данные, чтобы настроить работу пользователей или помочь обучить используемые вами модели искусственного интеллекта (особенно если инструмент искусственного интеллекта бесплатный). Данные, передаваемые системе искусственного интеллекта, могут даже не считаться защищенными от других пользователей, поскольку один инцидент с ошибкой, произошедший с ChatGPT в 2023 году, “позволил некоторым пользователям видеть заголовки из истории чата другого активного пользователя”.
 

Риски-внедрения-искусственного-интеллекта-в-нашу-жизнь-(1).jpg

6. Социально-экономическое неравенство как результат распространения ИИ – немаловажный пункт в списке опасностей распространения искусственного интеллекта.

  Растущее социально-экономическое неравенство, вызванное потерей работы из-за ИИ, является еще одной причиной для беспокойства, свидетельствующей о классовых предубеждениях в отношении того, как применяется ИИ. Работники, выполняющие больше повторяющихся задач вручную, столкнулись со снижением заработной платы на целых 70% из-за автоматизации, при этом офисные работники на ранних стадиях внедрения ИИ практически не пострадали. Однако рост использования искусственного интеллекта уже влияет на работу в офисе, создавая широкий спектр ролей, которые могут быть более уязвимы с точки зрения заработной платы или потери работы, чем другие.

7. Автономное оружие на базе ИИ- серьёзная опасность искусственного интеллекта.

  Как это часто бывает, технологические достижения были использованы для ведения военных действий. Когда дело доходит до ИИ, некоторые стремятся что-то с этим сделать, пока не стало слишком поздно: в открытом письме 2016 года более 30 000 человек, включая исследователей ИИ и робототехники, выступили против инвестиций в автономное оружие на базе ИИ.

  Многие из этих новых видов оружия представляют серьезную опасность для гражданского населения на местах, но опасность возрастает, когда автономное оружие попадает не в те руки. Хакеры освоили различные виды кибератак, поэтому нетрудно представить злоумышленника, внедряющегося в автономное оружие и провоцирующего абсолютный армагеддон.


8. Финансовые кризисы, вызванные алгоритмами искусственного интеллекта

  Финансовая индустрия стала более восприимчивой к использованию технологий искусственного интеллекта в повседневных финансовых и торговых процессах. В результате алгоритмическая торговля может стать причиной следующего крупного финансового кризиса на рынках.

  Хотя алгоритмы искусственного интеллекта не зависят от человеческих суждений или эмоций, они также не учитывают контекст, взаимосвязанность рынков и такие факторы, как человеческое доверие и страх. Затем эти алгоритмы совершают тысячи сделок в быстром темпе с целью продажи через несколько секунд с небольшой прибылью. Продажа тысяч сделок может напугать инвесторов и заставить их делать то же самое, что и они, что приведет к внезапным сбоям и экстремальной волатильности рынка.


 Такие случаи, как внезапный крах 2010 года и внезапный крах Knight Capital, служат напоминанием о том, что может произойти, когда алгоритмы, поддерживающие торговлю, сходят с ума, независимо от того, преднамеренна ли быстрая и массированная торговля.

9. Потеря влияния человека – серьезный риск распространения искусственного интеллекта.

  Чрезмерная зависимость от технологий ИИ может привести к потере влияния человека и ухудшению его деятельности в некоторых сферах общества. Например, использование искусственного интеллекта в здравоохранении опасно и может привести к снижению способности сопереживать и рассуждать. А применение генеративного ИИ в творческих целях наверняка снизит креативность и эмоциональное самовыражение человека. Чрезмерное взаимодействие с системами ИИ может даже привести к снижению уровня общения со сверстниками. Таким образом, хотя искусственный интеллект может быть очень полезен для автоматизации повседневных задач, некоторые задаются вопросом, не может ли он сдерживать общий человеческий интеллект, способности и потребность в сообществе.

10. Вызывает опасения неконтролируемый ИИ, обладающий самосознанием

  Также возникает опасение, что искусственный интеллект будет развиваться так быстро, что станет разумным и начнет действовать неподконтрольно людям — возможно, злонамеренно. Предполагаемые сообщения об этом разуме уже появлялись, причем один популярный аккаунт принадлежал бывшему инженеру Google, который заявил, что чат-бот с искусственным интеллектом LaMDA обладает разумом и разговаривает с ним так же, как это сделал бы человек. Поскольку следующие важные вехи в развитии ИИ связаны с созданием систем с искусственным общим интеллектом и, в конечном счете, с искусственным сверхинтеллектом, призывы полностью остановить эти разработки продолжают расти.

11. Распространение искусственного интеллекта создает риск роста преступной активности

  По мере того как технологии ИИ становятся все более доступными, растет число людей, использующих их для преступной деятельности. Интернет-злоумышленники теперь могут создавать изображения детей, что затрудняет правоохранительным органам выявление реальных случаев жестокого обращения с детьми. И даже в тех случаях, когда детям не причиняется физический вред, использование детских лиц на изображениях, созданных с помощью искусственного интеллекта, создает новые проблемы для защиты конфиденциальности детей в Интернете и цифровой безопасности.

 Клонирование голоса также стало проблемой, поскольку преступники используют голоса, сгенерированные искусственным интеллектом, чтобы выдавать себя за других людей и совершать телефонные мошенничества. Эти примеры лишь поверхностно отражают возможности ИИ и его потенциальные опасности в криминальной сфере, поэтому местным и национальным правительственным учреждениям будет только сложнее адаптироваться и информировать общественность о последних угрозах, связанных с ИИ.


12. Общая экономическая и политическая нестабильность

  Чрезмерные инвестиции в определенный материал или отрасль могут поставить экономику в опасное положение. Как и в случае со сталью, ИИ может привлечь столько внимания и финансовых ресурсов, что правительства не смогут развивать другие технологии и отрасли. Кроме того, чрезмерное производство технологий искусственного интеллекта может привести к утилизации избыточных материалов, которые потенциально могут попасть в руки хакеров и других злоумышленников.

 Таковы возможные риски и опасности, с которыми может столкнуться человечество, если не отнесётся серьезно и внимательно к стремительному распространению искусственного интеллекта во всех сферах нашей жизни.

☑  Найти похожие статьи и другие полезные материалы Вы можете по этой ссылке


Кроме того, интересно почитать:

Сертификация ГОСТ Р ИСО 10006-2019
Сертификация ISO 13485
Получить сертификат ISO 29001
Где требуется сертификат ИСО 9001?
Сертификация ИСО 9001: цели и преимущества
Сертификация OHSAS 18001
Получить сертификат ISO 55001
Как правильно начать внедрение СМК в компании
Система экологического менеджмента и сертификация ISO 14001.
ISO 9001-2015: что нового?



О компании
Сертификация
Наши преимущества
О нас
Клиенты
Реквизиты
Реестр сертификатов
Знак соответствия
Сотрудничество
Конфиденциальность



Информация
Статьи
Новости
Важно знать
История ISO
Вопросы и ответы
Видеоматериалы
Законодательство
Руководителю
Скачать Заявки



Другие услуги
СПИСОК ВСЕХ УСЛУГ
ISO 14001
OHSAS 18001
Консалтинг
Повышение квалификации
Вступление в СРО
Лицензирование



Контакты

Тел.: 8 (800) 500-77-10

8 (495) 506-95-58

E-Mail: info@est-cert.ru

Орган по сертификации систем менеджмента качества "Международный Правовой Центр "Экспертиза"
Адрес: г.Москва, ул.Селезневская, дом 11А