Опасности ИИ для человечества

Узнайте о серьезных опасностях, которые Искусственный интеллект (ИИ) представляет для человечества, включая потенциальные решения, которые могут помочь защитить наше будущее.

В марте 22, 2023, Приостановить гигантские эксперименты с искусственным интеллектом Опубликовано открытое письмо, в котором содержится призыв ко всем лабораториям мира немедленно прекратить разработку гигантских AI системы больше, чем GTP-4 OpenAI.

Причина этого письма заключается в многочисленных опасностях, которые передовые модели искусственного интеллекта представляют для человечества, что делает необходимым совместную разработку и внедрение протоколов безопасности для передовых систем искусственного интеллекта по всему миру.

В этом посте рассматриваются все опасности, которые ИИ представляет для человечества, а также возможные решения этих опасностей.

GPT-4 и письмо за 1,000 подписей

Для большинства людей ИИ — это развлечение. Благодаря алгоритмам искусственного интеллекта вы можете снимать умные фотографии и видео, легко редактировать свои материалы, работать быстрее, получать более качественную информацию, рекомендации и т. д.

Однако, когда в марте 2023 года появились новости об открытом письме с призывом приостановить разработку ИИ на некоторое время, внимание большинства людей привлекли имена, стоящие за этими подписями. От Elon Musk в Стив Возняк из Apple, и сотни других известных ученых и ведущих исследователей, серьезность этого письма была очевидна.

С тех пор письмо собрало более 27 тысяч подписей и продолжает расти, но, по правде говоря, разработка ИИ похожа на гонку вооружений. Вы замедляетесь, вы проигрываете.

Опасности ИИ для человечества

Искусственный интеллект затрагивает многие области личной и профессиональной жизни людей, в зависимости от того, кто вы и чем занимаетесь. Ниже приводится список основных опасностей ИИ для человечества в целом.

  1. Потеря работы и кризис безработицы: Потенциальное вытеснение людей из всех профессий является одной из основных проблем, связанных с ИИ. Помимо потери работы, это может привести к кризисам в пострадавших обществах, социально-экономическому неравенству и другим негативным последствиям для общества.
  2. Этические проблемы: от предвзятых алгоритмов до потери конфиденциальности и отсутствия подотчетности — этические проблемы являются еще одной серьезной опасностью, которую ИИ представляет для человечества. Кто виноват, когда ИИ-водитель ранит или убивает пешехода? Кто несет ответственность за неправильный медицинский диагноз от ИИ? И кто должен нести ответственность за другие непреднамеренные последствия, например, когда ИИ непреднамеренно причиняет вред? По мере того, как все больше роботов с искусственным интеллектом и автономных транспортных средств станут реальностью, эти опасности станут мейнстримом.
  3. Безопасность: использование искусственного интеллекта для определенных задач безопасности, таких как наблюдение, кибербезопасность и автономное оружие, открывает множество потенциальных возможностей для уязвимости. Например, автономное оружие может привести к серьезным жертвам, потому что злоумышленники могут отравить данные, на которые опирается ИИ, что приведет к принятию решений, которые могут привести к серьезным жертвам или эскалации и без того напряженных конфликтов.
  4. Потеря человеческого контроля: Простые системы искусственного интеллекта, которые предлагают варианты дизайна, — это нормально, поскольку они неизбежно функционируют как помощники экспертов-людей. Но с более сложными моделями ИИ, которые могут принимать решения на основе все больших объемов данных, высока опасность того, что человеческий контроль и надзор станут менее актуальными. Это может привести к непредвиденным обстоятельствам, потому что, например, было бы разумно следовать рекомендациям ИИ, но действительно ли они правильны в данном случае?
  5. Навыки и экономическая зависимость: Использование ИИ в качестве экспертных знаний и экономических услуг общества таит в себе еще один набор опасностей. Во-первых, использование ИИ для получения информации может привести к снижению мыслительных способностей людей, поскольку эти обязанности берет на себя система. Во-вторых, опора на ИИ в сфере услуг и критической экономической инфраструктуры делает это общество открытым для кибератак и других угроз, связанных с ИИ.
  6. Дипфейки и дезинформация: Несколько лет назад дипфейки ошеломили мир своими удивительными возможностями, но это было только начало. По мере того, как модели генерации фото и видео ИИ улучшаются с каждым днем, наступит день, когда станет очень сложно — если не невозможно — отличить контент, созданный ИИ, от реальных изображений и видео. И, как всегда, его потенциальные реализации для дезинформации, клеветы, вымогательства, шантажа, порнографии мести, мошенничества, подрыва репутации и социальной инженерии безграничны.
  7. Экономическое неравенство и социальное неравенство: Мир уже сильно разделен на два класса — имущих и неимущих, что приводит к таким понятиям, как 1% элиты и 99% угнетенных. Поскольку ИИ опирается на капитал для разработки и экономической реализации, остается высокой опасность того, что даже меньший процент населения в конечном итоге получит экономическую и массовую выгоду от финансовой отдачи от искусственного интеллекта, вложенного в рынки.
  8. Социальная изоляция: многие пользователи социальных сетей уже подсели на свои смартфоны благодаря алгоритмам искусственного интеллекта, которые показывают им именно то, что они хотят видеть, и вовлекают их в другие развлекательные мероприятия. Эта эмоциональная зависимость создала определенный уровень зависимости и, как следствие, социальную изоляцию, когда многие пользователи чувствуют себя комфортно в одиночестве со своими телефонами. Кроме того, поскольку все больше сервисов ИИ заменяют людей в жизни человека, они также будут получать меньше физических взаимодействий.
  9. Манипуляции и влияние: Алгоритмы искусственного интеллекта уже повсеместно используются для успешного манипулирования результатами поисковых систем, лентами социальных сетей, виртуальными помощниками и чат-ботами. Это только вопрос времени, когда кто-то наткнется на инновационный способ максимизировать эти эффекты для получения прибыли или развлечения.
  10. Риски для здоровья и безопасности: Зависимость от ИИ в здравоохранении также сопряжена с рисками, которые могут поставить под угрозу здоровье и благополучие пациента. Они включают в себя возможную ошибочную диагностику заболевания и неправильное лечение, основанное на предвзятых или дискриминационных данных обучения. Другой возможностью является преднамеренное отравление данных пациента злоумышленником, чтобы выполнить нездоровую или даже фатальную рекомендацию по лечению от ИИ.
  11. Потеря человеческого творчества: Большие языковые модели с возможностями генерации текста, изображений и видео совершенствуются с каждым днем, и в настоящее время лидируют OpenAI GPT-4, Stable Diffusion и Midjourney 5. Эти системы упрощают и ускоряют создание всех типов контента, обычно предназначенных для художников и талантливых людей, от музыки до написанного текста, стихов, картин, видео и карандашных набросков. По мере того как они совершенствуются и становятся доступными для всех, архетипический человек-творец становится все менее и менее актуальным в обществе.
  12. Экзистенциальные риски: Опасность системы искусственного общего интеллекта (AGI) с возможностями, намного превосходящими возможности любого человека, и с настолько мощными ресурсами, что она может принять решение о подчинении людей или причинении им вреда, очень реальна.
  13. Отсутствие прозрачности: Никто по-настоящему не понимает, как работает искусственный интеллект, особенно когда алгоритмы сложны. Это означает, что вряд ли кто-либо точно знает, как принимаются определенные важные решения, что приводит к опасности предвзятых или дискриминационных результатов, необнаруживаемых уязвимостей в системе безопасности и злонамеренных атак, а также необъяснимости результатов.
  14. Снижение человеческой ценности и автономии: Прогнозируя и рекомендуя вещи для людей, ИИ постоянно берет на себя принятие решений и контроль. Кроме того, это может привести к еще более совершенным машинам или моделям, неподвластным человеческому контролю. И это уменьшит человеческую значимость во многих областях и профессиях, а также обесценит человеческие навыки, опыт и общественный вклад различных профессий в каждом обществе.
  15. Непреднамеренные последствия: Это, пожалуй, самая опасная из всех опасностей, которые ИИ представляет для человечества. Каковы непредвиденные последствия? Никто не знает. Никто не может знать, пока не станет слишком поздно. Это, по крайней мере, в теории.

Возможные решения опасностей ИИ

Опасности ИИ для человечества многомерны, а это означает, что решения этих опасностей должны быть многогранными. Вот некоторые из возможных решений, которые помогут предотвратить или уменьшить опасность ИИ для человечества.

  • Надежное регулирование и управление: правительствам необходимо создать регулирующие органы для управления и регулирования разработки ИИ с соблюдением этических стандартов, прозрачности и подотчетности.
  • Международное сотрудничество: правительствам всего мира необходимо работать вместе над разработкой этических принципов разработки ИИ и регулированием местных отраслей ИИ.
  • Общественное образование и осведомленность: информирование широкой общественности об искусственном интеллекте, его преимуществах и потенциальных рисках также поможет отдельным лицам и компаниям принимать правильные решения.
  • Объяснимый ИИ (XAI): Как следует из названия, XAI или eXplainable AI — это подход к разработке ИИ, который позволяет людям понять причины прогнозов модели.
  • Ответственный ИИ для общественного блага: Капиталисты, стремящиеся к прибыли, отвергнут это, но это одна из лучших вещей, которые человечество может сделать для себя. Почему бы не создать бесплатного врача или помощника с искусственным интеллектом для всех? Как насчет ассистивных технологий, охраны окружающей среды, поддержки психического здоровья, социальных услуг, продовольственной безопасности и социального обеспечения, и все это на базе социального ИИ?
  • Непрерывный мониторинг и оценка: Каждый заинтересованный технолог, исследователь или ученый должен следить за развитием ИИ. Потому что, хотя крупные компании можно легко регулировать и заставить следовать этическим нормам, все еще существуют непредсказуемые группы или команды, которые могут решить шокировать мир.

Заключение

Хотя искусственный интеллект может существенно повлиять на будущее человечества, понимание его опасностей также имеет решающее значение, потому что только тогда мы сможем безопасно и справедливо работать над его преимуществами для всех, одновременно снижая эти риски.

Ннамди Океке

Ннамди Океке

Ннамди Океке — компьютерный энтузиаст, который любит читать самые разные книги. Он предпочитает Linux, а не Windows/Mac, и использует
Ubuntu с первых дней. Вы можете поймать его в твиттере через Бонготракс

Статей: 278

Получить технические вещи

Технические тенденции, тенденции стартапов, обзоры, онлайн-доход, веб-инструменты и маркетинг один или два раза в месяц.

Оставьте комментарий

Ваш электронный адрес не будет опубликован. Обязательные поля помечены * *