Небезпека ШІ для людства

Відкрийте для себе серйозні небезпеки, які несе людству штучний інтелект (ШІ), включно з потенційними рішеннями, які можуть допомогти захистити наше майбутнє.

На березні 22, 2023, Призупинити експерименти Giant AI був опублікований відкритий лист із закликом до всіх лабораторій світу негайно припинити розробку гіганта AI системи більші ніж GTP-4 від OpenAI.

Аргументація цього листа полягає в численних небезпеках, які передові моделі штучного інтелекту становлять для людства, що робить необхідним спільно розробляти та впроваджувати протоколи безпеки для просунутих штучний інтелект систем у всьому світі.

У цьому дописі розглядаються всі небезпеки, які створює ШІ для людства, а також розглядаються можливі шляхи вирішення цих небезпек.

GPT-4 і лист із 1,000 підписами

Для більшості людей ШІ приносить задоволення. Завдяки алгоритмам штучного інтелекту ви можете знімати розумні фотографії та відео, легко редагувати свої матеріали, працювати швидше, отримувати кращу інформацію, рекомендації тощо.

Однак, коли в березні 2023 року з’явилася новина про відкритий лист із закликом припинити на деякий час розробку штучного інтелекту, увагу більшості людей привернули імена, які стояли за цими підписами. Від Елон Маск до Стів Возняк з Apple, а також сотні інших видатних учених і провідних дослідників, серйозність цього листа була зрозуміла.

Відтоді лист зібрав понад 27 тисяч підписів, і кількість підписів зростає, але чесно кажучи, розробка ШІ схожа на гонку озброєнь. Сповільнюєшся, програєш.

Небезпека ШІ для людства

Штучний інтелект зачіпає багато сфер приватного та професійного життя людей, залежно від того, ким ви є і чим займаєтеся. Нижче наведено перелік основних небезпек штучного інтелекту для людства в цілому.

  1. Зміщення роботи та криза безробіття: Потенційне витіснення працівників у всіх типах професій є однією з головних проблем, що стосуються ШІ. Окрім втрати роботи, це може призвести до криз у постраждалих суспільствах, соціально-економічної нерівності та інших негативних наслідків для суспільства.
  2. Етичні проблеми: від упереджених алгоритмів до втрати конфіденційності та відсутності підзвітності, етичні проблеми є ще однією серйозною небезпекою, яку становить ШІ для людства. Хто винен, коли штучний водій травмує або вбиває пішохода? Хто відповідає за неправильний медичний діагноз від ШІ? І хто повинен нести відповідальність за інші ненавмисні наслідки, наприклад, коли ШІ ненавмисно завдає шкоди? У міру того, як все більше роботів на основі ШІ та автономних транспортних засобів стануть реальністю, ці небезпеки стануть основними.
  3. Безпека Ризики: Використання штучного інтелекту для певних завдань безпеки, таких як спостереження, кібербезпека та автономна зброя, відкриває багато потенційних можливостей. Наприклад, автономна зброя може спричинити серйозні втрати, тому що зловмисники можуть отруїти дані, на які покладається ШІ, що змусить його приймати рішення, які можуть призвести до серйозних втрат або ескалації вже напружених конфліктів.
  4. Втрата людського контролю: Прості системи штучного інтелекту, які пропонують пропозиції щодо дизайну, підходять, оскільки вони неминуче функціонують як помічники експертів-людей. Але зі складнішими моделями штучного інтелекту, які можуть приймати рішення на основі все більших обсягів даних, велика небезпека того, що людський контроль і нагляд стануть менш актуальними. Це може призвести до непередбачуваних обставин, оскільки, наприклад, було б розумно дотримуватися рекомендацій ШІ, але чи справді вони правильні в цьому випадку?
  5. Навички та економічна залежність: Покладання на штучний інтелект для надання експертних знань та економічних послуг суспільству створює ще одну небезпеку. По-перше, залежність від штучного інтелекту для отримання інформації може призвести до зниження можливостей мислення людей, оскільки система бере на себе ці обов’язки. По-друге, залежність від штучного інтелекту для надання послуг і критичної економічної інфраструктури відкриває це суспільство для кібератак та інших специфічних загроз ШІ.
  6. Deepfakes & Дезінформація: Deepfakes приголомшили світ своїми дивовижними можливостями кілька років тому, але це був лише початок. З кожним днем ​​моделі генерації фото та відео штучним інтелектом стають кращими, і настане день, коли стане дуже важко — якщо не неможливо — відрізнити створений штучним інтелектом контент від реальних зображень і відео. І, як завжди, його потенційні можливості для дезінформації, наклепу, вимагання, шантажу, порно з помсти, шахрайства, вбивства персонажів і соціальної інженерії безмежні.
  7. Економічна нерівність і соціальна нерівність: Світ уже сильно поділений на два класи заможних і бідних, що призводить до таких термінів, як 1% еліти та 99% пригноблених. Оскільки штучний інтелект покладається на капітал для розробки та економічного впровадження, залишається велика небезпека того, що навіть менший відсоток населення в кінцевому підсумку отримає економічну та масову вигоду від фінансових прибутків штучного інтелекту, інвестованого в ринки.
  8. Соціальна ізоляція: Багато соціальні медіа користувачі вже підключилися до своїх смартфонів завдяки алгоритмам AI, які показують їм саме те, що вони хочуть бачити, і залучають їх іншими цікавими способами. Ця емоційна залежність породила певний рівень залежності та, як наслідок, соціальну ізоляцію, коли багатьом користувачам комфортно залишатися наодинці зі своїми телефонами. Крім того, у міру того, як все більше сервісів штучного інтелекту замінять людей у ​​житті людини, вони також отримають менше фізичної взаємодії.
  9. Маніпуляція та вплив: Алгоритми штучного інтелекту вже використовуються всюди для маніпулювання Пошукова система результати, канали соціальних мереж, віртуальні помічники та чат-боти. Це лише питання часу, коли хтось натрапить на інноваційний спосіб максимізувати ці ефекти для прибутку чи розваги.
  10. Ризики для здоров'я та безпеки: Залежність від ШІ для охорони здоров’я також пов’язана з ризиками, які можуть загрожувати здоров’ю та благополуччю пацієнта. Вони включають можливу неправильну діагностику захворювання та неправильне лікування на основі упереджених або дискримінаційних даних навчання. Іншою можливістю є навмисне отруєння даних пацієнта зловмисником, щоб здійснити нездорову або навіть смертельну рекомендацію щодо лікування від ШІ.
  11. Втрата людської творчості: Великі мовні моделі з можливостями генерації тексту, зображень і відео стають кращими з кожним днем, а OpenAI GPT-4, Stable Diffusion і Midjourney 5 наразі лідирують. Ці системи спрощують і пришвидшують створення всіх типів вмісту, які зазвичай залишають для художників і талановитих людей від природи, від музики до письмового тексту, віршів, картин, відео та ескізів олівцем. У міру того, як вони покращуються та стають доступними для всіх, архетип людини-творця стає все менш актуальним у суспільстві.
  12. Екзистенціальні ризики: Небезпека системи загального штучного інтелекту (AGI) із можливостями, що набагато перевищують можливості будь-якої людини, і з настільки потужними ресурсами, що вона може вирішувати підпорядкувати собі чи завдати шкоди людям, цілком реальна.
  13. Відсутність прозорості: Ніхто по-справжньому не розуміє, як працює штучний інтелект, особливо коли алгоритми складні. Це означає, що навряд чи хтось точно знає, як приймаються певні важливі рішення, що призводить до небезпеки упереджених або дискримінаційних результатів, невиявлених уразливостей системи безпеки та зловмисних атак, а також непідзвітності результатів.
  14. Зменшення людської цінності та автономії: Прогнозуючи та рекомендуючи речі для людей, ШІ постійно бере на себе прийняття рішень і контроль над ними. Крім того, це може призвести до ще краще розроблених машин або моделей, які знаходяться поза контролем людини. І це зменшить значущість людини в багатьох сферах і професіях, а також знецінить людські навички, досвід і суспільний внесок різних професій у кожному суспільстві.
  15. Навмисні наслідки: Це, мабуть, найнебезпечніша з усіх небезпек, які несе людству ШІ. Які непередбачені наслідки? Ніхто не знає. Ніхто не може знати, поки не пізно. Це принаймні в теорії.

Можливі рішення щодо небезпек ШІ

Небезпека штучного інтелекту для людства є багатовимірною, і це означає, що рішення цих небезпек повинні бути багатогранними. Ось деякі потенційні рішення, які допоможуть запобігти небезпеці ШІ для людства або зменшити її.

  • Надійне регулювання та управління: Уряди повинні створити регулюючі органи для управління та регулювання розробки штучного інтелекту з дотриманням етичних стандартів, прозорості та підзвітності.
  • Міжнародне співробітництво: Уряди з усього світу повинні працювати разом над розробкою етичних принципів розвитку штучного інтелекту та регулюванням місцевих галузей штучного інтелекту.
  • Громадська освіта та обізнаність: Ознайомлення широкої громадськості зі штучним інтелектом, його перевагами та потенційними ризиками також допоможе окремим особам і компаніям приймати правильні рішення.
  • Пояснюваний ШІ (XAI): Як випливає з назви, XAI або eXplainable AI — це підхід до розробки штучного інтелекту, який дає змогу людям зрозуміти обґрунтування прогнозів моделі.
  • Відповідальний ШІ для соціального блага: Капіталісти, які шукають прибутку, відкинуть це, але це одна з найкращих речей, які людство може зробити для себе. Чому б не створити безкоштовного лікаря або помічника зі штучним інтелектом для всіх? Як щодо допоміжних технологій, збереження навколишнього середовища, підтримки психічного здоров’я, соціальних послуг, продовольчої безпеки та соціального забезпечення, все це на основі соціального штучного інтелекту?
  • Постійний моніторинг та оцінка: Кожен зацікавлений технолог, дослідник чи вчений повинен стежити за розробкою ШІ. Тому що, хоча великі компанії можна легко регулювати та змусити дотримуватися етичних принципів, все одно існують непередбачувані групи чи команди, які можуть вирішити шокувати світ.

Висновок

Хоча штучний інтелект має потенціал кардинально вплинути на майбутнє людства, розуміння його небезпек також є надзвичайно важливим, оскільки лише тоді ми зможемо безпечно та справедливо працювати над його перевагами для всіх, одночасно пом’якшуючи ці ризики.

Ннамді Океке

Ннамді Океке

Ннамді Океке — комп’ютерний ентузіаст, який любить читати широкий вибір книг. Він віддає перевагу Linux, а не Windows/Mac, і використовує
Ubuntu з перших днів. Ви можете зловити його в твіттері через бонготракс

Статті: 288

Отримайте технічні речі

Технологічні тенденції, тенденції стартапів, огляди, онлайн-дохід, веб-інструменти та маркетинг один або два рази на місяць