Опасностите от AI за човечеството

Открийте дълбоките опасности, породени от изкуствения интелект (AI) за човечеството, включително потенциални решения, които могат да помогнат за опазването на нашето бъдеще.

На март 22, 2023, Пауза на Giant AI Experiments беше публикувано отворено писмо, което призовава всички лаборатории по света незабавно да спрат разработването на гиганта AI системи по-големи от GTP-4 на OpenAI.

Мотивите зад това писмо са за многобройните опасности, които усъвършенстваните модели на изкуствен интелект представляват за човечеството, което прави необходимостта от съвместно разработване и прилагане на протоколи за безопасност за усъвършенствани системи с изкуствен интелект по целия свят.

Тази публикация разглежда всички опасности, които AI представлява за човечеството, и разглежда възможните решения и на тези опасности.

GPT-4 и писмото с 1,000 подписа

За повечето хора изкуственият интелект е забавен. Можете да заснемате интелигентни снимки и видеоклипове, да редактирате вашите неща с лекота, да работите по-бързо, да получавате по-добра информация, препоръки и т.н., благодарение на алгоритмите за изкуствен интелект.

Въпреки това, когато през март 2023 г. излезе новината за отворено писмо за спиране на развитието на ИИ за известно време, това, което привлече вниманието на повечето хора, бяха имената зад тези подписи. от Елон Мъск да се Стив Возняк от Apple, и стотици други известни учени и водещи изследователи, сериозността на това писмо беше ясна.

Оттогава писмото е събрало над 27 XNUMX подписа и расте, но честно казано – развитието на AI е като надпревара във въоръжаването. Забавяш се, губиш.

Опасностите от ИИ за човечеството

Изкуственият интелект засяга много области от личния и професионалния живот на хората, в зависимост от това кой сте и какво правите. Следното е списък на основните опасности от ИИ за човечеството като цяло.

  1. Изместване на работа и криза на безработицата: Потенциалното изместване на човешки работници във всички видове професии е едно от основните опасения относно ИИ. В допълнение към загубата на работа, това може да доведе до кризи в засегнатите общества, социално-икономически различия и други отрицателни ефекти върху обществото.
  2. Етични опасения: От пристрастни алгоритми до загуба на неприкосновеност на личния живот и липса на отчетност, етичните проблеми са друга голяма опасност, представлявана от ИИ за човечеството. Кой е виновен, когато шофьор с изкуствен интелект нарани или убие пешеходец? Кой е отговорен за грешна медицинска диагноза от AI? И кой трябва да бъде държан отговорен за други нежелани последствия, като например когато AI неволно навреди? Тъй като повече работещи с изкуствен интелект роботи и автономни превозни средства стават реалност, тези опасности ще станат масови.
  3. Рискове за сигурността: Разчитането на изкуствен интелект за определени задачи за сигурност, като наблюдение, киберсигурност и автономни оръжия, отваря много потенциални експлойти. Автономните оръжия могат да причинят сериозни жертви, например, защото лошите участници могат да отровят данните, на които разчита AI, което да го накара да вземе решения, които могат да доведат до сериозни жертви или да ескалират вече напрегнати конфликти.
  4. Загуба на човешки контрол: Простите AI системи, които предлагат предложения за дизайн, са добре, тъй като те неизбежно функционират като помощници на човешки експерти. Но с по-сложни AI модели, които могат да вземат решения въз основа на все по-големи количества данни, опасността човешкият контрол и надзор да станат по-малко релевантни е голяма. Това може да доведе до непредвидени обстоятелства, защото например би било разумно да следвате препоръките на AI, но наистина ли са правилни в този случай?
  5. Умения и икономическа зависимост: Разчитането на AI за експертизата и икономическите услуги на обществото крие друг набор от опасности. Първо, разчитането на AI за информация може да доведе до намалени мисловни способности на хората, тъй като системата поема тези задължения. Второ, разчитането на ИИ за услуги и критична икономическа инфраструктура отваря това общество за кибератаки и други специфични за ИИ заплахи.
  6. Deepfakes и дезинформация: Deepfakes смая света с невероятните си възможности преди няколко години, но това беше само началото. Тъй като моделите за генериране на снимки и видео с изкуствен интелект се подобряват всеки ден, ще дойде денят, в който ще стане много трудно – ако не и невъзможно – да се разграничи генерираното от изкуствен интелект съдържание от реалните снимки и видеоклипове. И както винаги, неговите потенциални приложения за дезинформация, клевета, изнудване, изнудване, порнография за отмъщение, измама, убийство на герои и социално инженерство са неограничени.
  7. Икономическо неравенство и социално неравенство: Светът вече е силно разделен на две класи на имащи и нямащи, което води до термини като 1% елит и 99% потиснати. Тъй като AI разчита на капитал за развитие и икономическо внедряване, опасността остава висока дори по-малък процент от населението в крайна сметка да се възползва икономически и масово от финансовата възвръщаемост на изкуствения интелект, инвестиран в пазарите.
  8. Социална изолация: Много потребители на социални медии вече са пристрастени към своите смартфони, благодарение на AI алгоритми, които им показват точно какво искат да видят и допълнително ги ангажират по други забавни начини. Тази емоционална зависимост е създала известно ниво на пристрастяване и последваща социална изолация, като много потребители се чувстват комфортно сами с телефоните си. Също така, тъй като все повече AI услуги заместват хората в живота на човека, те също ще получават намалени физически взаимодействия.
  9. Манипулация и влияние: AI алгоритмите вече се използват навсякъде за успешно манипулиране на резултати от търсачките, емисии на социални медии, виртуални асистенти и чатботове. Само въпрос на време е някой да се натъкне на иновативен начин за максимизиране на тези ефекти за печалба или забавление.
  10. Рискове за здравето и безопасността: Зависимостта от ИИ за здравеопазване също е свързана с рискове, които могат да застрашат здравето и благосъстоянието на пациента. Те включват възможна погрешна диагноза на заболяване и погрешно лечение въз основа на предубедени или дискриминационни данни от обучението. Друга възможност е умишленото отравяне на данните на пациента от лош актьор, за да се постигне нездравословна или дори фатална препоръка за лечение от AI.
  11. Загуба на човешка креативност: Големите езикови модели с възможности за генериране на текст, изображения и видео се подобряват всеки ден, като GPT-4 на OpenAI, Stable Diffusion и Midjourney 5 в момента са водещи. Тези системи улесняват и ускоряват създаването на всички видове съдържание, което обикновено се оставя за художници и естествено талантливи, от музика до писмен текст, стихове, картини, видеоклипове и скици с молив. Тъй като те се подобряват и стават достъпни за всички, архетипният човешки създател става все по-малко релевантен в обществото.
  12. Екзистенциални рискове: Опасността от система с изкуствен общ интелект (AGI) с възможности, далеч надхвърлящи тези на всеки човек и с толкова мощни ресурси, че може да реши да подчини или навреди на хората по някакъв начин, е много реална.
  13. Липса на прозрачност: Никой не разбира наистина как работи изкуственият интелект, особено когато алгоритмите са сложни. Това означава, че едва ли някой знае как точно се стига до определени важни решения, което води до опасност от пристрастни или дискриминационни резултати, неоткриваеми уязвимости в сигурността и злонамерени атаки, както и липса на отчетност на резултатите.
  14. Намалена човешка стойност и автономия: Като предвижда и препоръчва неща за хората, AI непрекъснато поема вземането на човешки решения и контрола. Освен това, това може да доведе до още по-добре развити машини или модели, които са извън човешкия контрол. И това ще намали значението на човека в много области и професии, както и ще обезцени човешките умения, опит и обществен принос от различни професии във всяко общество.
  15. Неволни последствия: Това е може би най-опасната от всички опасности, които ИИ представлява за човечеството. Какви са нежеланите последствия? Никой не знае. Никой не може да знае, докато не стане твърде късно. Това е поне на теория.

Възможни решения за опасностите от ИИ

Опасностите от ИИ за човечеството са многоизмерни и това означава, че решенията на тези опасности ще трябва да бъдат многостранни. Ето някои от потенциалните решения, които да помогнат за предотвратяване на опасностите от ИИ за човечеството или за тяхното намаляване.

  • Стабилно регулиране и управление: Правителствата трябва да създадат регулаторни органи, които да управляват и регулират развитието на ИИ с етични стандарти, прозрачност и отчетност.
  • Интернационална кооперация: Правителствата от цял ​​свят трябва да работят заедно за разработването на етични насоки за разработване на ИИ и регулиране на техните местни индустрии за ИИ.
  • Обществено образование и осведоменост: Обучението на широката общественост относно изкуствения интелект, ползите от него и потенциалните рискове също ще помогне на хората и бизнеса да вземат правилните решения.
  • Обясним AI (XAI): Както подсказва името, XAI или eXplainable AI е подход за разработка на AI, който дава възможност на хората да разберат мотивите зад прогнозите на модела.
  • Отговорен AI за социално благо: Капиталистите, търсещи печалба, ще отхвърлят това, но това е едно от най-добрите неща, които човечеството може да направи за себе си. Защо не създадете безплатен AI лекар или асистент за всички? Какво ще кажете за помощни технологии, опазване на околната среда, подкрепа за психично здраве, социални услуги, продоволствена сигурност и социално благосъстояние, всички захранвани от Social AI?
  • Непрекъснат мониторинг и оценка: Всеки заинтересован технолог, изследовател или учен трябва да следи развитието на ИИ. Защото докато големите компании могат лесно да бъдат регулирани и накарани да следват етичните насоки, все още има непредсказуеми групи или екипи, които могат да решат да шокират света.

Заключение

Въпреки че изкуственият интелект има потенциала да повлияе драстично на бъдещето на човечеството, разбирането на неговите опасности също е изключително важно, защото само тогава можем безопасно и справедливо да работим за ползите от него за всички, като същевременно смекчаваме тези рискове.

Ннамди Океке

Ннамди Океке

Ннамди Океке е компютърен ентусиаст, който обича да чете широка гама от книги. Той има предпочитания към Linux пред Windows/Mac и използва
Ubuntu от ранните си дни. Можете да го хванете в Twitter чрез бонготракс

Статии: 298

Получавайте технически неща

Технически тенденции, тенденции при стартиране, прегледи, онлайн приходи, уеб инструменти и маркетинг веднъж или два пъти месечно