AI draudi cilvēcei

Atklājiet dziļās briesmas, ko mākslīgais intelekts (AI) rada cilvēcei, tostarp iespējamos risinājumus, kas var palīdzēt aizsargāt mūsu nākotni.

Martā 22, 2023, Apturiet milzu AI eksperimentus Tika publicēta atklāta vēstule, kurā visas laboratorijas visā pasaulē tika aicinātas nekavējoties pārtraukt giganta attīstību AI sistēmas lielākas par OpenAI GTP-4.

Šīs vēstules pamatojums ir par daudzajām briesmām, ko progresīvie AI modeļi rada cilvēcei, tādēļ ir nepieciešams kopīgi izstrādāt un ieviest drošības protokolus progresīvām mākslīgā intelekta sistēmām visā pasaulē.

Šajā rakstā ir apskatītas visas briesmas, ko AI rada cilvēcei, un tiek apsvērti arī iespējamie šo apdraudējumu risinājumi.

GPT-4 un 1,000 parakstu vēstule

Lielākajai daļai cilvēku AI ir jautri. Pateicoties mākslīgā intelekta algoritmiem, varat uzņemt viedus attēlus un videoklipus, viegli rediģēt savu saturu, strādāt ātrāk, iegūt labāku informāciju, ieteikumus un tā tālāk.

Tomēr, kad 2023. gada martā parādījās ziņas par atklātu vēstuli, lai uz laiku apturētu mākslīgā intelekta attīstību, lielākā daļa cilvēku pievērsa uzmanību šiem parakstiem. No Elon Musk uz Stīvs Vozņaks no Apple, un simtiem citu ievērojamu zinātnieku un vadošo pētnieku, šīs vēstules nopietnība bija skaidra.

Kopš tā laika vēstule ir savākusi vairāk nekā 27 XNUMX parakstu, un to skaits tiek skaitīts, taču, patiesību sakot, AI attīstība ir kā bruņošanās sacensība. Tu palēnināsi, tu zaudē.

AI draudi cilvēcei

Mākslīgais intelekts skar daudzas cilvēku privātās un profesionālās dzīves jomas atkarībā no tā, kas jūs esat un ko jūs darāt. Tālāk ir sniegts saraksts ar galvenajiem AI draudiem cilvēcei kopumā.

  1. Darba maiņa un bezdarba krīze: Iespējamā darbinieku pārvietošana visu veidu profesijās ir viena no galvenajām AI radītajām bažām. Papildus darba zaudēšanai tas var izraisīt krīzes skartajās sabiedrībās, sociāli ekonomiskās atšķirības un citas negatīvas sekas sabiedrībai.
  2. Ētiskās rūpes: No neobjektīviem algoritmiem līdz privātuma zaudēšanai un atbildības trūkumam, ētiskas bažas ir vēl viens nopietns apdraudējums, ko AI rada cilvēcei. Kurš ir vainīgs, ja AI vadītājs ievaino vai nogalina gājēju? Kurš ir atbildīgs par nepareizu AI medicīnisko diagnozi? Un kam būtu jāuzņemas atbildība par citām neparedzētām sekām, piemēram, ja AI netīši nodara kaitējumu? Tā kā arvien vairāk robotu un autonomas braukšanas transportlīdzekļu kļūst par realitāti, šīs briesmas kļūs plaši izplatītas.
  3. Drošības riski: Paļaušanās uz mākslīgo intelektu noteiktu drošības uzdevumu, piemēram, novērošanas, kiberdrošības un autonomo ieroču, veikšanai paver daudz potenciālu izmantošanu. Autonomie ieroči var izraisīt nopietnus upurus, piemēram, jo ​​slikti dalībnieki var saindēt datus, uz kuriem paļaujas AI, liekot tai pieņemt lēmumus, kas var izraisīt nopietnus upurus vai saasināt jau tā saspringtus konfliktus.
  4. Cilvēka kontroles zaudēšana: Vienkāršas AI sistēmas, kas piedāvā dizaina ieteikumus, ir piemērotas, jo tās neizbēgami darbojas kā cilvēku ekspertu palīgi. Taču ar sarežģītākiem AI modeļiem, kas var pieņemt lēmumus, pamatojoties uz arvien lielāku datu apjomu, pastāv liels risks, ka cilvēku kontrole un uzraudzība kļūs mazāk svarīga. Tas var novest pie neparedzētiem apstākļiem, jo, piemēram, būtu prātīgi ievērot AI ieteikumus, bet vai tie tiešām šajā gadījumā ir pareizi?
  5. Prasmju un ekonomiskā atkarība: Paļaušanās uz mākslīgo intelektu sabiedrības zināšanu un ekonomisko pakalpojumu jomā rada vēl vienu apdraudējumu. Pirmkārt, paļaušanās uz AI informācijas iegūšanai var samazināt cilvēku domāšanas spējas, jo sistēma pārņem šos pienākumus. Otrkārt, pakalpojumu un kritiskās ekonomikas infrastruktūras paļaušanās uz AI paver šo sabiedrību kiberuzbrukumiem un citiem ar AI raksturīgiem draudiem.
  6. Dziļi viltojumi un dezinformācija: Deepfakes dažus gadus atpakaļ pārsteidza pasauli ar savām pārsteidzošajām iespējām, taču tas bija tikai sākums. Tā kā mākslīgā intelekta foto un video ģenerēšanas modeļi ar katru dienu kļūst arvien labāki, pienāks diena, kad būs ļoti grūti – ja ne neiespējami – atšķirt mākslīgā intelekta radīto saturu no reāliem attēliem un videoklipiem. Un kā vienmēr, tās iespējamās ieviešanas dezinformācijas, neslavas celšanas, izspiešanas, šantāžas, atriebības pornogrāfijas, krāpšanas, varoņu slepkavības un sociālās inženierijas jomā ir neierobežotas.
  7. Ekonomiskā atšķirība un sociālā nevienlīdzība: Pasaule jau tagad ir ļoti iedalīta divās šķirās — labklājīgajos un bezjēdzīgos, kas noved pie tādiem terminiem kā 1% elite un 99% apspiestie. Tā kā AI attīstībai un ekonomikas īstenošanai ir atkarīgs no kapitāla, joprojām pastāv liels risks, ka pat mazāka daļa iedzīvotāju gūs ekonomisku un milzīgu labumu no tirgos ieguldītā mākslīgā intelekta finansiālās atdeves.
  8. Sociālā izolācija: Daudzi sociālo mediju lietotāji jau ir pieķērušies saviem viedtālruņiem, pateicoties AI algoritmiem, kas parāda viņiem tieši to, ko viņi vēlas redzēt, un vēl vairāk iesaista viņus citos izklaidējošos veidos. Šī emocionālā atkarība ir radījusi zināmu atkarības līmeni un no tās izrietošu sociālo izolāciju, un daudzi lietotāji jūtas ērti vieni ar saviem tālruņiem. Turklāt, tā kā vairāk AI pakalpojumu aizstāj cilvēkus cilvēka dzīvē, viņiem samazināsies arī fiziskā mijiedarbība.
  9. Manipulācija un ietekme: AI algoritmi jau tiek izmantoti visur, lai veiksmīgi manipulētu ar meklētājprogrammu rezultātiem, sociālo mediju plūsmām, virtuālajiem palīgiem un tērzēšanas robotiem. Tas ir tikai laika jautājums, kad kāds paklups uz novatorisku veidu, kā palielināt šos efektus peļņas vai izklaides nolūkos.
  10. Veselības un drošības riski: veselības aprūpes atkarība no mākslīgā intelekta ir saistīta arī ar riskiem, kas var apdraudēt pacienta veselību un labklājību. Tie ietver iespējamu nepareizu slimības diagnozi un nepareizu ārstēšanu, pamatojoties uz neobjektīviem vai diskriminējošiem apmācības datiem. Vēl viena iespēja ir slikta dalībnieka apzināta saindēšana ar pacienta datiem, lai radītu neveselīgas vai pat letālas ārstēšanas ieteikumu no AI.
  11. Cilvēka radošuma zudums: lieli valodu modeļi ar teksta, attēlu un video ģenerēšanas iespējām kļūst arvien labāki ar katru dienu, un OpenAI GPT-4, Stable Diffusion un Midjourney 5 pašlaik ir vadošie. Šīs sistēmas ļauj vieglāk un ātrāk izveidot visu veidu saturu, kas parasti tiek atstāts māksliniekiem un dabiski talantīgiem cilvēkiem, sākot no mūzikas līdz rakstītam tekstam, dzejoļiem, gleznām, videoklipiem un zīmuļu skicēm. Tiem kļūstot labākiem un visiem pieejamiem, arhetipiskais cilvēka radītājs sabiedrībā kļūst arvien mazāk aktuāls.
  12. Eksistenciālie riski: Mākslīgā vispārējā intelekta (AGI) sistēmas briesmas, kuru iespējas ir daudz plašākas nekā jebkura cilvēka spējas un kuras resursi ir tik spēcīgi, ka tā var nolemt pakļaut cilvēkus vai kaut kādā veidā kaitēt cilvēkiem, ir ļoti reālas.
  13. Pārredzamības trūkums: Neviens īsti nesaprot, kā darbojas mākslīgais intelekts, it īpaši, ja algoritmi ir sarežģīti. Tas nozīmē, ka gandrīz neviens precīzi nezina, kā tiek pieņemti noteikti svarīgi lēmumi, kas rada neobjektīvas vai diskriminējošas iznākuma draudus, nenosakāmas drošības ievainojamības un ļaunprātīgus uzbrukumus, kā arī rezultātu neuzskaiti.
  14. Samazināta cilvēka vērtība un autonomija: Paredzot un iesakot lietas cilvēkiem, AI nepārtraukti pārņem cilvēku lēmumu pieņemšanu un kontroli. Turklāt tas var novest pie vēl labāk attīstītām mašīnām vai modeļiem, kurus cilvēks nevar kontrolēt. Un tas mazinās cilvēka nozīmi daudzās jomās un profesijās, kā arī devalvēs cilvēku prasmes, zināšanas un sabiedrības ieguldījumu no dažādām profesijām katrā sabiedrībā.
  15. Neparedzētas sekas: Šī, iespējams, ir visbīstamākā no visām briesmām, ko AI rada cilvēcei. Kādas ir neparedzētas sekas? Neviens nezina. Neviens nevar zināt, kamēr nav par vēlu. Tā vismaz teorētiski.

Iespējamie risinājumi AI radītajām briesmām

AI draudi cilvēcei ir daudzdimensionāli, un tas nozīmē, ka šo apdraudējumu risinājumiem būs jābūt daudzpusīgiem. Šeit ir daži no iespējamiem risinājumiem, kas palīdzētu novērst AI radītās briesmas cilvēcei vai samazināt tās.

  • Stingrs regulējums un pārvaldība: valdībām ir jāizveido regulatīvās iestādes, lai pārvaldītu un regulētu mākslīgā intelekta attīstību, ievērojot ētikas standartus, pārredzamību un atbildību.
  • Starptautiskā sadarbība: valdībām no visas pasaules ir jāsadarbojas, lai izstrādātu ētikas vadlīnijas mākslīgā intelekta attīstībai un regulētu savas vietējās AI nozares.
  • Sabiedrības izglītošana un informētība: Plašas sabiedrības izglītošana par mākslīgo intelektu, tā priekšrocībām un iespējamiem riskiem arī palīdzēs indivīdiem un uzņēmumiem pieņemt pareizos lēmumus.
  • Izskaidrojams AI (XAI): Kā norāda nosaukums, XAI jeb eXplainable AI ir AI izstrādes pieeja, kas ļauj cilvēkiem saprast modeļa prognožu pamatojumu.
  • Atbildīgs AI par sociālo labumu: Peļņas meklētāji to noraidīs, taču tā ir viena no labākajām lietām, ko cilvēce var darīt savā labā. Kāpēc gan neizveidot visiem bezmaksas AI ārstu vai palīgu? Kā ar palīgtehnoloģijām, vides saglabāšanu, garīgās veselības atbalstu, sociālajiem pakalpojumiem, nodrošinātību ar pārtiku un sociālo labklājību, ko nodrošina sociālais AI?
  • Nepārtraukta uzraudzība un novērtēšana: Katram ieinteresētajam tehnologam, pētniekam vai zinātniekam ir jāseko AI attīstībai. Tā kā, lai gan lielākos uzņēmumus var viegli regulēt un likt ievērot ētikas vadlīnijas, joprojām ir tādas neparedzamas grupas vai komandas, kas var nolemt šokēt pasauli.

Secinājumi

Lai gan mākslīgajam intelektam ir potenciāls dramatiski ietekmēt cilvēces nākotni, ļoti svarīga ir arī izpratne par tā briesmām, jo ​​tikai tad mēs varam droši un taisnīgi strādāt pie tā ieguvumiem ikvienam, vienlaikus mazinot šos riskus.

Nnamdi Okeke

Nnamdi Okeke

Nnamdi Okeke ir datoru entuziasts, kuram patīk lasīt dažādas grāmatas. Viņš dod priekšroku Linux, nevis Windows/Mac, un ir izmantojis
Ubuntu kopš tā sākuma. Jūs varat viņu noķert Twitter, izmantojot bongotrax

Raksti: 299

Saņemiet tehnikas preces

Tehniskās tendences, starta tendences, atsauksmes, tiešsaistes ienākumi, tīmekļa rīki un mārketings vienu vai divas reizes mēnesī