AI ohud inimkonnale
Avastage tehisintellekti (AI) inimkonnale kujutavad sügavad ohud, sealhulgas võimalikud lahendused, mis võivad aidata meie tulevikku kaitsta.

Märtsis 22, 2023, Peatage hiiglaslikud AI-katsed avaldati avatud kiri, milles kutsuti kõiki laboreid üle maailma üles viivitamatult lõpetama hiiglase arendamine AI süsteemid suuremad kui OpenAI GTP-4.
Selle kirja arutluskäik puudutab arvukaid ohte, mida arenenud tehisintellekti mudelid inimkonnale kujutavad, mistõttu on vaja ühiselt välja töötada ja rakendada kogu maailmas täiustatud tehisintellektisüsteemide ohutusprotokolle.
See postitus vaatleb kõiki ohte, mida tehisintellekt inimkonnale kujutab, ja kaalub ka nende ohtude võimalikke lahendusi.
GPT-4 ja 1,000 allkirjaga kiri
Enamiku inimeste jaoks on AI lõbus. Tänu tehisintellekti algoritmidele saate jäädvustada nutikaid pilte ja videoid, hõlpsasti redigeerida oma kraami, töötada kiiremini, hankida paremat teavet, soovitusi ja nii edasi.
Kui aga 2023. aasta märtsis ilmus uudis avalikust kirjast tehisintellekti arendamise mõneks ajaks peatamiseks, köitis enamiku inimeste tähelepanu nende allkirjade taga olevad nimed. Alates Elon Musk et Apple'i Steve Wozniakja sadade teiste märkimisväärsete teadlaste ja juhtivate teadlaste seas oli selle kirja tõsidus selge.
Sellest ajast alates on kiri kogunud üle 27 XNUMX allkirja ja seda on juurde tulnud, kuid ausalt öeldes on tehisintellekti arendamine nagu võidurelvastumine. Kui aeglustad, kaotad.
AI ohud inimkonnale
Tehisintellekt puudutab paljusid inimeste era- ja tööelu valdkondi, olenevalt sellest, kes sa oled ja millega tegeled. Järgnevalt on loetletud peamised AI ohud inimkonnale üldiselt.
- Töökoha ümberpaigutamine ja töötuse kriis: Inimtöötajate võimalik ümberpaigutamine igat tüüpi kutsealadel on tehisintellekti üks peamisi probleeme. Lisaks töökohtade kaotamisele võib see kaasa tuua kriise mõjutatud ühiskondades, sotsiaalmajanduslikke erinevusi ja muid negatiivseid mõjusid ühiskonnale.
- Eetilised mured: Alates kallutatud algoritmidest kuni privaatsuse kaotamiseni ja vastutuse puudumiseni on eetilised probleemid veel üks suur oht, mida tehisintellekt inimkonnale kujutab. Kes on süüdi, kui AI-juht jalakäijale haiget teeb või tapab? Kes vastutab tehisintellekti põhjustatud vale meditsiinilise diagnoosi eest? Ja kes peaks vastutama muude soovimatute tagajärgede eest, näiteks kui AI teeb tahtmatult kahju? Kuna rohkem AI-toega roboteid ja autonoomseid sõidukeid saab reaalsuseks, muutuvad need ohud peavooluks.
- Turvariskid: Toetumine tehisintellektile teatud turvaülesannete (nt valve, küberjulgeolek ja autonoomsed relvad) puhul avab palju potentsiaalseid ärakasutamisvõimalusi. Autonoomsed relvad võivad näiteks põhjustada tõsiseid inimohvreid, sest halvad näitlejad võivad mürgitada andmeid, millele tehisintellekt tugineb, ning sundida seda tegema otsuseid, mis võivad viia tõsiste kaotusteni või teravdada niigi pingelisi konflikte.
- Inimkontrolli kaotamine: Lihtsad AI-süsteemid, mis pakuvad disainisoovitusi, on okei, kuna need toimivad paratamatult inimekspertide assistentidena. Kuid keerukamate tehisintellekti mudelite puhul, mis suudavad teha otsuseid üha suuremate andmehulkade põhjal, on oht, et inimeste kontroll ja järelevalve muutuvad vähem oluliseks. See võib põhjustada ettenägematuid asjaolusid, sest näiteks oleks mõistlik järgida tehisintellekti soovitusi, kuid kas need on sel juhul tõesti õiged?
- Oskused ja majanduslik sõltuvus: Tehisintellektile tuginemine ühiskonna teadmiste ja majanduslike teenuste osas kujutab endast veel üht ohtu. Esiteks võib teabe hankimisel tehisintellektile tuginemine viia inimeste mõtlemisvõime vähenemiseni, kuna süsteem võtab need ülesanded üle. Teiseks avab tehisintellektile toetumine teenuste ja kriitilise majandusinfrastruktuuri puhul selle ühiskonna küberrünnakutele ja muudele tehisintellektiga seotud ohtudele.
- Sügavad võltsingud ja valeinformatsioon: Deepfakes jahmatas maailma oma hämmastavate võimalustega mõni aasta tagasi, kuid see oli alles algus. Kuna tehisintellektiga loodud foto- ja videomudelid muutuvad iga päevaga paremaks, saabub päev, mil tehisintellektiga loodud sisu tegelikest piltidest ja videotest eristamine muutub väga keeruliseks – kui mitte võimatuks. Ja nagu alati, on selle võimalikud teostused desinformatsiooni, laimamise, väljapressimise, väljapressimise, kättemaksuporno, pettuse, tegelaskuju mõrva ja sotsiaalse insenerina piiramatud.
- Majanduslik ebavõrdsus ja sotsiaalne ebavõrdsus: Maailm on juba tugevalt jagunenud kaheks vaeste ja vaeste klassiks, mille tulemuseks on sellised mõisted nagu 1% eliit ja 99% rõhutud. Kuna tehisintellekt tugineb arendamiseks ja majanduslikuks rakendamiseks kapitalile, on endiselt suur oht, et isegi väiksem protsent elanikkonnast saab turgudele investeeritud tehisintellekti rahalisest tulust majanduslikku ja massilist kasu.
- Sotsiaalne isoleerimine: Paljud sotsiaalmeedia kasutajad on juba oma nutitelefonidega ühendatud tänu tehisintellekti algoritmidele, mis näitavad neile täpselt seda, mida nad näha tahavad, ja kaasavad neid muul viisil meelelahutuslikult. See emotsionaalne sõltuvus on tekitanud teatud määral sõltuvust ja sellest tulenevat sotsiaalset isolatsiooni, kuna paljud kasutajad tunnevad end mugavalt oma telefonidega üksi. Kuna rohkem AI-teenuseid asendab inimeste elus inimesi, väheneb ka nende füüsiline suhtlus.
- Manipuleerimine ja mõjutamine: AI algoritme kasutatakse juba kõikjal, et edukalt manipuleerida otsingumootori tulemuste, sotsiaalmeedia voogude, virtuaalsete assistentide ja vestlusrobotidega. On vaid aja küsimus, millal keegi komistab uuendusliku viisi peale, kuidas neid efekte kasumi või lõbutsemise eesmärgil maksimeerida.
- Tervise- ja ohutusriskid: Tervishoiuteenuste sõltuvus tehisintellektist toob kaasa ka riske, mis võivad ohustada patsiendi tervist ja heaolu. Need hõlmavad haiguse võimalikku väärdiagnoosi ja valet ravi, mis põhineb kallutatud või diskrimineerivatel koolitusandmetel. Teine võimalus on patsiendi andmete tahtlik mürgitamine halva näitleja poolt, et avaldada tehisintellekti ebatervislikku või isegi surmavat ravisoovitust.
- Inimese loovuse kaotus: Suured teksti-, pildi- ja video loomise võimalustega keelemudelid muutuvad iga päevaga paremaks ning praegu on teejuhiks OpenAI GPT-4, Stable Diffusion ja Midjourney 5. Need süsteemid muudavad lihtsamaks ja kiiremaks igat tüüpi sisu loomise, mis tavaliselt jääb kunstnikele ja loomulikult andekatele, alates muusikast kuni kirjutatud tekstini, luuletuste, maalide, videote ja pliiatsivisanditeni. Kui need muutuvad paremaks ja muutuvad kõigile kättesaadavaks, muutub arhetüüpne inimlooja ühiskonnas üha vähem aktuaalseks.
- Eksistentsiaalsed riskid: Tehisintellekti (AGI) süsteemi oht, mille võimalused on kaugelt suuremad kui ühegi inimese võimed ja mille ressurss on nii võimas, et see võib otsustada inimesi allutada või mingil moel kahjustada, on väga reaalne.
- Läbipaistvuse puudumine: Keegi ei saa tõeliselt aru, kuidas tehisintellekt töötab, eriti kui algoritmid on keerulised. See tähendab, et peaaegu keegi ei tea täpselt, kuidas teatud oluliste otsusteni jõutakse, mis toob kaasa kallutatud või diskrimineerivate väljundite, tuvastamatute turvanõrkuste ja pahatahtlike rünnakute ohu ning tulemuste vastutustundetuse.
- Inimväärtuse ja autonoomia vähenemine: Inimestele asju ennustades ja soovitades võtab AI pidevalt üle inimeste otsuste tegemise ja kontrolli. Lisaks võib see kaasa tuua veelgi paremini arendatud masinaid või mudeleid, mis on väljaspool inimese kontrolli. Ja see vähendab inimeste tähtsust paljudes valdkondades ja elukutsetes ning devalveerib igas ühiskonnas erinevate elukutsete inimoskusi, asjatundlikkust ja ühiskondlikku panust.
- Tahtmatud tagajärjed: See on ilmselt kõige ohtlikum kõigist ohtudest, mida tehisintellekt inimkonnale kujutab. Millised on soovimatud tagajärjed? Keegi ei tea. Keegi ei saa teada enne, kui on liiga hilja. Nii vähemalt teoreetiliselt.
Võimalikud lahendused AI ohtudele
AI ohud inimkonnale on mitmemõõtmelised ja see tähendab, et nende ohtude lahendused peavad olema mitmetahulised. Siin on mõned võimalikud lahendused, mis aitavad ennetada AI ohte inimkonnale või vähendada neid.
- Tugev reguleerimine ja juhtimine: valitsused peavad looma reguleerivad organid, et hallata ja reguleerida tehisintellekti arendamist eetiliste standardite, läbipaistvuse ja vastutustundega.
- Rahvusvaheline koostöö: Valitsused üle maailma peavad tegema koostööd tehisintellekti arendamise eetiliste juhiste väljatöötamiseks ja kohalike tehisintellektitööstuse reguleerimiseks.
- Rahva haridus ja teadlikkus: Laiema avalikkuse harimine tehisintellekti, selle eeliste ja võimalike riskide kohta aitab ka üksikisikutel ja ettevõtetel teha õigeid otsuseid.
- Seletav AI (XAI): Nagu nimigi ütleb, on XAI või eXplainable AI AI arendusviis, mis võimaldab inimestel mõista mudeli ennustuste tagamaid.
- Sotsiaalse hüvangu eest vastutav tehisintellekt: Kasumit otsivad kapitalistid lükkavad selle tagasi, kuid see on üks parimaid asju, mida inimkond saab enda heaks teha. Miks mitte luua kõigile tasuta tehisintellekti arst või assistent? Kuidas on lood abitehnoloogiate, keskkonnakaitse, vaimse tervise toetamise, sotsiaalteenuste, toiduga kindlustatuse ja sotsiaalhoolekandega, mida kõike toetab sotsiaalne tehisintellekt?
- Pidev seire ja hindamine: Iga asjassepuutuv tehnoloog, teadlane või teadlane peab tehisintellekti arengul silma peal hoidma. Sest kuigi suuri ettevõtteid saab hõlpsasti reguleerida ja panna järgima eetilisi juhiseid, leidub siiski ettearvamatuid rühmitusi või meeskondi, kes võivad otsustada maailma šokeerida.
Järeldus
Kuigi tehisintellekt võib inimkonna tulevikku dramaatiliselt mõjutada, on kriitilise tähtsusega ka selle ohtude mõistmine, sest ainult siis saame ohutult ja õiglaselt töötada selle kasu nimel, mis on kõigile kasulik, samas neid riske maandada.





