AI pavojai žmonijai
Atraskite didžiulius pavojus, kuriuos žmonijai kelia dirbtinis intelektas (DI), įskaitant galimus sprendimus, kurie gali padėti apsaugoti mūsų ateitį.

Kovo 22, 2023, Pristabdykite milžiniškus AI eksperimentus buvo paskelbtas atviras laiškas, kuriame visos pasaulio laboratorijos raginamos nedelsiant nutraukti milžino plėtrą AI sistemos didesnės nei OpenAI GTP-4.
Šio laiško motyvai yra susiję su daugybe pavojų, kuriuos pažangūs AI modeliai kelia žmonijai, todėl būtina kartu kurti ir įgyvendinti pažangių dirbtinio intelekto sistemų saugos protokolus visame pasaulyje.
Šiame įraše apžvelgiami visi pavojai, kuriuos AI kelia žmonijai, ir svarstomi galimi šių pavojų sprendimai.
GPT-4 ir 1,000 parašų laiškas
Daugeliui žmonių dirbtinis intelektas yra įdomus. Naudodami dirbtinio intelekto algoritmus galite užfiksuoti išmanias nuotraukas ir vaizdo įrašus, lengvai redaguoti savo medžiagą, dirbti greičiau, gauti geresnės informacijos, rekomendacijų ir pan.
Tačiau 2023 m. kovo mėn. pasklidus žiniai apie atvirą laišką kuriam laikui sustabdyti dirbtinio intelekto plėtrą, daugumos žmonių dėmesį patraukė vardai, esantys už tų parašų. Iš Elonas muskusas į Steve'as Wozniakas iš Appleir šimtai kitų žymių mokslininkų bei pirmaujančių tyrinėtojų, šio laiško rimtumas buvo aiškus.
Nuo to laiko laiškas surinko daugiau nei 27 tūkst. parašų ir skaičiuojamas, tačiau tiesą pasakius – AI vystymas yra tarsi ginklavimosi varžybos. Sulėtėjate, pralaimite.
AI pavojai žmonijai
Dirbtinis intelektas paliečia daugelį žmonių asmeninio ir profesinio gyvenimo sričių, priklausomai nuo to, kas esate ir kuo užsiimate. Toliau pateikiamas pagrindinių AI pavojų žmonijai apskritai sąrašas.
- Darbo perkėlimas ir nedarbo krizė: Galimas visų tipų profesijų žmonių perkėlimas yra vienas iš didžiausių su AI susijusių problemų. Be darbo praradimo, tai gali sukelti krizes paveiktose visuomenėse, socialinius ir ekonominius skirtumus ir kitus neigiamus padarinius visuomenei.
- Etiniai rūpesčiai: Nuo šališkų algoritmų iki privatumo praradimo ir atskaitomybės stokos, etikos problemos yra dar vienas didelis pavojus, kurį AI kelia žmonijai. Kas kaltas, kai dirbtinio intelekto vairuotojas sužeidžia arba nužudo pėsčiąjį? Kas atsakingas už klaidingą medicininę AI diagnozę? O kas turėtų būti atsakingas už kitas nenumatytas pasekmes, pavyzdžiui, kai dirbtinis intelektas netyčia daro žalą? Kai realybe taps daugiau dirbtinio intelekto varomų robotų ir autonominių transporto priemonių, šie pavojai taps pagrindiniais.
- Saugumo rizika: Pasikliovimas dirbtiniu intelektu tam tikroms saugumo užduotims, tokioms kaip stebėjimas, kibernetinis saugumas ir autonominiai ginklai, atveria daug galimų išnaudojimų. Pavyzdžiui, autonominiai ginklai gali sukelti rimtų aukų, nes blogi veikėjai gali apnuodyti duomenis, kuriais remiasi dirbtinis intelektas, todėl jis gali priimti sprendimus, galinčius sukelti rimtų aukų arba paaštrinti ir taip įtemptus konfliktus.
- Žmogaus kontrolės praradimas: Paprastos AI sistemos, siūlančios dizaino pasiūlymus, yra tinkamos, nes jos neišvengiamai veikia kaip žmonių ekspertų padėjėjai. Tačiau naudojant sudėtingesnius AI modelius, kurie gali priimti sprendimus, pagrįstus vis didesniu duomenų kiekiu, kyla pavojus, kad žmogaus kontrolė ir priežiūra taps ne tokia svarbi. Tai gali sukelti nenumatytų aplinkybių, nes, pavyzdžiui, būtų protinga laikytis AI rekomendacijų, tačiau ar jos tikrai teisingos?
- Įgūdžiai ir ekonominė priklausomybė: Pasitikėjimas dirbtiniu intelektu teikiant visuomenės žinias ir ekonomines paslaugas kelia dar vieną pavojų. Pirma, informacijos pasikliovimas dirbtiniu intelektu gali sumažinti žmonių mąstymo galimybes, nes sistema perima šias pareigas. Antra, paslaugų ir ypatingos svarbos ekonomikos infrastruktūros priklausomybė nuo dirbtinio intelekto atveria visuomenę kibernetinėms atakoms ir kitoms su dirbtiniu intelektu susijusioms grėsmėms.
- Gilios klastotės ir klaidinga informacija: Deepfakes prieš keletą metų pribloškė pasaulį savo nuostabiomis galimybėmis, tačiau tai buvo tik pradžia. Dirbtinio intelekto nuotraukų ir vaizdo įrašų generavimo modeliams kasdien tobulėjant, ateis diena, kai taps labai sunku – o gal net neįmanoma – atskirti dirbtinio intelekto sukurtą turinį nuo tikrų nuotraukų ir vaizdo įrašų. Ir kaip visada, jos galimos dezinformacijos, šmeižto, turto prievartavimo, šantažo, keršto pornografijos, sukčiavimo, personažo žmogžudystės ir socialinės inžinerijos galimybės yra neribotos.
- Ekonominiai skirtumai ir socialinė nelygybė: Pasaulis jau dabar labai suskirstytas į dvi klases – turinčius ir neturinčius, todėl atsiranda tokių terminų kaip 1 % elitas ir 99 % prispaustieji. Kadangi dirbtinis intelektas plėtrai ir ekonominiam įgyvendinimui priklauso nuo kapitalo, išlieka didelis pavojus, kad net mažesnė dalis gyventojų gaus ekonomiškai ir didžiulę naudą iš dirbtinio intelekto, investuoto į rinkas, finansinės grąžos.
- Socialinė izoliacija: Daugelis socialinės žiniasklaidos vartotojų jau yra prisijungę prie savo išmaniųjų telefonų, nes dirbtinio intelekto algoritmai parodo jiems būtent tai, ką jie nori matyti, ir įtraukia juos kitais linksmais būdais. Ši emocinė priklausomybė sukėlė tam tikrą priklausomybės lygį ir dėl to socialinę izoliaciją, nes daugelis vartotojų jaučiasi patogiai vieni su savo telefonais. Be to, kadangi daugiau dirbtinio intelekto paslaugų pakeičia žmones žmogaus gyvenime, jų fizinė sąveika taip pat sumažės.
- Manipuliavimas ir įtaka: AI algoritmai jau visur naudojami sėkmingai manipuliuoti paieškos variklio rezultatais, socialinės žiniasklaidos sklaidos kanalais, virtualiais asistentais ir pokalbių robotais. Tik laiko klausimas, kada kas nors imsis naujoviško būdo, kaip maksimaliai padidinti šį efektą, siekdamas pelno ar linksmybių.
- Pavojai sveikatai ir saugai: Priklausomybė nuo dirbtinio intelekto sveikatos priežiūros srityje taip pat kelia pavojų, galintį kelti pavojų paciento sveikatai ir gerovei. Jie apima galimą klaidingą ligos diagnozę ir neteisingą gydymą, pagrįstą šališkais ar diskriminaciniais mokymo duomenimis. Kita galimybė yra tyčinis blogo veikėjo apsinuodijimas paciento duomenimis, kad AI pateiktų nesveiką ar net mirtiną gydymo rekomendaciją.
- Žmogaus kūrybiškumo praradimas: Dideli kalbų modeliai su teksto, vaizdo ir vaizdo įrašų generavimo galimybėmis kasdien tobulėja, o OpenAI GPT-4, Stable Diffusion ir Midjourney 5 šiuo metu pirmauja. Šios sistemos leidžia lengviau ir greičiau kurti visų tipų turinį, kuris paprastai paliekamas menininkams ir iš prigimties talentingiems žmonėms, nuo muzikos iki rašytinio teksto, eilėraščių, paveikslų, vaizdo įrašų ir pieštuku eskizų. Jiems tobulėjant ir tampant prieinamiems visiems, archetipinis žmogaus kūrėjas tampa vis mažiau aktualus visuomenėje.
- Egzistencinės rizikos: Dirbtinio bendrojo intelekto (AGI) sistemos, kurios pajėgumai gerokai viršija bet kurio žmogaus galimybes ir kurių ištekliai yra tokie galingi, kad ji gali nuspręsti pavergti ar kaip nors pakenkti žmonėms, pavojus yra labai realus.
- Trūksta skaidrumo: Niekas iš tikrųjų nesupranta, kaip veikia dirbtinis intelektas, ypač kai algoritmai yra sudėtingi. Tai reiškia, kad vargu ar kas nors tiksliai žino, kaip priimami tam tikri svarbūs sprendimai, dėl kurių kyla neobjektyvių ar diskriminacinių rezultatų, neaptinkamų saugumo spragų ir kenkėjiškų atakų bei neatskaitomybės už rezultatus pavojus.
- Sumažėjusi žmogiškoji vertė ir savarankiškumas: Numatydamas ir rekomenduodamas dalykus žmonėms, AI nuolat perima žmogaus sprendimų priėmimą ir kontrolę. Be to, tai gali lemti dar geriau išvystytas mašinas ar modelius, kurių žmogus nekontroliuoja. Tai sumažins žmogaus svarbą daugelyje sričių ir profesijų, taip pat nuvertins kiekvienos visuomenės skirtingų profesijų žmonių įgūdžius, kompetenciją ir visuomenės indėlį.
- Nenumatytos pasekmės: Tai turbūt pats pavojingiausias iš visų AI keliamų pavojų žmonijai. Kokios yra nenumatytos pasekmės? Niekas nežino. Niekas negali žinoti, kol nevėlu. Taip bent jau teoriškai.
Galimi AI pavojų sprendimai
AI keliami pavojai žmonijai yra daugialypiai, o tai reiškia, kad šių pavojų sprendimai turės būti daugialypiai. Štai keletas galimų sprendimų, padėsiančių išvengti AI pavojų žmonijai arba juos sumažinti.
- Tvirtas reguliavimas ir valdymas: Vyriausybės turi įsteigti reguliavimo institucijas, kurios valdytų ir reguliuotų dirbtinio intelekto plėtrą pagal etikos standartus, skaidrumą ir atskaitomybę.
- Tarptautinis bendradarbiavimas: vyriausybės iš viso pasaulio turi dirbti kartu kurdamos etines DI plėtros gaires ir reguliuodamos savo vietinę AI pramonę.
- Visuomenės švietimas ir sąmoningumas: Plačios visuomenės švietimas apie dirbtinį intelektą, jo naudą ir galimą riziką taip pat padės asmenims ir įmonėms priimti teisingus sprendimus.
- Paaiškinamas AI (XAI): Kaip rodo pavadinimas, XAI arba eXplainable AI yra AI kūrimo metodas, leidžiantis žmonėms suprasti modelio prognozių priežastis.
- Atsakingas dirbtinis intelektas už socialinį gėrį: Pelno siekiantys kapitalistai tai atmes, bet tai vienas geriausių dalykų, kuriuos žmonija gali padaryti pati. Kodėl nesukūrus visiems nemokamo AI gydytojo ar asistento? Kaip apie pagalbines technologijas, aplinkos išsaugojimą, psichikos sveikatos palaikymą, socialines paslaugas, maisto saugą ir socialinę gerovę – visa tai užtikrina socialinis AI?
- Nuolatinis stebėjimas ir vertinimas: Kiekvienas suinteresuotas technologas, tyrėjas ar mokslininkas turi stebėti AI plėtrą. Kadangi didžiąsias įmones galima lengvai reguliuoti ir priversti laikytis etikos gairių, vis tiek yra nenuspėjamų grupių ar komandų, kurios gali nuspręsti šokiruoti pasaulį.
Išvada
Nors dirbtinis intelektas gali dramatiškai paveikti žmonijos ateitį, labai svarbu suprasti jo keliamus pavojus, nes tik tada galime saugiai ir teisingai siekti, kad jis būtų naudingas visiems, kartu sumažinant šią riziką.





