Deepfakes: kaip tai veikia, programos ir keli pavyzdžiai
Reikia gauti žemesnę informaciją apie Deepfakes? Skaitykite toliau, kai tyrinėjame, kaip dirbtinis intelektas palengvino manipuliavimą duomenimis ir sukūrė naują interneto tendenciją.

Suklastotos nuotraukos ir vaizdo įrašai patraukia daugelio visame pasaulyje dėmesį, todėl mokslininkai ir įstatymų leidėjai klausia: kas toliau?
„Deepfake“ terminas reiškia „gilus mokymasis“ ir „fake“, reiškiantis gilaus mokymosi metodų naudojimą iš dirbtinio intelekto kuriant netikrą bet kokios žiniasklaidos kopiją.
Daugelis nerimauja, kaip lengva suklastoti nuotraukas ir vaizdo įrašus naudojant giliai padirbtas programas, o kitiems tai labai smagu. Tačiau gilios klastotės tapo dalyku.
Taigi, mes atidžiau pažvelgsime į šią technologiją, kad sužinotume, kaip ji veikia ir ką ji reiškia pasauliui.
Deepfakes vs dirbtinis intelektas
Visų pirma, svarbu atkreipti dėmesį į skirtumą tarp standartinės AI sukurtos išvesties ir gilios klastotės. Dirbtinio intelekto algoritmai jau seniai gamino įvairių tipų laikmenas, tačiau vargu ar galite juos pavadinti giliomis klastotėmis.
Sąvoka „deepfake“ reiškia suklastotą laikmeną, pvz., vaizdo įrašus, paveikslėlius ar bet ką kitą, tai yra AI redaguota jau egzistuojančios kopijos versija.
Dirbtinis intelektas per pastarąjį dešimtmetį nepaprastai išaugo dėl pigesnių, galingesnių kompiuterių, taip pat dėl naujų šios srities pokyčių.
Prieš dešimtmetį dirbtinio intelekto sukurti vaizdai buvo lengvai atpažįstami, o per pastaruosius kelerius metus algoritmai pagerėjo, todėl buvo lengviau gauti labai tikroviškus rezultatus. Būtent dėl tokio aukšto autentiškumo lygio dirbtinio intelekto sukurti vaizdai apskritai ir ypač gilūs padirbinėjimai yra labai įspūdingi.
AI ir gilus mokymasis
Norėdami suprasti, kaip kompiuteriniai algoritmai išsivystė, kad sukurtų labai tikroviškus žmonių veidus, kuriuos galite rasti sukurtos.nuotraukos bei šis asmuo neegzistuoja.com, jums reikės dirbtinio intelekto pradmenų.
DI yra skirtingų sričių, atsižvelgiant į naudojamą metodą ir tai, ką planuojate pasiekti. Rasite visko nuo tikimybių metodų, tokių kaip Bajeso filtras, naudojamas šiukšlių aptikimui, iki neaiškios logikos, evoliucinių algoritmų, kurie vystosi savaime, ir dirbtinių neuroninių tinklų, kuriais siekiama imituoti žmogaus smegenis.
Neuroniniai tinklai
Kaip žmogaus smegenyse yra tikrų neuronų, kurių dendritai ir aksonai jungiasi labai sudėtingais tinklais, apimančiais nuo milijonų iki milijardų neuronų, dirbtiniai neuronai taip pat jungiasi. Tačiau jų skaičių riboja skaičiavimo galia.
Neuroninio tinklo tikslas yra pateikti išvestį arba atsakymą į kiekvieną įvestį. Tai pasiekiama pirmiausia mokant tinklo taip, kaip mokytumėte vaiką. Po to dabar ji gali daryti prognozes, remdamasi jūsų mokymais.
Taip pat turėtumėte atkreipti dėmesį, kad daugiau neuronų tinkle dažnai reiškia geresnius rezultatus, o daugiau mokymo duomenų taip pat pagerina rezultatus. Būtent taip veikia žmogaus smegenys, bent jau teoriškai.
Kaip veikia gilus fakingas
Yra daug dalykų ir sričių, kuriose galite pritaikyti dirbtinį intelektą. Deepfaking yra tik vienas iš jų, kuris išsivystė naudojant neuroninius tinklus vaizdams redaguoti. Ankstesni rezultatai buvo daug žadantys, tačiau jie buvo labai paprasti, kol 2014 m. Ianas Goodfellow ir draugai nepateikė GAN.
GAN arba Generative Adversarial Network yra neuroninių tinklų mokymo sistema. Taigi, užuot patys turėję ruošti ir mokyti tinklą, leiskite kitam tinklui konkuruoti su pirmuoju tinklu, kritikuodami jo rezultatus. Tai leidžia pasiekti puikių rezultatų, pagrįstų bet kokiu treniruočių rinkiniu.
GAN metodo rezultatai anuomet buvo tokie pat fenomenalūs, kaip ir šiandien. Tai taip pat tapo daugelio dirbtinio intelekto sprendimų ir programų, įskaitant giliųjų klastotes, pagrindu. Be to, patobulinus skaičiavimo galią tapo lengviau atlikti nuostabius dalykus net išmaniuosiuose telefonuose.
Galimos gilios klastotės programos
Be labai populiarių vaizdų ir vaizdo įrašų, cirkuliuojančių tinkle, yra daug programų, skirtų giliai klastotei technologijai naudoti kitiems naudingesniems tikslams.
Deepfakes gali padėti sutrikusios kalbos pacientams rasti balsą naudojant garso sintezę. Jį galima panaudoti klasėje, kur istorinės asmenybės sugrąžinamos į gyvenimą, kaip tai atsitiko Dali muziejuje Sankt Peterburge, Floridoje.
Filmų pramonė taip pat gali rasti panaudojimo gilioms klastotėms, nes tai gali žymiai sumažinti CGI (kompiuterinių vaizdų) kainą filmuose. Mirę pramogų kūrėjai ir aktoriai gali būti prikelti ir parodyti naujuose filmuose.
Deepfakes gali leisti bet kam kurti specializuotus vaizdo įrašus keliomis kalbomis, kaip atsitiko Davido Beckhamo kampanijoje „maliarijos nebelikimas“ ir Manojaus Tiwari politinėje kampanijoje Indijoje, kur jis laisvai kalbėjo keliomis kalbomis.
Žaidimuose taip pat galima rasti gerų „deepfake“ panaudojimo būdų, nes žaidėjai gali pasinerti į žaidimą ir patirti gilesnę virtualios realybės patirtį.
Net socialinių tinklų rinkodaros specialistai randa pritaikymo kompiuteriu sukurtoms socialinės žiniasklaidos asmenybėms, sukurtoms ir valdomoms tik kompiuteryje. Nors ir ne tikra klastotė, Calvin Klein's Lil Miquela ir jos 3 milijonai „Instagram“ sekėjų parodo, kas įmanoma.
Keletas netikrų pavyzdžių
Norėdami geriau suprasti šią technologiją ir jos pažadus, pateikiame keletą įspūdingiausių gilių klastotės.
- Obamos pranešimas – Tai vienas geriausiai žinomų, seniausių ir labiausiai šokiruojančių padirbinių. 2018 m. išleistas šis vaizdo įrašas buvo sukurtas kaip įspėjimas, siekiant apšviesti žmones apie technologijos galimybes.
Jame buvo parodytas Obama paskelbtas viešųjų paslaugų skelbimas ir jis pavadino Trumpą „švaikštu“. Kūrėjas yra Jordanas Peele, o jo naudojami įrankiai yra „Adobe After Effects“ ir „FaceApp“. - "Mona Liza" – Daugelis žmonių žino Leonardo da Vinci šedevrą „Moną Lizą“. Tačiau 2019 m. „Samsung“ Rusijos AI tyrimų laboratorijų dėka žmonės stebėjosi visame pasaulyje, nes pirmą kartą pamatė ją besišypsančią ir judančią.
Pažymėti „realistiškomis neuroninėmis kalbančiomis galvomis“, mokslininkai panaudojo 7,000 vaizdų, surinktų iš „YouTube“, kad išmokytų šį neuroninį tinklą. Tada tereikia vienos nuotraukos, kuri atitiktų veido bruožus ir pagyvintų veidą. Jie taip pat tai padarė su Albertu Einsteinu, Marilyn Monroe, Salvadoru Dalí ir kitais. - Padidinti skambučius – 2020 m. du Rusijos mokslininkai pademonstravo, kaip galite naudoti pritaikomą „Zoom“ vaizdo skambučių foninę funkciją, kad realiuoju laiku sukurtumėte animuotus bet kurio pageidaujamo asmens padirbinius. Interneto skambučiuose jie gali pasirodyti kaip gyvai kalbantis Albertas Einšteinas, Mona Liza, Donaldas Trumpas ar Borisas Johnsonas.
- Salvadoras Dalí – 2019 metais Dali muziejuje Sankt Peterburge, Floridoje, vyko paroda „Dalí Lives“. Jame buvo padirbta mirusio atlikėjo versija, todėl jiems prireikė daugiau nei 1,000 6,000 valandų mašininio mokymosi ir XNUMX XNUMX kadrų.
- DeepNude – taip pat 2019 m. kūrėjų komanda išleido įspūdingą programėlę pavadinimu DeepNude. Viskas, ko reikėjo, buvo moters bikiniais nuotraukos, kuri nurengtų ją visiškai nuogai. Tada ant nuotraukos pridėjo vandens ženklą „FAKE“, kurį galite pašalinti už 50 USD.
Programa nustebino ir papiktino tiek daug žmonių. Ir spaudimas buvo toks didelis, kad kūrėjai turėjo jį ištraukti iš interneto. Jo atvirojo kodo kodas „GitHub“ taip pat buvo pašalintas, tačiau svetainėse tai patinka http://deepnude.to ir telegramos robotas rodo, kad DeepNude gyvena toliau.
Žymios „deepfake“ programos
Taip pat yra daug „deepfake“ generatorių programų, kai kurios yra įspūdingesnės nei kitos. Jie dažniausiai skirti išmaniesiems telefonams ir leidžia visiems lengvai greitai manipuliuoti nuotraukomis ir vaizdo įrašais.
Šios programos apima:
- DeepFaceLab – pasiekiama GitHub, „DeepFaceLab“ yra pirmaujantis programinės įrangos sprendimas giliųjų klastotėms kurti. Tai leidžia sukeisti ir sumažinti veidus, pakeisti galvą ir manipuliuoti politikų bei kitų dominančių žmonių lūpomis. Daugelis „YouTube“ kanalų taip pat jį naudoja.
- MyHeritage – The Deep Nostalgia pasiūlymas iš „MyHeritage.com“ leidžia lengvai atgaivinti senovines šeimos nuotraukas. MyHeritage yra platforma, skirta atrasti savo šeimos medį. Taigi, sugrąžinti savo protėvius į gyvenimą gali būti šiurpi, bet įspūdinga patirtis.
- „FakeApp“ – „Reddit“ naudotojo sukurta ir išleista „FakeApp“ leidžia lengvai pakeisti vaizdo įrašą arba žaisti su veidais nemokamai. Jis buvo naudojamas kuriant garsųjį jaunos princesės Lėjos filmo „Žvaigždžių karai: Rogue One“ prakartėlę. Matyt, tai užtruko tik kelias minutes, bet atrodė geriau nei filmo originalas, kuris užtruko savaites ir kainavo daug daugiau.
- Reface – galima dar viena įspūdinga ir smagiai naudojama programa Android bei "iOS". Tačiau jis pateikiamas su skelbimais, kuriuos galite pašalinti užsisakę mėnesinę prenumeratą.
- „Zao“ – kiniška „deepfake“ programa, leidžianti sukurti naujus vaizdo įrašus vos per kelias sekundes, bet su įspūdingais rezultatais. Jį galima įsigyti tik Kinijoje.
- „Deepfakes Web“ – debesies pagrindu veikianti „deepfake“ programa, veikianti žiniatinklyje. Tiesiog eikite į svetainę, įkelkite vaizdo įrašą ir spustelėkite mygtuką. Tada sistema išmoks vaizdo įrašą ir sukurs jums naują. Taip pat galite jį treniruoti, kad pasiektumėte geresnių rezultatų.
Išvada
Baigiantis šio giliai padirbto įrašo pabaigai, turėtų būti akivaizdu, kiek ši technologija jau pažengusi. Tai apima ir moralinį, ir amoralų požiūrį, nes pornografijos pramonė visada buvo naujovių internete šaltinis.
Be to, atsižvelgiant į santykinai pigesnes dirbtinio intelekto padirbinėjimo kainas, palyginti su tradiciniais CGI, ateitis neabejotinai yra šviesi giliųjų padirbinių filmų pramonėje ir kitose programose, išskyrus pramogas.





