Konkurencinis mašininis mokymasis: prasmė, pavyzdžiai ir kaip tai veikia

Atraskite priešiškų mašininio mokymosi atakų pasaulį ir jų poveikį AI sistemoms. Sužinokite, kaip jie gali išnaudoti pažeidžiamumą ir kaip sukurti tinkamą apsaugą.

Priešpriešinis mašininis mokymasis yra mašininio mokymosi šaka, kurioje pagrindinis dėmesys skiriamas mašininio mokymosi modelių pažeidžiamumui prieš įvairias atakas.

Priešinga įvestis yra bet kokia mašininio mokymosi įvestis, kuria siekiama suklaidinti modelį, kad jis pateiktų neteisingas prognozes arba neteisingus rezultatus.

Kadangi priešiškos atakos gali turėti rimtų pasekmių, įskaitant saugumo, sukčiavimo ir sveikatos priežiūros sektorius, mokslininkai daugiausia dėmesio skiria įvairių atakų metodų atradimui, taip pat gynybos mechanizmų nuo jų kūrimui.

Šiame įraše nagrinėjamas priešiškas mašininio mokymosi pasaulis ir pateikiami pavyzdžiai, iššūkiai ir būdai, kaip pulti ir ginti AI modelius.

Kas yra priešpriešinis mašininis mokymasis?

Priešpriešinis mašininis mokymasis tiria atakų klasę, kuria siekiama sumažinti klasifikatorių našumą atliekant konkrečias užduotis. Kitaip tariant, jie siekia apgauti AI mašiną.

Vis labiau plintant dirbtinio intelekto ir mašininio mokymosi metodų naudojimui, didėja priešiškų išpuolių rizika. Tai kelia didelę grėsmę įvairioms dirbtinio intelekto programoms, įskaitant šiukšlių aptikimą, asmeninius asistentus, kompiuterinį regėjimą ir pan.

Kaip veikia priešiškos atakos

Priešinga ataka yra bet koks procesas, skirtas mašininio mokymosi modeliui suklaidinti ir sukelti klaidingus prognozes. Tai gali atsitikti treniruočių metu, taip pat tiesioginėje vykdymo aplinkoje. Kitaip tariant, jei sugalvojate būdą, kaip apgauti ar sabotuoti modelį, vadinasi, sėkmingai jį užpuolėte.

Kas yra prieštaringas pavyzdys?

Priešingas pavyzdys yra bet kokia specialiai sukurta mašininio mokymosi modelio įvestis, kuria siekiama, kad modelis padarytų klaidą arba pateiktų neteisingą išvestį.

Galite sukurti priešingą pavyzdį, atlikdami nedidelius įvesties duomenų pakeitimus, kurie, nors ir gali būti nematomi žmogaus akiai, dažnai pakanka, kad modelis pakeistų supratimą ir priverstų jį pateikti klaidingus rezultatus.

Priešingi pavyzdžiai naudojami DI modelio mokymo etapuose, o atlikti pakeitimai paprastai generuojami naudojant įvairius optimizavimo metodus, įskaitant gradientais pagrįstus metodus, tokius kaip greito gradiento ženklo metodo (FGSM) ataka, kuri išnaudoja modelio jautrumą pokyčiams. įvesties erdvę.

Varžybų pavyzdžiais siekiama pridėti nedidelių įvesties duomenų trikdžių, kurie gali būti vos matomi žmonių stebėtojams, bet vis tiek yra pakankamai reikšmingi, kad modelis klaidingai klasifikuotų įvestį.

Priešingos atakos gali įvykti įvairiuose mašininio mokymosi sektoriuose, įskaitant vaizdo atpažinimą ir natūralios kalbos apdorojimą.

Rungtynių ML taikymai

Galimybė aptikti ir išnaudoti bet kurios dirbtinio intelekto platformos trūkumus yra plačiai naudojama, nes užpuoliką riboja tik jo vaizduotė. Štai keletas iš daugelio būdų, kaip įsilaužėlis gali panaudoti pažeistą AI mašiną naudodamas priešpriešinius mašininio mokymosi metodus.

  • Vaizdo ir vaizdo atpažinimas: Nuo turinio moderavimo iki autonominių transporto priemonių ir stebėjimo sistemų – daugelis dirbtinio intelekto programų priklauso nuo vaizdo ir vaizdo atpažinimo algoritmų. Pakeitęs įrenginio įvestį ir priversdamas jį klaidingai klasifikuoti daiktus, užpuolikas gali išvengti bet kokių valdymo sistemų, kurios priklauso nuo objekto atpažinimo galimybių. Autonominėms transporto priemonėms toks manipuliavimas gali sukelti eismo įvykius.
  • Šlamšto filtravimas: Šlamšto siuntėjai gali sėkmingai apeiti AI šlamšto aptikimo sistemas optimizuodami savo el. laiškus skirtingomis struktūromis, daugiau gerų žodžių, mažiau blogų žodžių ir pan.
  • Kenkėjiškų programų aptikimas: Lygiai taip pat galima sukurti kenkėjišką kompiuterio kodą, kuris gali išvengti kenkėjiškų programų skaitytuvų aptikimo.
  • Gamtos kalbos apdorojimas: neteisingai klasifikuodamas tekstą naudodamas priešpriešinį mašininį mokymąsi, užpuolikas gali manipuliuoti tekstinėmis rekomendacijų sistemomis, netikrų naujienų detektoriais, nuotaikų detektoriais ir pan.
  • Sveikatos apsauga: Užpuolikai gali manipuliuoti medicininiais įrašais, kad pakeistų paciento diagnozę arba apgaudinėtų sistemą ir atskleistų neskelbtinus medicininius įrašus.
  • Finansinio sukčiavimo aptikimas: AI sistemoms, naudojamoms finansinio sukčiavimo aptikimui, taip pat kyla grėsmė dėl priešiškų mašininio mokymosi atakų. Pavyzdžiui, užpuolikas gali sukurti sintetinius duomenis, imituojančius teisėtas operacijas, taip sudarydamas galimybę sukčiauti, kurio modelis neaptinka.
  • Biometrinės apsaugos sistemos: Naudodamas manipuliuojamus duomenis, užpuolikas gali įveikti pirštų atspaudų arba veido aptikimo apsaugos sistemas, kad gautų neteisėtą prieigą prie tinklo ar platformos.
  • Priešpriešinė gynyba: Nors dauguma pirmiau minėtų naudojimo būdų yra skirti atakuoti sistemą, priešiška gynyba yra priešiškų atakų tyrimas, skirtas naudoti kuriant tvirtas gynybos sistemas nuo mašinos užpuolikų.

Konkurencinio ML pasekmės

Priešingas mašinų mokymasis turi pasekmių, kurios gali turėti įtakos AI sistemų patikimumui ar našumui. Čia yra pagrindiniai.

  • Erodes Trust: Jei priešiškos atakos augs ir taps nevaldomos, sumažės pasitikėjimas dirbtinio intelekto sistemomis, nes visuomenė į bet kurią mašininiu mokymusi pagrįstą sistemą žiūrės su įtarimu.
  • Etinės pasekmės: Mašininio mokymosi sistemų taikymas tokiose srityse kaip sveikatos priežiūra ir baudžiamoji justicija kelia etikos klausimų, nes bet kokia pažeista AI sistema gali padaryti didelę asmeninę ir socialinę žalą.
  • Ekonominės pasekmės: Priešingos atakos gali sukelti finansinių nuostolių, padidinti saugumo išlaidas, manipuliuoti finansų rinka ir netgi pakenkti reputacijai.
  • Padidėjęs sudėtingumas: priešiškų išpuolių grėsmė padidina mokslinių tyrimų pastangas ir bendrą mašininio mokymosi sistemų sudėtingumą.
  • Modelio vagystė: Pats AI modelis gali būti užpultas, siekiant ištirti ir gauti vidinius parametrus arba informaciją apie jo architektūrą, kurią galima panaudoti rimtesnei atakai prieš sistemą.

Priešingų išpuolių tipai

Yra įvairių tipų priešiškų mašininio mokymosi atakų ir jos skiriasi priklausomai nuo užpuoliko tikslų ir nuo to, kiek jis turi prieigą prie sistemos. Čia yra pagrindiniai tipai.

  • Vengimo išpuoliai: Vengimo atakų metu priešai modifikuoja įvestis, kad apgautų dirbtinio intelekto sistemą ir klaidingai juos klasifikuotų. Tai gali apimti nepastebimų trikdžių (arba tyčinio triukšmo) įtraukimą į įvesties vaizdus ar kitus duomenis, siekiant apgauti modelį.
  • Duomenų apsinuodijimo išpuoliai: Duomenų apsinuodijimo atakos įvyksta AI sistemos mokymo etape. Pridėjus blogus (arba užnuodytus) duomenis į mašinos mokymo duomenų rinkinį, modelio prognozės tampa ne tokios tikslios, todėl yra pažeistas.
  • Modelio ištraukimo atakos: modelio inversijos atakų metu priešai išnaudoja galimybę išskirti neskelbtiną informaciją iš apmokyto AI modelio. Manipuliuodami įvestis ir stebėdami modelio atsakymus, jie gali atkurti privačius duomenis, pvz., vaizdus ar tekstą.
  • Perdavimo atakos: Tai reiškia, kad ataka prieš vieną mašininio mokymosi sistemą gali būti vienodai veiksminga prieš kitą mašininio mokymosi sistemą.

Kaip apsiginti nuo priešiškų išpuolių

Yra įvairių gynybos mechanizmų, kuriuos galite naudoti norėdami apsaugoti savo AI modelį nuo priešiškų išpuolių. Štai keletas populiariausių.

  • Tvirtų sistemų kūrimas: Tai apima AI modelių, kurie yra atsparesni priešiškoms atakoms, kūrimą, įtraukiant testus ir vertinimo gaires, padedančias kūrėjams nustatyti sistemos trūkumus, dėl kurių gali kilti priešiškų atakų. Tada jie gali sukurti apsaugą nuo tokių išpuolių.
  • Įvesties patvirtinimas: Kitas būdas yra patikrinti ML modelio įvestis, ar nėra jau žinomų pažeidžiamumų. Modelis gali būti sukurtas taip, kad atmestų įvestis, pavyzdžiui, turinčius modifikacijų, dėl kurių mašinos daro klaidingas prognozes.
  • Priešpriešinis mokymas: Be to, į savo sistemos mokymo duomenis galite įtraukti tam tikrą skaičių priešiškumo pavyzdžių, kad ateityje modelis išmoktų aptikti ir atmesti prieštaraujančius pavyzdžius.
  • Paaiškinamas AI: Teoriškai, kuo geriau kūrėjai ir vartotojai supras, kaip AI modelis veikia giliai, tuo lengviau žmonėms bus apsisaugoti nuo atakų. Todėl paaiškinamas AI (XAI) požiūris į mašininį mokymąsi ir AI modelio kūrimą gali išspręsti daugybę problemų.

Išvada

Priešingos mašininio mokymosi atakos kelia didelę grėsmę dirbtinio intelekto sistemų patikimumui ir našumui. Tačiau suprasdami skirtingus gerai žinomų atakų tipus ir įgyvendindami gynybos strategijas, kad joms užkirstų kelią, kūrėjai gali geriau apsaugoti savo AI modelius nuo priešiškų atakų.

Galiausiai turėtumėte suprasti, kad AI ir priešpriešinio mašininio mokymosi sritys vis dar auga. Taigi, vis dar gali būti kitų priešiškų puolimo metodų, kurie dar turi būti viešai žinomi.

Ištekliai

  1. https://en.wikipedia.org/wiki/Adversarial_machine_learning
  2. https://www.csoonline.com/article/573031/adversarial-machine-learning-explained-how-attackers-disrupt-ai-and-ml-systems.html
  3. https://medium.com/@durgeshpatel2372001/an-introduction-to-adversarial-machine-learning-820010645df9
  4. https://insights.sei.cmu.edu/blog/the-challenge-of-adversarial-machine-learning/
  5. https://viso.ai/deep-learning/adversarial-machine-learning/
  6. https://www.toptal.com/machine-learning/adversarial-machine-learning-tutorial
Nnamdi Okeke

Nnamdi Okeke

Nnamdi Okeke yra kompiuterių entuziastas, mėgstantis skaityti įvairias knygas. Jis teikia pirmenybę „Linux“, o ne „Windows“ / „Mac“ ir naudoja
Ubuntu nuo pirmųjų dienų. Galite sugauti jį Twitter per bongotraksas

Straipsniai: 298

Gaukite techninių dalykų

Technikos tendencijos, paleidimo tendencijos, apžvalgos, pajamos internetu, žiniatinklio įrankiai ir rinkodara kartą ar du per mėnesį