Modstridende maskinlæring: Betydning, eksempler og hvordan det virker
Oplev verden af modstridende maskinlæringsangreb og deres indvirkning på AI-systemer. Lær, hvordan de kan udnytte sårbarheder, og hvordan man opbygger det rigtige forsvar.

Adversarial machine learning er en gren af maskinlæring, der fokuserer på maskinlæringsmodellers sårbarhed over for forskellige angreb.
Et modstridende input er ethvert maskinlæringsinput, der har til formål at narre modellen til at lave de forkerte forudsigelser eller producere forkerte output.
Fordi modstridende angreb kan have alvorlige konsekvenser, herunder i sikkerheds-, svindel- og sundhedssektoren, fokuserer forskere på at opdage forskellige angrebsmetoder samt at udvikle forsvarsmekanismer mod dem.
Dette indlæg udforsker den modstridende maskinlæringsverden og inkluderer eksempler, udfordringer og måder at angribe og forsvare AI-modeller på.
Hvad er kontradiktorisk maskinlæring?
Modstridende maskinlæring studerer en klasse af angreb, der har til formål at reducere klassifikatorernes ydeevne på specifikke opgaver. Med andre ord har de til formål at narre AI-maskinen.
Efterhånden som brugen af kunstig intelligens og maskinlæringsteknikker bliver mere udbredt, øges risikoen for modstridende angreb. Dette udgør en betydelig trussel mod forskellige AI-drevne applikationer, herunder spamregistrering, personlige assistenter, computersyn og så videre.
Hvordan modstridende angreb fungerer
Et modstridende angreb er enhver proces designet til at narre en maskinlæringsmodel til at forårsage fejlforudsigelser. Dette kan ske under træning, såvel som i et live eksekveringsmiljø. Med andre ord, hvis du kan finde ud af en måde at narre eller sabotere modellen på, så har du med succes angrebet den.
Hvad er et modstridende eksempel?
Et kontradiktorisk eksempel er ethvert specielt designet input til en maskinlæringsmodel, der har til formål at få modellen til at lave en fejl eller producere et forkert output.
Du kan skabe et modstridende eksempel ved at lave små ændringer i inputdataene, som selvom de måske ikke er synlige for det menneskelige øje, ofte er nok til at ændre modellens forståelse og få den til at lave fejlagtige output.
Modstridende eksempler bruges i træningsstadierne af en AI-model, og de foretagne ændringer genereres typisk ved hjælp af forskellige optimeringsteknikker, herunder gradientbaserede metoder som Fast Gradient Sign Method (FGSM) Attack, som udnytter modellens følsomhed over for ændringer i inputpladsen.
Målet med modstridende eksempler er at tilføje små forstyrrelser til inputdataene, som måske knap nok er synlige for menneskelige observatører, men som stadig er væsentlige nok til at føre modellen til at fejlklassificere inputtet.
Modstridende angreb kan ske i forskellige maskinlæringssektorer, herunder billedgenkendelse og naturlig sprogbehandling.
Anvendelser af Adversarial ML
Evnen til at opdage og udnytte svagheder i enhver kunstig intelligens-platform har en bred vifte af anvendelser, da angriberen kun er begrænset af sin fantasi. Her er nogle af de mange måder, hvorpå en hacker kan udnytte en kompromitteret AI-maskine ved hjælp af modstridende maskinlæringsmetoder.
- Billed- og videogenkendelse: Fra indholdsmoderering til autonome køretøjer og overvågningssystemer er mange kunstig intelligens-applikationer afhængige af billed- og videogenkendelsesalgoritmer. Ved at ændre maskinens input og tvinge den til at fejlklassificere ting, kan en angriber unddrage sig alle kontrolsystemer, der er afhængige af dens objektgenkendelsesfunktioner. For autonome køretøjer kan en sådan manipulation føre til trafikulykker.
- Spamfiltrering: Spammere kan med succes omgå AI-spamdetektionssystemer ved at optimere deres spam-e-mails med forskellige strukturer, flere gode ord, færre dårlige ord og så videre.
- Detektion af malware: Det er lige så muligt at lave ondsindet computerkode, der kan undgå opdagelse af malware-scannere.
- Natural Language Processing: Ved at fejlklassificere tekst ved hjælp af kontradiktorisk maskinlæring kan angriberen manipulere tekstbaserede anbefalingssystemer, falske nyhedsdetektorer, sentimentdetektorer og så videre.
- Medicinal: Angribere kan manipulere lægejournaler for enten at ændre en patients diagnose eller narre systemet til at afsløre følsomme lægejournaler.
- Opdagelse af økonomisk bedrageri: AI-systemer, der anvendes til afsløring af finansiel svindel, er også i fare for modstridende maskinlæringsangreb. For eksempel kan en angriber skabe syntetiske data, der efterligner legitime transaktioner, og derved gør det muligt at udføre bedrageri, der ikke er opdaget af modellen.
- Biometriske sikkerhedssystemer: Ved at anvende manipulerede data kan en angriber slå fingeraftryks- eller ansigtsgenkendelsessikkerhedssystemer for at få uautoriseret adgang til et netværk eller en platform.
- Modstridende forsvar: Mens de fleste af de ovennævnte anvendelser er til at angribe et system, er modstridende forsvar studiet af modstridende angreb til brug for at skabe robuste forsvarssystemer mod angribere af maskinen.
Konsekvenser af adversarial ML
Modstridende maskinlæring har konsekvenser, der kan påvirke pålideligheden eller ydeevnen af AI-systemer. Her er de vigtigste.
- Udhuler tilliden: Hvis modstridende angreb skulle vokse og komme ud af hånden, vil det forårsage en udhuling af tilliden til AI-systemer, eftersom offentligheden vil komme til at se ethvert maskinlæringsbaseret system med et mistænkeligt niveau.
- Etiske konsekvenser: Anvendelsen af maskinlæringssystemer til domæner som sundhedspleje og strafferet rejser etiske spørgsmål, da ethvert kompromitteret AI-system kan forårsage alvorlig personlig og social skade.
- Økonomiske konsekvenser: Modstridende angreb kan føre til økonomiske tab, øgede sikkerhedsomkostninger, finansiel markedsmanipulation og endda skade på omdømmet.
- Øget kompleksitet: Truslen om modstridende angreb øger forskningsindsatsen og den overordnede kompleksitet af maskinlæringssystemer.
- Modeltyveri: En AI-model i sig selv kan angribes for at søge efter og hente interne parametre eller information om dens arkitektur, der kan bruges til et mere seriøst angreb på systemet.
Typer af modstridende angreb
Der er forskellige typer af modstridende maskinlæringsangreb, og de varierer afhængigt af angriberens mål og hvor meget adgang han har til systemet. Her er de vigtigste typer.
- Undvigelsesangreb: I unddragelsesangreb ændrer modstandere input for at narre AI-systemet til at fejlklassificere dem. Dette kan involvere tilføjelse af umærkelige forstyrrelser (eller bevidst støj), til inputbilleder eller andre data for at bedrage modellen.
- Dataforgiftningsangreb: Dataforgiftningsangreb forekommer i træningsfasen af et AI-system. Ved at tilføje dårlige (eller forgiftede) data til maskinens træningsdatasæt, bliver modellen mindre præcis i sine forudsigelser og er derfor kompromitteret.
- Modeludvindingsangreb: I modelinversionsangreb udnytter modstandere evnen til at udtrække følsom information fra en trænet AI-model. Ved at manipulere input og observere modellens svar kan de rekonstruere private data, såsom billeder eller tekst.
- Overførselsangreb: Dette refererer til evnen af et angreb mod ét maskinlæringssystem til at være lige så effektivt mod et andet maskinlæringssystem.
Sådan forsvarer du dig mod modstridende angreb
Der er forskellige forsvarsmekanismer, som du kan bruge til at beskytte din AI-model mod modstridende angreb. Her er nogle af de mest populære.
- Oprettelse af robuste systemer: Dette involverer udviklingen af AI-modeller, der er mere modstandsdygtige over for modstridende angreb ved at inkludere tests og evalueringsretningslinjer for at hjælpe udviklerne med at identificere systemfejl, der kan føre til modstridende angreb. De kan derefter udvikle forsvar mod sådanne angreb.
- Inputvalidering: En anden tilgang er at kontrollere input til en ML-model for allerede kendte sårbarheder. Modellen kunne være designet til at afvise input, for eksempel, der indeholder modifikationer, der vides at få maskiner til at lave forkerte forudsigelser.
- Modstridende træning: Du kan også introducere en vis mængde modstridende eksempler i dit systems træningsdata for at hjælpe modellen med at lære at opdage og afvise modstridende eksempler i fremtiden.
- Forklarelig AI: Teoretisk set, jo bedre udviklere og brugere forstår, hvordan en AI-model fungerer inderst inde, jo lettere vil det være for folk at komme med forsvar mod angreb. Derfor kan en forklarlig AI (XAI) tilgang til maskinlæring og AI-modeludvikling løse en masse problemer.
Konklusion
Modstridende maskinlæringsangreb udgør en væsentlig trussel mod pålideligheden og ydeevnen af kunstige intelligenssystemer. Men ved at forstå de forskellige typer velkendte angreb og implementere forsvarsstrategier for at forhindre dem, kan udviklere bedre beskytte deres AI-modeller mod modstridende angreb.
Endelig bør du forstå, at områderne AI og modstridende maskinlæring stadig vokser. Så der kan stadig være andre modstridende angrebsmetoder derude, som endnu ikke er blevet offentligt kendt.
Ressourcer
- https://en.wikipedia.org/wiki/Adversarial_machine_learning
- https://www.csoonline.com/article/573031/adversarial-machine-learning-explained-how-attackers-disrupt-ai-and-ml-systems.html
- https://medium.com/@durgeshpatel2372001/an-introduction-to-adversarial-machine-learning-820010645df9
- https://insights.sei.cmu.edu/blog/the-challenge-of-adversarial-machine-learning/
- https://viso.ai/deep-learning/adversarial-machine-learning/
- https://www.toptal.com/machine-learning/adversarial-machine-learning-tutorial





