Motstridende maskinlæring: Betydning, eksempler og hvordan det fungerer

Oppdag verden av motstridende maskinlæringsangrep og deres innvirkning på AI-systemer. Lær hvordan de kan utnytte sårbarheter og hvordan de bygger de riktige forsvarene.

Motstridende maskinlæring er en gren av maskinlæring som fokuserer på sårbarhetene til maskinlæringsmodeller for ulike angrep.

En kontradiktorisk input er enhver maskinlæringsinngang som tar sikte på å lure modellen til å lage feil spådommer eller produsere feil utdata.

Fordi kontradiktoriske angrep kan få alvorlige konsekvenser, inkludert i sikkerhets-, svindel- og helsesektoren, fokuserer forskere på å oppdage ulike angrepsmetoder, samt å utvikle forsvarsmekanismer mot dem.

Dette innlegget utforsker den motstridende maskinlæringsverdenen og inkluderer eksempler, utfordringer og måter å angripe og forsvare AI-modeller på.

Hva er kontradiktorisk maskinlæring?

Motstridende maskinlæring studerer en klasse med angrep som er rettet mot å redusere ytelsen til klassifiserere på spesifikke oppgaver. Med andre ord har de som mål å lure AI-maskinen.

Etter hvert som bruken av kunstig intelligens og maskinlæringsteknikker blir mer utbredt, øker risikoen for motstandsangrep. Dette utgjør en betydelig trussel mot ulike AI-drevne applikasjoner, inkludert spamdeteksjon, personlige assistenter, datasyn og så videre.

Hvordan motstridende angrep fungerer

Et motstandsangrep er enhver prosess designet for å lure en maskinlæringsmodell til å forårsake feilspådommer. Dette kan skje under trening, så vel som i et live-utførelsesmiljø. Med andre ord, hvis du kan finne ut en måte å lure eller sabotere modellen på, så har du vellykket angrepet den.

Hva er et motstridende eksempel?

Et motstridende eksempel er ethvert spesialdesignet input for en maskinlæringsmodell som tar sikte på å få modellen til å gjøre en feil eller produsere en feil utgang.

Du kan lage et motstridende eksempel ved å gjøre små endringer i inndataene, som selv om de kanskje ikke er synlige for det menneskelige øyet, ofte er nok til å endre modellens forståelse og få den til å lage feilaktige utdata.

Motstridende eksempler brukes i treningsstadiene til en AI-modell, og modifikasjonene som gjøres genereres vanligvis ved hjelp av forskjellige optimaliseringsteknikker, inkludert gradientbaserte metoder som Fast Gradient Sign Method (FGSM) Attack, som utnytter modellens følsomhet for endringer i inndataområdet.

Målet med motstridende eksempler er å legge til små forstyrrelser til inngangsdataene som kanskje knapt er synlige for menneskelige observatører, men som fortsatt er betydelige nok til å føre modellen til å feilklassifisere inputen.

Motstridende angrep kan skje i forskjellige maskinlæringssektorer, inkludert bildegjenkjenning og naturlig språkbehandling.

Applikasjoner av Adversarial ML

Muligheten til å oppdage og utnytte svakheter i enhver kunstig intelligens-plattform har et bredt spekter av bruksområder, da angriperen kun er begrenset av fantasien. Her er noen av de mange måtene en hacker kan utnytte en kompromittert AI-maskin ved å bruke kontradiktoriske maskinlæringsmetoder.

  • Bilde- og videogjenkjenning: Fra innholdsmoderering til autonome kjøretøy og overvåkingssystemer, mange kunstig intelligens-applikasjoner er avhengige av bilde- og videogjenkjenningsalgoritmer. Ved å endre maskinens input og tvinge den til å feilklassifisere ting, kan en angriper unngå alle kontrollsystemer som er avhengige av objektgjenkjenningsevnene. For autonome kjøretøy kan en slik manipulasjon føre til trafikkulykker.
  • Spamfiltrering: Spammere kan omgå AI-søppeloppdagelsessystemer ved å optimalisere spam-e-postene deres med forskjellige strukturer, flere gode ord, færre dårlige ord og så videre.
  • Deteksjon av skadelig programvare: Det er like mulig å lage ondsinnet datakode som kan unngå oppdagelse av skadelig programvare.
  • Natural Language Processing: Ved å feilklassifisere tekst ved hjelp av motstridende maskinlæring, kan angriperen manipulere tekstbaserte anbefalingssystemer, falske nyhetsdetektorer, sentimentdetektorer og så videre.
  • Helsevesen: Angripere kan manipulere medisinske journaler for enten å endre en pasients diagnose eller lure systemet til å avsløre sensitive journaler.
  • Oppdagelse av økonomisk svindel: AI-systemer som brukes til å oppdage finansiell svindel, er også utsatt for motstand mot maskinlæringsangrep. En angriper kan for eksempel lage syntetiske data som etterligner legitime transaksjoner, og dermed gjøre det mulig å utføre svindel uten at modellen oppdager det.
  • Biometriske sikkerhetssystemer: Ved å bruke manipulerte data kan en angriper slå fingeravtrykk eller ansiktsdeteksjonssikkerhetssystemer for å få uautorisert tilgang til et nettverk eller en plattform.
  • Motstridende forsvar: Mens de fleste av de foregående bruksområdene er for å angripe et system, er motstridende forsvar studiet av motstridende angrep for bruk for å lage robuste forsvarssystemer mot angripere av maskinen.

Konsekvenser av adversarial ML

Motstridende maskinlæring har konsekvenser som kan påvirke påliteligheten eller ytelsen til AI-systemer. Her er de viktigste.

  • Uthuler tilliten: Hvis motstridende angrep skulle vokse og gå ut av hånden, vil det føre til at tilliten for AI-systemer svekkes, siden publikum vil komme til å se et hvilket som helst maskinlæringsbasert system med et mistenksomhetsnivå.
  • Etiske implikasjoner: Anvendelsen av maskinlæringssystemer på domener som helsevesen og strafferett reiser etiske spørsmål, ettersom ethvert kompromittert AI-system kan forårsake alvorlig personlig og sosial skade.
  • Økonomiske implikasjoner: Motstridende angrep kan føre til økonomisk tap, økte sikkerhetskostnader, finansmarkedsmanipulasjon og til og med skade på omdømmet.
  • Økt kompleksitet: Trusselen om motstridende angrep øker forskningsinnsatsen og den generelle kompleksiteten til maskinlæringssystemer.
  • Modelltyveri: En AI-modell i seg selv kan angripes for å søke etter og hente interne parametere eller informasjon om arkitekturen som kan brukes for et mer alvorlig angrep på systemet.

Typer motstandsangrep

Det finnes ulike typer motstridende maskinlæringsangrep, og de varierer avhengig av angriperens mål og hvor mye tilgang han har til systemet. Her er hovedtypene.

  • Unngåelsesangrep: I unndragelsesangrep endrer motstandere innganger for å lure AI-systemet til å feilklassifisere dem. Dette kan innebære å legge til umerkelige forstyrrelser (eller bevisst støy), for å legge inn bilder eller andre data for å lure modellen.
  • Dataforgiftningsangrep: Dataforgiftningsangrep forekommer under treningsfasen til et AI-system. Ved å legge til dårlige (eller forgiftede) data i maskinens treningsdatasett, blir modellen mindre nøyaktig i sine spådommer og blir derfor kompromittert.
  • Modellutvinningsangrep: I modellinversjonsangrep utnytter motstandere muligheten til å trekke ut sensitiv informasjon fra en trent AI-modell. Ved å manipulere input og observere modellens svar, kan de rekonstruere private data, som bilder eller tekst.
  • Overføringsangrep: Dette refererer til muligheten for et angrep mot ett maskinlæringssystem til å være like effektivt mot et annet maskinlæringssystem.

Hvordan forsvare seg mot motstandere

Det er forskjellige forsvarsmekanismer du kan bruke for å beskytte AI-modellen din mot motstandere. Her er noen av de mest populære.

  • Opprette robuste systemer: Dette innebærer utvikling av AI-modeller som er mer motstandsdyktige mot motstandsangrep ved å inkludere tester og evalueringsretningslinjer for å hjelpe utviklerne med å identifisere systemfeil som kan føre til motstridende angrep. De kan da utvikle forsvar mot slike angrep.
  • Inndatavalidering: En annen tilnærming er å sjekke inngangene til en ML-modell for allerede kjente sårbarheter. Modellen kan være utformet for å avvise innganger, for eksempel som inneholder modifikasjoner som er kjent for å få maskiner til å gjøre feil spådommer.
  • Motstridende trening: Du kan også introdusere en viss mengde motstridende eksempler i systemets treningsdata for å hjelpe modellen å lære å oppdage og avvise motstridende eksempler i fremtiden.
  • Forklarbar AI: Teoretisk sett, jo bedre utviklere og brukere forstår hvordan en AI-modell fungerer innerst inne, jo lettere vil det være for folk å komme opp med forsvar mot angrep. Derfor kan en forklarlig AI (XAI)-tilnærming til maskinlæring og AI-modellutvikling løse mange problemer.

Konklusjon

Motstridende maskinlæringsangrep utgjør en betydelig trussel mot påliteligheten og ytelsen til kunstige intelligenssystemer. Ved å forstå de forskjellige typene kjente angrep og implementere forsvarsstrategier for å forhindre dem, kan utviklere imidlertid bedre beskytte AI-modellene sine mot motstandsangrep.

Til slutt bør du forstå at feltene AI og motstridende maskinlæring fortsatt vokser. Så det kan fortsatt være andre motstandsdyktige angrepsmetoder der ute som ennå ikke er blitt offentlig kjent.

Ressurser

  1. https://en.wikipedia.org/wiki/Adversarial_machine_learning
  2. https://www.csoonline.com/article/573031/adversarial-machine-learning-explained-how-attackers-disrupt-ai-and-ml-systems.html
  3. https://medium.com/@durgeshpatel2372001/an-introduction-to-adversarial-machine-learning-820010645df9
  4. https://insights.sei.cmu.edu/blog/the-challenge-of-adversarial-machine-learning/
  5. https://viso.ai/deep-learning/adversarial-machine-learning/
  6. https://www.toptal.com/machine-learning/adversarial-machine-learning-tutorial
Nnamdi Okeke

Nnamdi Okeke

Nnamdi Okeke er en datamaskinentusiast som elsker å lese et bredt spekter av bøker. Han har en preferanse for Linux fremfor Windows/Mac og har brukt
Ubuntu siden de første dagene. Du kan fange ham på twitter via bongotrax

Artikler: 298

Motta tekniske ting

Tekniske trender, oppstartstrender, anmeldelser, nettinntekter, nettverktøy og markedsføring en eller to ganger i måneden