Teknologi

En AI skrev en fungerende zero-day-utnyttelse — Google stoppet angrepet

Susan Hill

Utnyttelsen var rettet mot tofaktorautentisering, det ekstra verifiseringstrinnet som beskytter de fleste kontoene vi bryr oss om — e-post, bank, skylagring, jobbinnlogginger. Sårbarheten, en semantisk logikkfeil i verktøyets Python-kode, lot en angriper som allerede hadde stjålne påloggingsdata, hoppe over 2FA-kontrollen ved å utløse et hardkodet unntak utviklerne aldri hadde ment å eksponere. Google fant feilen, varslet leverandøren for å få en oppdatering ut og koblet fra det planlagte angrepet før det startet. Det som gjør oppdagelsen til en førstegang er ikke selve feilen, men måten den ble funnet på.

Googles analytikere sier at koden bar tydelige fingeravtrykk av en stor språkmodell — docstrings i opplæringsstil, sterkt strukturert formatering og en skrivestil de beskriver som svært typisk for LLM-treningsdata. Teamet konkluderte med høy tillit at det var en AI, ikke en enkelt person, som bar det meste av oppdagelses- og våpeniseringsarbeidet. Det rammede selskapet, den kriminelle gruppen og navnet på verktøyet er fortsatt ikke kjent.

Distinksjonen teller, for feilen er nettopp den typen maskiner ikke skulle være gode til å finne. Tradisjonelle sårbarhetsskannere leter etter krasj og minnefeil. Dette var en motsetning mellom logikken som håndhever 2FA og et hardkodet unntak — den typen feil en grundig revisor kan oppdage ved å lese tusenvis av kodelinjer på jakt etter inkonsekvenser. De mest avanserte språkmodellene, skriver Google, blir stadig bedre på slik kontekstlesing, i hastigheter intet revisjonsteam kan matche.

Rapporten beskriver også et bredere mønster som ikke handler om kriminelle aktører. En Kina-tilknyttet klynge sporet som UNC2814 bruker AI til å akselerere sårbarhetsforskning på innebygde enheter. APT45, en nordkoreansk gruppe, matet en modell med tusenvis av repetitive prompts for å analysere CVE-oppføringer rekursivt og validere konseptbevis. Ulike operatører, samme teknikk: gjør modellen til en utrettelig forskningsassistent.

Googles framstilling har grenser som er verdt å peke på. Selskapet har ikke navngitt verken det rammede verktøyet, trusselaktøren eller når oppdateringen kommer, og ber lesere stole på konklusjonen om AI-spor utelukkende på grunnlag av intern analyse. Ingen av tredjepartsbekreftelsene som er kommet denne uka, gir noen uavhengig kriminalteknisk gjennomgang av selve utnyttelseskoden. Vurderingen høy tillit er GTIGs ord mot den kriminelle gruppens taushet. Det er også fortsatt sant at grunnfeilen — et hardkodet unntak — er nøyaktig den typen forglemmelse menneskelige utviklere har gjort i tiår uten hjelp av noen AI. Modellen kan ha framskyndet oppdagelsen; feilen er eldre enn systemet som fant den.

For de fleste brukere er det ingen umiddelbar handling å utføre — feilen ligger i programvare IT-team håndterer, ikke i personlige enheter — men implikasjonen er direkte. Forsvarsperimeteret vi støtter oss på, fra passordbehandlere til bedriftens single sign-on, ble designet mot menneskelige angripere i menneskelig hastighet. En AI-assistert angriper leser en kodebase slik en erfaren ingeniør leser et avsnitt. Forsvarerne må lære seg det samme.

Det bekreftede er at leverandøren er varslet og ruller ut en oppdatering. Den bredere analysen ble publisert som del av Google Clouds løpende trusseletterretningsserie om AI i offensiv sikkerhet 11. mai 2026. Googles sjefanalytiker for trusler, John Hultquist, sa til pressen i dagene etter at kappløpet mellom AI og forsvarere allerede er i gang og ikke ligger foran oss. En oppfølgingsrapport om AI-støttede verktøy ventes før utgangen av andre kvartal.

Diskusjon

Det er 0 kommentarer.