Het nachtmerriescenario voor computerbeveiliging - kunstmatige intelligentieprogramma's die kunnen leren hoe ze zelfs de beste verdediging kunnen ontwijken - is mogelijk al gearriveerd.
Die waarschuwing van beveiligingsonderzoekers wordt naar huis gestuurd door een team van IBM Corp. die de kunstmatige intelligentietechniek, bekend als machine learning, hebben gebruikt om hackprogramma's op te zetten die voorbij defensieve maatregelen van de bovenste plank zouden kunnen glippen. De groep zal woensdag details onthullen van zijn experiment op de Black Hat-veiligheidsconferentie in Las Vegas.
State-of-the-art verdedigingen vertrouwen meestal op het onderzoeken van wat de aanvalsoftware doet, in plaats van op de meer alledaagse techniek om softwarecode te analyseren op gevaarstekens. Maar het nieuwe genre van AI-gestuurde programma's kan worden getraind om te blijven slapen totdat ze een heel specifiek doel bereiken, waardoor ze uitzonderlijk moeilijk te stoppen zijn.
Niemand heeft er ooit over gepocht kwaadaardige software te vangen die duidelijk afhankelijk was van machine learning of andere varianten van kunstmatige intelligentie, maar dat kan alleen zijn omdat de aanvalsprogramma's te goed zijn om te worden gevangen.
Onderzoekers zeggen dat het op zijn best slechts een kwestie van tijd is. Gratis bouwstenen voor kunstmatige intelligentie voor trainingsprogramma's zijn direct beschikbaar via Google van Alphabet Inc en anderen, en de ideeën werken maar al te goed in de praktijk.
"Ik geloof absoluut dat we daar naartoe gaan", zegt Jon DiMaggio, senior bedreigingsanalist bij cyberbeveiligingsbedrijf Symantec Corp. "Het zal een stuk moeilijker worden om het op te sporen."
De meest geavanceerde nationale hackers hebben al laten zien dat ze aanvalsprogramma's kunnen bouwen die alleen worden geactiveerd als ze een doel hebben bereikt. Het bekendste voorbeeld is Stuxnet, dat door Amerikaanse en Israëlische inlichtingendiensten werd ingezet tegen een uraniumverrijkingsfaciliteit in Iran.
De IBM-inspanning, genaamd DeepLocker, toonde aan dat een vergelijkbaar precisieniveau beschikbaar kan zijn voor mensen met veel minder middelen dan een nationale overheid.
In een demonstratie met publiek beschikbare foto's van een voorbeelddoelwit, gebruikte het team een gehackte versie van videoconferentiesoftware die alleen in actie kwam wanneer het gezicht van een doelwit werd gedetecteerd.
"We hebben veel redenen om aan te nemen dat dit het volgende grote ding is", zei IBM-hoofdonderzoeker Marc Ph. Stoecklin. "Dit is misschien al gebeurd, en we zullen het over twee of drie jaar zien."