Stap 1: gebruik AI om niet-waarneembare wijzigingen in buitenfoto's aan te brengen. Stap 2: laat ze los in de open-source wereld en geniet van de chaos.
Zorgen over diepe vervalsingen- machinaal gemanipuleerde video's van beroemdheden en wereldleiders die zogenaamd dingen zeggen of doen die ze echt niet hebben gedaan - zijn vreemd in vergelijking met een nieuwe bedreiging: geteste beelden van de aarde zelf.
China is de erkende leider in het gebruik van een opkomende techniek die generatieve tegenstandersnetwerken wordt genoemd om computers te misleiden om objecten in landschappen of in satellietbeelden te zien die er niet zijn, zegt Todd Myers, automatiseringsleider en Chief Information Officer bij het Office of the Director of Technology bij het National Geospatial-Intelligence Agency.
“De Chinezen liggen ver voor ons. Dit is geen geheime informatie, 'zei Myers donderdag tijdens de tweede jaargang Geniale machines top, gehost door Defense One en Nextgov. “De Chinezen hebben al ontworpen; ze doen het nu al, met behulp van GAN's - generatieve tegenstandersnetwerken - om scènes en pixels te manipuleren om dingen te creëren om snode redenen. "
Myers zei bijvoorbeeld dat een tegenstander je computerondersteunde beeldanalisten voor de gek kan houden door te melden dat een brug op een bepaald punt een belangrijke rivier oversteekt.
“Dus vanuit tactisch perspectief of missieplanning, train je je troepen om een bepaalde route te gaan, richting een brug, maar die is er niet. Dan wacht er een grote verrassing op je, 'zei hij.
Voornaam* beschreven in 2014, GAN's vertegenwoordigen een grote evolutie in de manier waarop neurale netwerken leren objecten te zien en te herkennen en zelfs waarheid uit fictie detecteren.
Stel dat u uw conventionele neurale netwerk vraagt om erachter te komen welke objecten wat zijn op satellietfoto's. Het netwerk zal de afbeelding opsplitsen in meerdere stukjes of pixelclusters, berekenen hoe die gebroken stukjes zich tot elkaar verhouden, en vervolgens bepalen wat het eindproduct is, en of de foto's echt zijn of vervalst. Het is allemaal gebaseerd op de ervaring van het kijken naar veel satellietfoto's.
GAN keert dat proces om door twee netwerken tegen elkaar te plaatsen - vandaar het woord 'tegenstander'. Een conventioneel netwerk zou kunnen zeggen: 'De aanwezigheid van x, y en z in deze pixelclusters betekent dat dit een afbeelding van een kat is.' een GAN-netwerk zou kunnen zeggen: “Dit is een foto van een kat, dus x, y en z moeten aanwezig zijn. Wat zijn x, y en z en hoe verhouden ze zich? ”Het tegenstandernetwerk leert hoe x, y en z te construeren of genereren op een manier die het eerste neurale netwerk, of de discriminator, overtuigt dat er iets is wanneer misschien niet.
Veel wetenschappers hebben GAN's nuttig gevonden voor het spotten van objecten en het sorteren van geldige afbeeldingen van nepfoto's. In 2017 gebruikten Chinese wetenschappers GAN om wegen, bruggen en andere functies in satellietfoto's te identificeren.
De zorg, als AI-technologen vertelde Quartz vorig jaar is dat dezelfde techniek die echte bruggen van nep kan onderscheiden, ook kan helpen nepbruggen te maken die AI niet van echt kan onderscheiden.
Myers maakt zich zorgen dat naarmate de wereld meer en meer afhankelijk wordt van open-sourceafbeeldingen om het fysieke terrein te begrijpen, slechts een handvol vakkundig gemanipuleerde gegevenssets die in de open-source afbeeldingsaanvoerlijn worden ingevoerd, verwoesting kan veroorzaken. “Vergeet het [ministerie van Defensie] en de [inlichtingengemeenschap]. Stel je voor dat Google Maps hiermee doelbewust wordt geïnfiltreerd? En stel je voor over vijf jaar wanneer de Tesla [zelfrijdende] halve finale zijn er dingen aan het routeren? 'zei hij.
Als het gaat om nepvideo's van mensen, biometrische indicatoren zoals pols en spraak kunnen het nepeffect verslaan. Maar nep landschap is niet kwetsbaar voor dezelfde technieken.