Ex-Google-ingenieur: 'Killer Robots' kon oorlog beginnen

Deel dit verhaal!
Naarmate regeringen de AI-wapenwedloop opvoeren om autonome robots te leiden met een 'vergunning om te doden', neemt ook het risico op vreselijke fouten toe, inclusief de mogelijkheid om een ​​robotoorlog te beginnen. ⁃ TN-editor

Een nieuwe generatie autonome wapens of 'moordende robots' kan per ongeluk een oorlog beginnen of massale wreedheden veroorzaken, een voormalige top Google software engineer heeft gewaarschuwd.

Laura Nolan, die vorig jaar ontslag nam bij Google uit protest dat ze werd gestuurd om aan een project te werken om dramatisch te verbeteren Amerikaanse militairen drone-technologie heeft opgeroepen tot het verbieden van alle AI-moordmachines die niet door mensen worden bediend.

Nolan zei dat moordenaarsrobots die niet worden geleid door menselijke afstandsbediening, moeten worden verboden door hetzelfde soort internationale verdrag dat chemische wapens verbiedt.

In tegenstelling tot drones, die worden bestuurd door militaire teams, vaak duizenden kilometers verwijderd van waar het vliegende wapen wordt ingezet, zei Nolan dat moordende robots het potentieel hebben om "rampzalige dingen te doen waarvoor ze oorspronkelijk niet waren geprogrammeerd".

Er is geen suggestie dat Google betrokken is bij de ontwikkeling van autonome wapensystemen. Vorige maand debatteerde een VN-panel van overheidsexperts over autonome wapens en ontdekte dat Google AI schuwde voor gebruik in wapensystemen en zich bezig hield met best practices.

Nolan, die zich heeft aangesloten bij de Campagne om Killer Robots te stoppen en heeft VN-diplomaten in New York en Genève geïnformeerd over de gevaren van autonome wapens: “De kans op een ramp staat in verhouding tot het aantal van deze machines in een bepaald gebied tegelijk. Waar je naar kijkt, zijn mogelijke wreedheden en onwettige moorden, zelfs onder oorlogswetten, vooral als honderden of duizenden van deze machines worden ingezet.

“Er kunnen grootschalige ongelukken gebeuren omdat deze dingen zich op onverwachte manieren gaan gedragen. Daarom moeten geavanceerde wapensystemen onderworpen worden aan zinvolle menselijke controle, anders moeten ze worden verboden omdat ze veel te onvoorspelbaar en gevaarlijk zijn. "

Google heeft Nolan, afgestudeerd in computerwetenschappen aan het Trinity College Dublin, aangesteld om bij 2017 aan Project Maven te werken nadat ze vier jaar in dienst was geweest bij de technologiegigant en een van de beste software-ingenieurs in Ierland werd.

Ze zei dat ze "steeds ethischer bezorgd" raakte over haar rol in het Maven-programma, dat werd bedacht om het Amerikaanse ministerie van Defensie te helpen de drone-videoherkenningstechnologie drastisch te versnellen.

In plaats van het gebruik van grote aantallen militairen om uren en uren drone videobeelden van potentiële vijandelijke doelen door te spoelen, werd Nolan en anderen gevraagd om een ​​systeem te bouwen waarbij KI-machines mensen en objecten in een oneindig sneller tempo konden onderscheiden.

Google liet het Project Maven-contract in maart van dit jaar vervallen na meer dan 3,000 van zijn werknemers tekende een petitie uit protest tegen de betrokkenheid van het bedrijf.

“Als een site-betrouwbaarheidsingenieur was mijn expertise bij Google om ervoor te zorgen dat onze systemen en infrastructuren actief bleven, en dit was wat ik Maven moest helpen. Hoewel ik niet direct betrokken was bij het versnellen van de herkenning van videobeelden, realiseerde ik me dat ik nog steeds deel uitmaakte van de kill-keten; dat dit er uiteindelijk toe zou leiden dat meer mensen het doelwit worden van en worden gedood door het Amerikaanse leger in plaatsen als Afghanistan. "

Hoewel ze ontslag nam bij Project Maven, heeft Nolan voorspeld dat de ontwikkeling van autonome wapens een veel groter risico voor de mensheid oplevert dan op afstand bestuurde drones.

Ze schetste hoe externe krachten, variërend van veranderende weersystemen tot machines die niet in staat zijn om complex menselijk gedrag uit te werken, moordende robots uit de koers kunnen gooien, met mogelijk fatale gevolgen.

“Je zou een scenario kunnen hebben waarbij autonome wapens die zijn uitgezonden om een ​​klus te klaren onverwachte radarsignalen tegenkomen in een gebied waar ze naar op zoek zijn; er kan weer zijn dat niet in de software is verwerkt of ze komen een groep gewapende mannen tegen die opstandige vijanden lijken te zijn, maar in feite op jacht zijn naar wapens. De machine heeft niet het onderscheidingsvermogen of het gezond verstand dat de menselijke aanraking heeft.

“Het andere enge van deze autonome oorlogssystemen is dat je ze alleen echt kunt testen door ze in een echte gevechtszone te implementeren. Misschien gebeurt dat nu met de Russen in Syrië, wie weet? Wat we wel weten, is dat Rusland zich bij de VN heeft verzet tegen elk verdrag, laat staan ​​dat deze wapens trouwens worden verboden.

“Als je een machine test die zijn eigen beslissingen neemt over de wereld om hem heen, dan moet het in realtime zijn. Trouwens, hoe train je een systeem dat uitsluitend op software draait hoe subtiel menselijk gedrag te detecteren of het verschil tussen jagers en opstandelingen te onderscheiden? Hoe onderscheidt de moordmachine die daar op zichzelf rond vliegt, de 18-jarige strijder en de 18-jarige die op konijnen jaagt? '

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

1 Reactie
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties
steve

Dit doet me denken aan die scène uit War Games - een beetje ouderwets om nu naar te kijken - maar zeer relevant. https://www.youtube.com/watch?v=NHWjlCaIrQo