Een recente analyse van de toekomst van oorlogvoering geeft aan dat landen die AI voor militair gebruik blijven ontwikkelen, het risico lopen de controle over het slagveld te verliezen. Degenen die geen uitroeiing riskeren. Of je nu voor of tegen de AI-wapenwedloop bent: het gebeurt. Dit is wat dat betekent, volgens een trio van experts.
Onderzoekers van ASRC Federal, een privébedrijf dat ondersteuning biedt voor de inlichtingen- en defensiegemeenschappen, en de Universiteit van Maryland publiceerde onlangs een paper op pre-printserver ArXivbespreken van de mogelijke gevolgen van de integratie van AI-systemen in moderne oorlogsvoering.
De krant - lees hier - richt zich op de nabije toekomst voor de AI-wapenwedloop in de veronderstelling dat AI dat zal doen niet op de een of andere manier amok of overname uitvoeren. In essentie is het een korte, nuchtere en angstaanjagende kijk op hoe al deze verschillende machine learning-technologie zich zal ontwikkelen op basis van analyse van huidige geavanceerde militaire AI-technologieën en voorspelde integratie op schaal.
Het artikel begint met een waarschuwing voor een naderende catastrofe, waarin wordt uitgelegd dat er vrijwel zeker een 'normaal ongeval' zal plaatsvinden met betrekking tot AI - een verwacht incident van aard en omvang dat we niet kunnen voorspellen. Kortom, de legers van de wereld zullen wat burgereieren breken waardoor de AI-wapenraces omelet wordt:
De studie van dit veld begon met ongevallen zoals Three Mile Island, maar AI-technologieën houden vergelijkbare risico's in. Het vinden en exploiteren van deze zwakke punten om gebrekkig gedrag te veroorzaken, wordt een permanent kenmerk van de militaire strategie.
Als je denkt aan moordende robots die het in onze steden uitsteken terwijl burgers schreeuwen om onderdak, heb je het niet mis - maar robots als een proxy voor soldaten is niet de grootste zorg van de mensheid als het gaat om AI-oorlogvoering. Dit artikel bespreekt wat er gebeurt nadat we het punt bereiken waarop het duidelijk wordt dat mensen machines in oorlogvoering tegenhouden.
Volgens de onderzoekers is het probleem niet een probleem dat we als goed en kwaad kunnen formuleren. Natuurlijk is het gemakkelijk om te zeggen dat we robots niet moeten toestaan mensen autonoom te vermoorden, maar dat is niet hoe het besluitvormingsproces van de toekomst zal werken.
De onderzoekers beschrijven het als een gladde helling:
Als AI-systemen effectief zijn, zou druk om het niveau van assistentie aan de krijger te verhogen onvermijdelijk zijn. Voortdurend succes zou betekenen dat de mens geleidelijk uit de kring moet worden geduwd, eerst naar een toezichthoudende rol en vervolgens naar de rol van een "dodemansknopoperator" die een altijd ingeschakelde WET bewaakt.
WETTEN, of dodelijke autonome wapensystemen, zullen bijna onmiddellijk verder gaan dan het vermogen van mensen om met computers en machines te werken - en waarschijnlijk eerder dan de meeste mensen denken. Hand-tot-hand-gevechten tussen machines zullen bijvoorbeeld noodzakelijkerwijs volledig autonoom zijn:
Naarmate de AI na verloop van tijd beter in staat is tot reflectief en integratief denken, zal de menselijke component volledig moeten worden geëlimineerd, omdat de snelheid en de dimensionaliteit onbegrijpelijk worden, zelfs rekening houdend met cognitieve hulp.
En uiteindelijk zal de tactiek en het reactievermogen die nodig zijn om slagen met AI uit te wisselen helemaal buiten het bereik van mensen vallen:
Gegeven een gevechtsruimte die zo overweldigend is dat mensen niet handmatig met het systeem kunnen omgaan, zal de menselijke rol beperkt blijven tot post-hoc forensische analyse, zodra de vijandelijkheden zijn beëindigd of verdragen zijn ondertekend.
Als dit een beetje grimmig klinkt, is het omdat het is. Als AI's importeren Jack Clark merkt op: "Dit is een korte krant die de zorgen van AI + War beschrijft van een gemeenschap waar we niet vaak van horen: mensen die werken als directe leveranciers van overheidstechnologie."
Het is misschien in het beste belang van iedereen om zorgvuldig aandacht te besteden aan hoe zowel academici als de overheid het probleem in de toekomst blijven vormgeven.
Het verbaast me altijd hoe een 'studie' moet worden uitgevoerd om de waarschijnlijkheid van de zeer voor de hand liggende actie (s) te 'bepalen'. Nou, DUH! op het AI-front, jongens. Herinnert me eraan dat ik voor het diner werd uitgenodigd door de vrouw van de CEO van een marketingbedrijf. Ik definieer hem als zodanig, want dat is alles waar hij het over had. Tijdens de maaltijd ging hij maar door over zijn gezelschap, ad nauseum voor de rest van ons. Toen hij eindelijk de uitbetaling bereikte. Hij vertelde de tafel dat zijn 'geweldige' bedrijf $ 4 miljoen had gekregen om erachter te komen waarom mensen er een hadden uitgekozen... Lees verder "