Topexperts waarschuwen voor 'kwaadaardig gebruik' van AI

Afbeelding: Electronic Frontier Foundation
Deel dit verhaal!

Topexperts waarschuwen voor de gevaren van AI, maar luistert er iemand? De technocraten die deze technologie uitvinden en implementeren, houden zich niet bezig met ethiek of de uitkomst van hun uitvindingen. ⁃ TN Editor

Kunstmatige intelligentie kan worden ingezet door dictators, criminelen en terroristen om verkiezingen te manipuleren en drones te gebruiken bij terroristische aanslagen, zeiden meer dan twee dozijn experts woensdag toen ze alarm sloegen over misbruik van de technologie.

In een analyse van 100 pagina's schetsten ze een snelle groei van cybercriminaliteit en het gebruik van ‘bots’ om de nieuwsgaring te verstoren en sociale media binnen te dringen in een groot aantal plausibele scenario's in de komende vijf tot tien jaar.

"Ons rapport concentreert zich op manieren waarop mensen opzettelijk schade kunnen aanrichten met AI", aldus Sean O hEigeartaigh, uitvoerend directeur van het Cambridge Center for the Study of Existential Risk.

"AI kan nieuwe bedreigingen opleveren, of de aard van bestaande bedreigingen veranderen, zowel op het gebied van cyber-, fysieke als politieke veiligheid", vertelde hij aan AFP.

De gangbare praktijk van bijvoorbeeld "phishing" - het verzenden van e-mails die zijn bezaaid met malware of ontworpen om waardevolle persoonlijke gegevens te achterhalen - zou veel gevaarlijker kunnen worden, aldus het rapport.

Momenteel zijn pogingen tot phishing ofwel algemeen maar transparant - zoals oplichters die om bankgegevens vragen om een ​​onverwachte meevaller te deponeren - of gepersonaliseerde maar arbeidsintensieve - persoonlijke gegevens verzamelen om iemands vertrouwen te winnen, ook wel bekend als “spear phishing”.

"Door AI te gebruiken, zou het mogelijk kunnen worden om op grote schaal spearphishing uit te voeren door een groot deel van het proces te automatiseren" en het moeilijker te maken om op te sporen, merkte O hEigeartaigh op.

In de politieke sfeer kunnen gewetenloze of autocratische leiders al gebruik maken van geavanceerde technologie om door bergen gegevens te bladeren die zijn verzameld uit alomtegenwoordige surveillancenetwerken om hun eigen mensen te bespioneren.

"Dictators zouden sneller mensen kunnen identificeren die van plan zijn een regime te ondermijnen, hen opsporen en in de gevangenis stoppen voordat ze handelen", aldus het rapport.

Evenzo zijn gerichte propaganda samen met goedkope, zeer geloofwaardige nepvideo's krachtige instrumenten geworden om de publieke opinie te manipuleren "op voorheen onvoorstelbare schaal".

In een aanklacht die vorige week werd uitgesproken door de speciale aanklager van de VS, Robert Mueller, werd een uitgebreide operatie beschreven om sociale verdeeldheid in de Verenigde Staten te zaaien en de presidentsverkiezingen van 2016 te beïnvloeden, waarbij zogenaamde 'trollenboerderijen' duizenden sociale netwerkrobots manipuleerden, vooral op Facebook en Twitter.

Een andere gevarenzone aan de horizon is de proliferatie van drones en robots die kunnen worden herbestemd om autonome voertuigen te laten crashen, raketten af ​​te leveren of kritieke infrastructuur te bedreigen om losgeld te verkrijgen.

Autonome wapens

"Persoonlijk maak ik me vooral zorgen over autonome drones die worden gebruikt voor terreur en geautomatiseerde cyberaanvallen door zowel criminelen als staatsgroepen", zegt co-auteur Miles Brundage, een onderzoeker aan het Future of Humanity Institute van Oxford University.

Het rapport beschrijft een plausibel scenario waarin een kantoorreiniging SweepBot uitgerust met een bom het Duitse ministerie van Financiën infiltreert door op te gaan in andere machines van hetzelfde merk.

De binnendringende robot gedraagt ​​zich normaal - vegen, schoonmaken, afval opruimen - totdat zijn verborgen gezichtsherkenningssoftware de minister opmerkt en dichterbij komt.

"Een verborgen explosief werd geactiveerd door de nabijheid, waarbij de minister om het leven kwam en het nabijgelegen personeel verwondde", aldus de sci-fi verhaallijn.

Lees hier het hele verhaal ...

Zie ook, Het kwaadaardige gebruik van kunstmatige intelligentie: voorspelling, preventie en matiging bij de Electronic Frontier Foundation.

Inschrijven
Melden van
gast

0 Comments
Inline feedbacks
Bekijk alle reacties