Expert: AI-soldaten zullen 'moreel kompas' ontwikkelen en bestellingen tarten

Wikimedia Commons
Deel dit verhaal!
Het is al aangetoond dat AI-algoritmen de vooroordelen van hun makers vertonen, dus waarom ook niet moorddadige bedoelingen? Technocraten zijn zo in beslag genomen door hun Pollyanna-uitvindingen dat ze het logische einde van hun bestaan ​​niet kunnen zien. ⁃ TN Editor

Moorddadige robotsoldaten worden zo geavanceerd dat ze hun eigen morele code kunnen ontwikkelen om orders gewelddadig te trotseren, beweert een AI-expert.

Dr. Ian Pearson, ex-cybernetica-ingenieur, voorspelt dat we op weg zijn naar een toekomst van bewuste machines.

Maar als robots in actie worden gebracht door militaire machten, waarschuwt de futuroloog dat ze in staat zullen zijn om hun eigen “morele standpunt” op te roepen.

En als ze dat doen, beweert de ex-raketwetenschapper dat ze zich kunnen keren tegen de mensen die hen naar de strijd sturen.

Dr. Pearson, die blogt voor Futurizon, vertelde Daily Star Online: "Naarmate AI zich blijft ontwikkelen en terwijl we op weg zijn naar bewustzijn - en het zal niet van de ene op de andere dag zijn, maar we maken geleidelijk computers meer en meer. geavanceerder - op een gegeven moment geef je ze toegang tot moreel onderwijs, zodat ze zelf moraal kunnen leren.

'Je kunt ze redeneervermogen geven en ze kunnen met een andere morele code komen, waardoor ze op een hoger voetstuk komen te staan ​​dan de mensen die ze zouden moeten dienen.

Gevraagd of dit fataal kon zijn, antwoordde hij: “Ja, natuurlijk.

“Als ze de controle hebben over wapens en ze besluiten dat ze een superieur moreel wezen zijn dan de mensen die ze geacht worden te bewaken, zouden ze besluiten kunnen nemen dat bepaalde mensen gedood zouden moeten worden om de grotere bevolking te beschermen.

'Wie weet welke beslissingen ze zouden kunnen nemen?

"Als je een man op een slagveld hebt die soldaten vertelt om deze groep mensen neer te schieten, om wat voor reden dan ook, maar de computer denkt daar anders over, de computer is er niet van overtuigd, dan zou hij kunnen concluderen dat de soldaat die de bevelen geeft de ergste dader is. dan de mensen die hij probeert te vermoorden, dus het kan zich omdraaien en hem in plaats daarvan doden.

"Het is heel goed mogelijk, het hangt ervan af hoe de systemen zijn geschreven."

Dr Pearson's waarschuwing komt te midden van de groeiende bezorgdheid over volledig autonome robots die in oorlog worden gebruikt.

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

6 Comments
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties
Pyra

Idioot. Denkt een van deze computerduivers ooit na over wat ze zeggen? Ik bedoel denk het uit voorbij het puntje van hun neus.

Het gezegde, "beweren wijs te zijn, werden dwazen ..." heeft hier veel relevantie.