Officiële vrijgegeven robotethiek: doe geen kwaad, voer bevelen uit

Deel dit verhaal!

Een professor in robotica in Engeland zegt: “Het probleem met AI-systemen op dit moment, vooral deze deep learning-systemen, is dat het is onmogelijk om te weten waarom ze de beslissingen nemen die ze nemen.”Als dit waar is, zijn robots al uit de hand gelopen.  TN Editor

Isaac Asimov gaf ons de basisregels voor goed robotgedrag: doe geen schade aan mensen, volg geen bevelen op en bescherm jezelf. Nu heeft het British Standards Institute een meer officiële versie gericht op het helpen van ontwerpers om ethisch verantwoorde robots te maken.

Het document, BS8611 robots en robotapparatuur, is geschreven in de droge taal van een handleiding voor gezondheid en veiligheid, maar de ongewenste scenario's die het belicht, kunnen rechtstreeks uit fictie worden overgenomen. Robotbedrog, robotverslaving en de mogelijkheid dat zelflerende systemen hun taken overtreffen, worden allemaal aangemerkt als gevaren die fabrikanten moeten overwegen.

Verheugd over de richtlijnen op de Sociale robotica en AI conferentie in Oxford, Alan Winfield, een professor in robotica aan de Universiteit van het westen van Engeland, zei dat ze “de eerste stap vormden om ethische waarden in robotica en AI in te bedden”.

"Voor zover ik weet is dit de eerste gepubliceerde standaard voor het ethische ontwerp van robots," zei Winfield na het evenement. "Het is een beetje geavanceerder dan dat van de wetten van Asimov - het geeft in principe aan hoe een ethische risicobeoordeling van een robot moet worden uitgevoerd."

Het BSI-document begint met enkele brede ethische principes: “Robots moeten niet uitsluitend of primair worden ontworpen om mensen te doden of te schaden; mensen, geen robots, zijn de verantwoordelijke agenten; het moet mogelijk zijn om erachter te komen wie verantwoordelijk is voor een robot en zijn gedrag. "

Het gaat verder met het belichten van een reeks meer omstreden kwesties, zoals of een emotionele band met een robot wenselijk is, vooral wanneer de robot is ontworpen om te communiceren met kinderen of ouderen.

Noel Sharkey, emeritus hoogleraar robotica en AI aan de Universiteit van Sheffield, zei dat dit een voorbeeld was van waar robots ons onbedoeld konden misleiden. "Er was een recent onderzoek waarbij kleine robots werden ingebed in een kleuterschool," zei hij. “De kinderen vonden het geweldig en waren zelfs verbonden met de robots. Maar toen er achteraf om werd gevraagd, dachten de kinderen duidelijk dat de robots cognitiever waren dan hun huisdier. '

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

1 Opmerking
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties
Jerry Day

Om dat te kunnen doen, moeten robots weten wat een mens als "kwaad" beschouwt. Dat kan van alles zijn, van het schrappen van onze banen tot micro-agressieve opmerkingen. De politie heeft al robots gebruikt om een ​​"verdachte" aan stukken te blazen, dus net als al het andere mogen de overheid en hun robots de regels negeren terwijl wij en onze robots ze moeten gehoorzamen.