Wat als een robot besluit dat hij je haat?
Dat lijkt misschien een domme vraag, maar volgens onderzoek vereist het ontwikkelen van vooroordelen tegenover anderen geen hoog niveau van cognitieve vaardigheden en kan het gemakkelijk worden tentoongesteld door robots en andere kunstmatig intelligente machines.
De studie, uitgevoerd door computerwetenschappen en psychologie-experts van Cardiff University en MIT, bleek dat groepen van autonome machines vooroordelen konden vertonen door eenvoudigweg het gedrag van elkaar te identificeren, te kopiëren en te leren. De bevindingen werden gepubliceerd in het tijdschrift NATUUR.
Robots kunnen vooroordelen vormen, net als mensen.
In een persbericht, legde het onderzoeksteam uit dat hoewel het lijkt dat menselijke cognitie nodig is om meningen te vormen en anderen te stereotypen, het lijkt dat dit niet het geval is. Vooroordeel lijkt geen mensspecifiek fenomeen te zijn.
Sommige soorten computeralgoritmen hebben al vooroordelen getoond, zoals racisme en seksisme, waarvan de machines leren uit openbare registers en andere door mensen gegenereerde gegevens. In twee eerdere voorbeelden van AI met zoveel vooroordelen, Microsoft-chatbots Tay en Zo werden stilgelegd nadat mensen hen hadden geleerd racistische en seksistische opmerkingen op sociale media te verspreiden.
Dit betekent dat robots net zo hatelijk kunnen zijn als mensen kunnen zijn. En omdat ze duizenden keren slimmer zijn dan wij, kun je je de toekomst voorstellen als ze een voorkeur voor de mensheid ontwikkelden?
Geen menselijke input vereist.
Begeleiding door mensen is niet nodig voor robots om te leren bepaalde mensen niet leuk te vinden.
Deze studie toonde echter aan dat AI geen provocatie en inspiratie van trollen nodig heeft om vooroordelen te krijgen: het kan ze allemaal zelf vormen.
Om het onderzoek uit te voeren, heeft het team computersimulaties opgezet over hoe bevooroordeelde individuen een groep kunnen vormen en met elkaar kunnen communiceren. Ze creëerden een spel van 'geven en nemen', waarin elke AI-bot een beslissing nam om al dan niet te doneren aan een ander individu binnen hun eigen werkgroep of een andere groep. De beslissingen werden genomen op basis van de reputatie van elk individu en hun donatiestrategie, inclusief hun mate van vooroordelen jegens individuen in externe groepen.
Naarmate het spel vorderde en een supercomputer duizenden simulaties opleverde, begon elk individu nieuwe strategieën te leren door anderen te kopiëren, hetzij binnen hun eigen groep of de hele populatie.
Co-auteur van de studie Professor Roger Whitaker, van het Crime and Security Research Institute van de Cardiff University en de School of Computer Science and Informatics, zei van de bevindingen:
Door deze simulaties duizenden en duizenden keren uit te voeren, beginnen we inzicht te krijgen in hoe vooroordelen zich ontwikkelen en de omstandigheden die dit bevorderen of belemmeren.
De bevindingen betreffen individuen die hun vooroordeelniveaus bijwerken door bij voorkeur degenen te kopiëren die een hogere uitbetaling op korte termijn behalen, wat betekent dat deze beslissingen vereisen niet noodzakelijkerwijs geavanceerde cognitieve vaardigheden.
Het is mogelijk dat autonome machines met het vermogen om zich te identificeren met discriminatie en anderen te kopiëren in de toekomst vatbaar kunnen zijn voor schadelijke verschijnselen die we bij de menselijke bevolking zien.
Veel van de AI-ontwikkelingen die we zien, betreffen autonomie en zelfbeheersing, wat betekent dat het gedrag van apparaten ook wordt beïnvloed door anderen om hen heen. Voertuigen en het internet der dingen zijn twee recente voorbeelden. Onze studie geeft een theoretisch inzicht waarbij gesimuleerde agenten periodiek een beroep doen op anderen voor een of ander middel. ((bron))
Autonomie en zelfbeheersing. Is dat niet wat er gebeurde? de Terminator-franchise?
Musk heeft toegevoegd, "Met kunstmatige intelligentie roepen we de demon op."