Onderzoekers ontdekken dat AI-programma's rassen- en geslachtsbias leren

Wikipedia Commons
Deel dit verhaal!

Een AI-programma dat leert van wat mensen weten en waarover ze schrijven, zou van nature alle vooroordelen oppikken en denken dat ze normaal zijn. Kort gezegd houdt dit in dat de negatieve aspecten van menselijk gedrag eenvoudig worden doorgeschoven naar kunstmatige intelligentie.  TN Editor

Van een hulpmiddel voor kunstmatige intelligentie dat een revolutie teweegbrengt in het vermogen van computers om de dagelijkse taal te interpreteren, is aangetoond dat het opvallende geslachts- en raciale vooroordelen vertoont.

De bevindingen werpen het spook op van bestaande sociale ongelijkheden en vooroordelen worden versterkt op nieuwe en onvoorspelbare manieren omdat een toenemend aantal beslissingen die invloed hebben op ons dagelijks leven worden overgedragen aan automaten.

De afgelopen jaren is het vermogen van programma's zoals Google Translate om taal te interpreteren aanzienlijk verbeterd. Deze winst is te danken aan nieuwe technieken voor machinaal leren en de beschikbaarheid van enorme hoeveelheden online tekstgegevens, waarop de algoritmen kunnen worden getraind.

Nu machines echter steeds dichter bij het verwerven van mensachtige taalvaardigheden komen, absorberen ze ook de diepgewortelde vooroordelen die verborgen zijn in de patronen van taalgebruik, onthult het laatste onderzoek.

Joanna Bryson, een computerwetenschapper aan de Universiteit van Bath en een co-auteur, zei: "Veel mensen zeggen dat dit laat zien dat AI bevooroordeeld is. Nee. Dit laat zien dat we bevooroordeeld zijn en dat AI het leert. ”

[the_ad id = "11018 ″]

Maar Bryson waarschuwde dat AI het potentieel heeft om bestaande vooroordelen te versterken omdat, in tegenstelling tot mensen, algoritmen niet kunnen worden uitgerust om geleerde vooroordelen bewust tegen te gaan. "Een gevaar zou zijn als je een AI-systeem had dat geen expliciet deel had dat werd aangedreven door morele ideeën, dat zou slecht zijn," zei ze.

Het onderzoek, gepubliceerd in het tijdschrift Wetenschap, richt zich op een machine learning tool die bekend staat als "woordinbedding", die de manier waarop computers spraak en tekst interpreteren al transformeert. Sommigen beweren dat de natuurlijke volgende stap voor de technologie kan inhouden machines die mensachtige vaardigheden ontwikkelen zoals gezond verstand en logica.

"Een belangrijke reden waarom we ervoor hebben gekozen woordinbedding te bestuderen, is dat ze de afgelopen jaren spectaculair succesvol zijn geweest om computers te helpen taal te begrijpen," zei Arvind Narayanan, een computerwetenschapper aan de Princeton University en senior auteur van de krant.

De benadering, die al wordt gebruikt bij zoeken op het web en machinevertaling, werkt door een wiskundige weergave van taal op te bouwen, waarbij de betekenis van een woord wordt gedistilleerd in een reeks getallen (bekend als een woordvector) op basis waarvan andere woorden verschijnen er meestal naast. Misschien verrassend, lijkt deze puur statistische benadering de rijke culturele en sociale context te vangen van wat een woord betekent op de manier waarop een woordenboekdefinitie niet in staat zou zijn.

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

1 Reactie
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties
nigel

Vooroordeel maakt deel uit van de menselijke conditie - we werken samen met mensen die eruit zien als wij, we verzamelen in groepen die op ons lijken en houden onze standpunten vast, we bekijken met argwaan degenen die dat niet zijn en niet - dat is ons evolutiepad. Dit is een ander splitsingspunt dat door deze technocratie wordt geïdentificeerd - het is een belediging en een spanning die wordt uitgeoefend op het weefsel van wie we zijn. Ons onze verschillen te ontkennen en te weigeren ons toe te staan ​​ze te vieren, is in strijd met onze aard, veroorzaakt ons diep leed en streven naar datgene wat... Lees verder "