Hoogleraren waarschuwen voor gevaren door technische besluitvorming bij mensen

Deel dit verhaal!

Er is geen professor voor nodig om intuïtief te begrijpen dat door mensen gemaakte programma's niet boven de vooroordelen van hun makers kunnen uitstijgen. Technocraten missen dit punt, in de overtuiging dat elke geautomatiseerde beslissing efficiënter en consistenter is dan een menselijk oordeel.  TN Editor

In de toekomst kan uw toekomst afhangen van een reeks zorgvuldig berekende nullen en enen.

Naarmate de technologie verbetert, raken mensen minder betrokken bij beslissingen die ons leven beïnvloeden - en dat is niet bepaald een goede zaak.

Terwijl kunstmatige intelligentie terrein wint, hebben hoogleraren aan de Universiteit van Massachusetts-Amherst een programma ontwikkeld om software te testen op vooringenomenheid en discriminatie.

Ja, rassendiscriminatie. Maar meer dan dat. Gezondheidszorg beslissingen. Lening beslissingen. Ach, zelfs hoe Amazon de tarieven voor het verzenden van pakketten bepaalt.

"Tegenwoordig bepaalt software wie een lening krijgt of wordt aangenomen, berekent het risicobeoordelingsscores die helpen bepalen wie naar de gevangenis gaat en wie wordt vrijgelaten, en helpt bij het diagnosticeren en behandelen van medische patiënten," volgens aan de ontwikkelaars van het programma.

Daarmee is het van cruciaal belang "software discrimineert geen groepen of individuen", betogen onderzoekers, eraan toevoegend dat hun vakgebied "ondergewaardeerd" is en "talloze voorbeelden van oneerlijke software naar voren zijn gekomen."

In een geleerde dit artikel gepubliceerd voor een aankomende software-engineering conferentie, informatici Alexandra Meliou en Yuriy Brun, die samen met promovendus Sainyam Galhotra het programma hebben gemaakt, de "groeiende bezorgdheid" van softwarediscriminatie beschrijven.

In de paper voorspellen de twee professoren de zich ontwikkelende en toenemende invloed die software in de toekomst op het menselijk leven zal hebben, en beweren software momenteel een buitenmaatse rol in de samenleving te spelen.

"In de toekomst zal het belang van het waarborgen van eerlijkheid in software alleen maar toenemen", stelt de krant.

De geleerden gebruikten voorbeelden die een vooroordeel illustreren tegen de rijken en de onderdrukten.

Een van de voorbeelden van softwarediscriminatie door Brun en Meliou is de programmering die Amazon.com gebruikt om te bepalen welke geografische gebieden een gratis bezorging op dezelfde dag zouden ontvangen. Na de uitrol van het programma vorig jaar was het zo vermeende dat minderheidswijken het voordeel veel lager kregen dan overwegend witte buurten.

De auteurs benadrukken ook hoe software die in de publieke sector wordt gebruikt, bias kan projecteren, technologie in een aantal staten onder de aandacht brengt die scores berekent op de waarschijnlijkheid dat een crimineel extra misdaden zou kunnen plegen. Volgens de onderzoekers is gevonden dat de software 'zwarte beklaagden ten onrechte markeert als toekomstige criminelen, en ze ten onrechte op deze manier labelt met bijna het dubbele aantal witte beklaagden'.

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

1 Reactie
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties
M11S

In ons economisch systeem van kapitalisme gebaseerd op 'vrije' markten is het marktdeel al voor 90% kunstmatig (HFT's)