Algoritme voor gezichtsherkenning veroorzaakte verkeerde arrestatie

Deel dit verhaal!
image_pdfimage_print
Dit verhaal onthult waarom Amazon, IBM en Microsoft zich hebben teruggetrokken uit de sector gezichtsherkenning om bepaalde kritiek op raciale vooroordelen af ​​te leiden. In dit geval heeft het algoritme de verkeerde zwarte man gepakt voor een misdaad die hij niet heeft begaan. ⁃ TN-editor

Op een donderdagmiddag in januari was Robert Julian-Borchak Williams in zijn kantoor bij een toeleveringsbedrijf voor auto's toen hij een telefoontje kreeg van de politie van Detroit dat hij naar het station moest komen om gearresteerd te worden. Hij dacht eerst dat het een grap was.

Een uur later, toen hij zijn oprit opreed in een rustige onderverdeling in Farmington Hills, Michigan, stopte er een politieauto die hem blokkeerde. Twee agenten stapten uit en boeiden meneer Williams op zijn voortuin, voor zijn huis. vrouw en twee jonge dochters, die radeloos waren. De politie wilde niet zeggen waarom hij werd gearresteerd, maar liet hem alleen een vel papier zien met zijn foto en de woorden 'misdrijfbevel' en 'diefstal'.

Zijn vrouw, Melissa, vroeg waar hij naartoe werd gebracht. 'Google it', herinnert ze zich een agent die antwoordde.

De politie bracht meneer Williams naar een detentiecentrum. Hij liet zijn mug shot, vingerafdrukken en DNA nemen en werd 's nachts vastgehouden. Vrijdag rond het middaguur brachten twee rechercheurs hem naar een verhoorkamer en legden drie vellen papier met de beeldzijde naar beneden op de tafel.

'Wanneer ben je voor het laatst in een Shinola-winkel geweest?' vroeg een van de rechercheurs, in de herinnering van meneer Williams. Shinola is een luxe boetiek die horloges, fietsen en lederwaren verkoopt in de trendy wijk Midtown van Detroit. De heer Williams zei dat hij en zijn vrouw het hadden gecontroleerd toen de winkel voor het eerst werd geopend in 2014.

De detective draaide het eerste vel papier om. Het was een stilstaand beeld van een bewakingsvideo, waarop een zwaargebouwde man in het zwart gekleed met een rode St. Louis Cardinals-pet voor een horlogedisplay stond. Vijf uurwerken ter waarde van $ 3,800 werden gestolen.

"Ben jij dit?" vroeg de rechercheur.

Het tweede vel papier was een close-up. De foto was wazig, maar het was duidelijk niet meneer Williams. Hij pakte het beeld op en hield het naast zijn gezicht.

'Nee, dit ben ik niet', zei meneer Williams. 'Denk je dat alle zwarte mannen op elkaar lijken?'

De heer Williams wist dat hij de misdaad in kwestie niet had begaan. Wat hij niet had kunnen weten, terwijl hij in de ondervragingsruimte zat, is dat zijn zaak het eerste bekende verslag kan zijn van een Amerikaan die ten onrechte is gearresteerd op basis van een gebrekkige match van een gezichtsherkenningsalgoritme, volgens experts op het gebied van technologie en de wet .

Een defect systeem

Er woedt een landelijk debat racisme bij wetshandhaving. In het hele land protesteren miljoenen niet alleen tegen de acties van individuele agenten, maar tegen vooroordelen in de systemen die worden gebruikt om gemeenschappen te bewaken en mensen te identificeren voor vervolging.

Systemen voor gezichtsherkenning zijn gebruikt door de politie voor meer dan twee decennia. Recente studies door MIT en uw Nationaal instituut voor normen en technologie, of NIST, hebben ontdekt dat hoewel de technologie relatief goed werkt bij blanke mannen, de resultaten minder nauwkeurig zijn voor andere demografische gegevens, deels vanwege een gebrek aan diversiteit in de afbeeldingen die worden gebruikt om de onderliggende databases te ontwikkelen.

Vorig jaar tijdens een openbare hoorzitting over het gebruik van gezichtsherkenning in Detroitwas een assistent-politiechef een van de personen die bezorgdheid uitte. 'Over de kwestie van false positives - dat is absoluut feitelijk en het is goed gedocumenteerd', zei James White. 'Dus dat maakt me zorgen als Afro-Amerikaanse man.'

Deze maand, AmazoneMicrosoft en IBM aangekondigd dat ze zouden stoppen of pauze hun aanbod van gezichtsherkenning voor wetshandhaving. De gebaren waren grotendeels symbolisch, aangezien de bedrijven geen grote spelers in de branche zijn. De technologie die de politie gebruikt, wordt geleverd door bedrijven die geen bekende namen zijn, zoals Vigilant Solutions, Cognitec, NEC, Rank One Computing en Clearview AI.

Lees hier het hele verhaal ...

INSCHRIJVEN
Melden van
gast
2 Comments
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties
DawnieR

Vergeet zwarte mensen ... Ik zou een weloverwogen gok aannemen dat dit ook NOOIT voor Aziaten zou werken !!

dP_Ted

Het moest gebeuren. Wat me opvalt, is dat de persoon die de computer kiest er soms een beetje anders uitziet dan de persoon zelf, maar het is wat de computer zegt dat gaat. smh