Politie in de VS traint misdaadvoorspellende AI's over vervalste gegevens

Wikimedia Commons
Deel dit verhaal!
Het hele strafrechtsysteem in heel Amerika wordt gecorrumpeerd door het flagrante misbruik van AI-technologie. De politie is niet onwetend wanneer ze de resultaten zoeken die ze willen in plaats van de objectieve feiten van een zaak. Dit is vergelijkbaar met de valse wetenschappelijke gemeenschap voor opwarming van de aarde. ⁃ TN-editor

In mei van 2010 heeft de burgemeester van New Orleans het Amerikaanse ministerie van Justitie gevraagd om een ​​onderzoek in te stellen naar de stadspolitie (NOPD), naar aanleiding van een reeks spraakmakende schandalen. Tien maanden later bood de DOJ haar aan blaaranalyse: tijdens de evaluatieperiode vanaf 2005 heeft de NOPD herhaaldelijk constitutionele en federale wetgeving geschonden.

Het gebruikte buitensporig geweld en onevenredig tegen zwarte bewoners; gerichte raciale minderheden, anderstalige Engelse sprekers en LGBTQ-individuen; en verzuimde geweld tegen vrouwen aan te pakken. De problemen, zei assistent-procureur-generaal Thomas Perez was destijds 'serieus, breed, systemisch en diepgeworteld in de cultuur van de afdeling.'

Ondanks de verontrustende bevindingen ging de stad een geheim partnerschap slechts een jaar later met dataminingbedrijf Palantir om een ​​voorspellend politiesysteem in te zetten. Het systeem gebruikte historische gegevens, waaronder arrestatieregisters en elektronische politierapporten, om criminaliteit te voorspellen en strategieën voor de openbare veiligheid te helpen vormen volgens afstand en stadsbestuur materialen. Op geen enkel punt suggereerden die materialen enige poging om de gegevens op te schonen of te wijzigen om de door de DOJ geopenbaarde schendingen aan te pakken. Naar alle waarschijnlijkheid werden de beschadigde gegevens rechtstreeks in het systeem ingevoerd, waardoor de discriminerende praktijken van de afdeling werden versterkt.

Voorspellende politiealgoritmen worden steeds vaker gebruikt in steden in de VS. Hoewel gebrek aan transparantie het moeilijk maakt om exacte statistieken vast te stellen, is PredPol, een toonaangevende leverancier, schept dat het 1 helpt te 'beschermen' in 33 Amerikanen. De software wordt vaak aangeprezen als een manier om dun gespannen politiediensten te helpen efficiëntere, gegevensgestuurde beslissingen te nemen.

Maar nieuw onderzoek suggereert dat niet alleen New Orleans deze systemen heeft getraind met 'vuile gegevens' papier vandaag vrijgegeven, om te worden gepubliceerd in de NYU Law Review, ontdekten onderzoekers van het AI Now Institute, een onderzoekscentrum dat de sociale impact van kunstmatige intelligentie bestudeert, dat het probleem alomtegenwoordig is in de rechtsgebieden die het heeft bestudeerd. Dit heeft belangrijke implicaties voor de effectiviteit van predictive policing en andere algoritmen die in het strafrechtsysteem worden gebruikt.

"Uw systeem is slechts zo goed als de gegevens die u gebruikt om het te trainen", zegt Kate Crawford, mede-oprichter en co-directeur van AI Now en auteur van de studie. “Als de gegevens zelf onjuist zijn, zal dit ertoe leiden dat meer politiebronnen worden gericht op dezelfde overbeveiligde en vaak raciaal gerichte gemeenschappen. Dus wat je hebt gedaan, is eigenlijk een soort tech-wash waarbij mensen die deze systemen gebruiken ervan uitgaan dat ze op de een of andere manier neutraler of objectiever zijn, maar in feite hebben ze een vorm van ongrondwettigheid of illegaliteit ingebakken. "

De onderzoekers onderzochten de 13-rechtsgebieden, waarbij ze zich concentreerden op rechtsgebieden die voorspellende politiesystemen hebben gebruikt en waarvoor een onderzoek is ingesteld in opdracht van de overheid. Deze laatste vereiste zorgde ervoor dat de politiepraktijken wettelijk verifieerbare documentatie hadden. In negen van de rechtsgebieden vonden ze sterk bewijs dat de systemen waren getraind op 'vuile gegevens'.

Het probleem was niet alleen data die scheefgetrokken werd door onevenredige targeting van minderheden, zoals in New Orleans. In sommige gevallen hadden politieafdelingen een cultuur van het doelbewust manipuleren of vervalsen van gegevens onder intense politieke druk om de officiële misdaadcijfers te verlagen. In New York, bijvoorbeeld, om misdaadstatistieken kunstmatig te laten leeglopen, vroegen districtcommandanten de slachtoffers op plaats delict regelmatig om geen klachten in te dienen. Sommige politieagenten hebben zelfs drugs geplant op onschuldige mensen om hun quota voor arrestaties te halen. In moderne voorspellende politiesystemen, die afhankelijk zijn van machine learning om criminaliteit te voorspellen, worden die beschadigde datapunten legitieme voorspellers.

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

2 Comments
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties
Tom S

GIGO! Afval in; Vuilnis buiten!