Wanneer u online zoekt naar een nieuw paar schoenen, een film kiest om te streamen op Netflix of een autolening aanvraagt, heeft een algoritme waarschijnlijk zijn woord te zeggen over de uitkomst.
De complexe wiskundige formules spelen een steeds grotere rol in alle lagen van de bevolking: van het opsporen van huidkanker tot het voorstellen van nieuwe Facebook-vrienden, beslissen wie een baan krijgt, hoe politiemiddelen worden ingezet, wie tegen welke prijs een verzekering krijgt, of wie een " no fly ”lijst.
Algoritmen worden - experimenteel - gebruikt om nieuwsartikelen te schrijven op basis van onbewerkte gegevens, terwijl de presidentiële campagne van Donald Trump werd geholpen door gedragsmarketeers die een algoritme gebruikten om de hoogste concentraties van 'overtuigende kiezers' te lokaliseren.
Maar hoewel dergelijke geautomatiseerde tools een mate van objectiviteit kunnen injecteren in vroegere subjectieve beslissingen, neemt de vrees toe over het gebrek aan transparantie-algoritmen die dit met zich kunnen meebrengen, met toenemende druk om normen van ethiek of ‘verantwoording’ toe te passen.
Datawetenschapper Cathy O'Neil waarschuwt voor 'blindelings vertrouwende' formules om een eerlijk resultaat te bepalen.
"Algoritmen zijn niet inherent eerlijk, omdat de persoon die het model bouwt, succes definieert", zei ze.
Versterkende nadelen
O'Neil stelt dat hoewel sommige algoritmen nuttig kunnen zijn, andere schadelijk kunnen zijn. In haar boek uit 2016, "Weapons of Math Destruction", noemt ze enkele verontrustende voorbeelden in de Verenigde Staten:
- Openbare scholen in Washington DC hebben in 2010 meer dan 200 leraren ontslagen - waaronder een aantal zeer gerespecteerde instructeurs - op basis van scores in een algoritmische formule die de prestaties evalueerde.
- Een man bij wie de diagnose bipolaire stoornis was gesteld, werd afgewezen voor werk bij zeven grote detailhandelaren nadat een 'persoonlijkheidstest' door een derde partij hem een hoog risico had geacht op basis van de algoritmische classificatie.
- Veel jurisdicties gebruiken 'predictive policing' om middelen te verschuiven naar waarschijnlijke 'hotspots'. O'Neill zegt dat, afhankelijk van de manier waarop gegevens in het systeem worden ingevoerd, dit zou kunnen leiden tot de ontdekking van meer kleine misdrijven en een "feedbackloop" die arme gemeenschappen stigmatiseert.
- Sommige rechtbanken gebruiken computergeoriënteerde formules om gevangenisstraffen en voorwaardelijke vrijlating vast te stellen, die minderheden kunnen discrimineren door rekening te houden met "risicofactoren" zoals hun buurt en vrienden of familie banden met misdaad.
- In de financiële wereld 'schrapen' makelaars op nieuwe manieren gegevens uit online en andere bronnen om beslissingen te nemen over krediet of verzekering. Dit versterkt maar al te vaak de vooroordelen tegen de kansarmen, stelt O'Neil.
Haar bevindingen kwamen terug in een rapport van het Witte Huis van vorig jaar waarin werd gewaarschuwd dat algoritmische systemen "niet onfeilbaar zijn - ze vertrouwen op de imperfecte input, logica, waarschijnlijkheid en de mensen die ze ontwerpen."
Het rapport merkte op dat datasystemen idealiter kunnen helpen bij het wegnemen van menselijke vooroordelen, maar waarschuwde voor algoritmen "die bepaalde groepen systematisch benadelen".