Onderzoekers worden geconfronteerd met terugslag van LGBTQ-groepen tijdens AI-onderzoek

Deel dit verhaal!

Het meest gewelddadige protest tegen de identificatie van homo's door AI is afkomstig van de LGBTQ-gemeenschap zelf, en kleineert het als 'junk science' en nep. Ik veronderstel dat sommige landen waar de sharia-wetgeving is ingebed, deze technologie zouden willen gebruiken.  TN Editor

Een virale studie die onthulde kunstmatige intelligentie kan nauwkeurig raden of een persoon homo is of hetero dat op basis van zijn gezicht harde speling krijgt van LGBTQ-rechtengroepen.

De studie, die werd uitgevoerd door onderzoekers van de Stanford University, meldde dat de AI homomannen correct onderscheidde van hetero mannen 81 procent van de tijd en 74 procent van de tijd voor vrouwen.

Voorstanders noemden het onderzoek 'junk science', en beweerden dat de technologie niet alleen mensen kon bevrijden, maar ook hun leven in gevaar kon brengen - vooral in brute regimes die homoseksualiteit als een strafbaar feit beschouwen.

"In een tijd waarin minderheidsgroepen het doelwit zijn, kunnen deze roekeloze bevindingen dienen als wapen om zowel heteroseksuelen die onnauwkeurig outed zijn, als homo's en lesbiennes die zich in situaties bevinden waar uitgaan gevaarlijk is,", Jim Halloran, Chief van GLAAD Digital Officer, schreef in een gezamenlijke verklaring van GLAAD en The Human Rights Campaign.

De auteur van de studie is het echter niet eens met de kritiek en beweert dat dit type technologie al bestaat en het doel van zijn onderzoek was om beveiligingsfouten aan het licht te brengen en beveiligingen te ontwikkelen zodat iemand het niet voor kwade wil kon gebruiken.

"Een van mijn verplichtingen als wetenschapper is dat als ik iets weet dat mensen kan beschermen tegen ten prooi vallen aan dergelijke risico's, ik het moet publiceren," Michal Kosinksi, co-auteur van de studie, vertelde de Guardian. Hij voegde eraan toe dat het in diskrediet brengen van zijn onderzoek niet zou helpen om LGBTQ-mensen te beschermen tegen de potentieel levensbedreigende implicaties die dit soort technologie heeft.

Advocaten riepen ook de studie uit omdat ze niet naar biseksuele en transgenders of mensen van kleur keken. De onderzoekers verzamelden 130,741-afbeeldingen van mannen en vrouwen uit openbare profielen op een datingsite voor de AI om te analyseren, die allemaal blank waren. Hoewel Kosinksi en zijn co-auteur erkenden dat het gebrek aan diversiteit in de studie een probleem was, zeiden ze niet naar welke datingsite ze keken en beweerden dat ze niet genoeg niet-blanke homo's konden vinden.

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

0 Heb je vragen? Stel ze hier.
Inline feedbacks
Bekijk alle reacties