Facebook richt een speciaal ethisch team op om bias in AI-software te onderzoeken

Deel dit verhaal!
AI-programma's erven de vooroordelen van hun makers. De censuurprogramma's die Facebook heeft gemaakt, bevatten dus al het zaad van technocraatgedachte en ethiek. Zijn diezelfde mensen in staat hun eigen creaties te onderzoeken? ⁃ TN Editor

Meer dan ooit, Facebook staat onder druk om te bewijzen dat zijn algoritmen op verantwoorde wijze worden ingezet.

Op woensdag onthulde het bedrijf tijdens zijn F8-ontwikkelaarsconferentie dat het een speciaal team heeft gevormd en discrete software heeft ontwikkeld om ervoor te zorgen dat zijn kunstmatige intelligentiesystemen beslissingen nemen op een zo ethisch mogelijke manier, zonder vooroordelen.

Facebook, zoals andere grote techbedrijven met producten die worden gebruikt door grote en diverse groepen mensen, is dieper opnemend AI in zijn diensten. Facebook zei deze week te gaan aanbieden om berichten te vertalen die mensen via de Messenger-app ontvangen. Vertaalsystemen moeten eerst worden getraind op gegevens, en de ethische push zou kunnen helpen ervoor te zorgen dat de systemen van Facebook worden geleerd om eerlijke vertalingen te geven.

 "We zullen terugkijken en zullen zeggen: 'Het is fantastisch dat we proactief konden zijn om deze vragen voor te zijn en voordat we dingen lanceren, begrijpen wat eerlijkheid is voor een bepaald product voor een demografische groep'", zegt Isabel Kloumann , een onderzoekswetenschapper bij Facebook, vertelde CNBC. Ze weigerde te zeggen hoeveel mensen er in het team zitten.

Facebook zei dat deze inspanningen niet het resultaat zijn van eventuele wijzigingen die hebben plaatsgevonden in de zeven weken nadat werd onthuld dat data-analysebedrijf Cambridge Analytica misbruikte persoonlijke gegevens van de gebruikers van het sociale netwerk voorafgaand aan de verkiezingen van 2016. Maar het is duidelijk dat het publieke sentiment jegens Facebook de laatste tijd dramatisch negatief is geworden, zo erg zelfs dat de CEO Mark Zuckerberg moest vorige maand uren van congresvragen doornemen.

Elke aankondiging is nu onder een microscoop.

Facebook stopte met het vormen van een bestuur gericht op AI-ethiek, zoals axon (voorheen Taser) deed vorige week. Maar de bewegingen sluiten aan bij een bredere erkenning van de industrie dat AI-onderzoekers moeten werken om hun systemen inclusief te maken. De DeepMind AI-groep van Alphabet vormde een team ethiek en maatschappij afgelopen jaar. Daarvoor, Microsoft's onderzoeksorganisatie heeft een Fairness Accountability Transparency and Ethics-groep opgericht.

Het veld van AI heeft zijn aandeel in verlegenheid gebracht, zoals toen Google Foto's drie jaar geleden werd gespot zwarte mensen categoriseren als gorilla's.

Vorig jaar ontwikkelde het team van Kloumann een stuk software genaamd Fairness Flow, dat sindsdien is geïntegreerd in de veelgebruikte FBLearner Flow interne software voor het eenvoudiger trainen en uitvoeren van AI-systemen. De software analyseert de gegevens, houdt rekening met het formaat en produceert vervolgens een rapport met een samenvatting.

Kloumann zei dat ze bezig is met het onderwerp eerlijkheid sinds ze in 2016 bij Facebook kwam, net toen mensen in de technische industrie er openlijker over begonnen te praten en toen er maatschappelijke bezorgdheid ontstond over de kracht van AI.

Lees hier het hele verhaal ...

 

Inschrijven
Melden van
gast

0 Heb je vragen? Stel ze hier.
Inline feedbacks
Bekijk alle reacties