Meer dan ooit, Facebook staat onder druk om te bewijzen dat zijn algoritmen op verantwoorde wijze worden ingezet.
Op woensdag onthulde het bedrijf tijdens zijn F8-ontwikkelaarsconferentie dat het een speciaal team heeft gevormd en discrete software heeft ontwikkeld om ervoor te zorgen dat zijn kunstmatige intelligentiesystemen beslissingen nemen op een zo ethisch mogelijke manier, zonder vooroordelen.
Facebook, zoals andere grote techbedrijven met producten die worden gebruikt door grote en diverse groepen mensen, is dieper opnemend AI in zijn diensten. Facebook zei deze week te gaan aanbieden om berichten te vertalen die mensen via de Messenger-app ontvangen. Vertaalsystemen moeten eerst worden getraind op gegevens, en de ethische push zou kunnen helpen ervoor te zorgen dat de systemen van Facebook worden geleerd om eerlijke vertalingen te geven.
Facebook zei dat deze inspanningen niet het resultaat zijn van eventuele wijzigingen die hebben plaatsgevonden in de zeven weken nadat werd onthuld dat data-analysebedrijf Cambridge Analytica misbruikte persoonlijke gegevens van de gebruikers van het sociale netwerk voorafgaand aan de verkiezingen van 2016. Maar het is duidelijk dat het publieke sentiment jegens Facebook de laatste tijd dramatisch negatief is geworden, zo erg zelfs dat de CEO Mark Zuckerberg moest vorige maand uren van congresvragen doornemen.
Elke aankondiging is nu onder een microscoop.
Facebook stopte met het vormen van een bestuur gericht op AI-ethiek, zoals axon (voorheen Taser) deed vorige week. Maar de bewegingen sluiten aan bij een bredere erkenning van de industrie dat AI-onderzoekers moeten werken om hun systemen inclusief te maken. De DeepMind AI-groep van Alphabet vormde een team ethiek en maatschappij afgelopen jaar. Daarvoor, Microsoft's onderzoeksorganisatie heeft een Fairness Accountability Transparency and Ethics-groep opgericht.
Het veld van AI heeft zijn aandeel in verlegenheid gebracht, zoals toen Google Foto's drie jaar geleden werd gespot zwarte mensen categoriseren als gorilla's.
Vorig jaar ontwikkelde het team van Kloumann een stuk software genaamd Fairness Flow, dat sindsdien is geïntegreerd in de veelgebruikte FBLearner Flow interne software voor het eenvoudiger trainen en uitvoeren van AI-systemen. De software analyseert de gegevens, houdt rekening met het formaat en produceert vervolgens een rapport met een samenvatting.
Kloumann zei dat ze bezig is met het onderwerp eerlijkheid sinds ze in 2016 bij Facebook kwam, net toen mensen in de technische industrie er openlijker over begonnen te praten en toen er maatschappelijke bezorgdheid ontstond over de kracht van AI.
Lees hier het hele verhaal ...