Facebook om AI te gebruiken om uw gedachten te scannen, 'Verbetering van de gebruikersveiligheid'

Wikipedia Commons
Deel dit verhaal!
Technocrat-minded sociale ingenieurs bij Facebook denken dat ze nu je gedachten kunnen scannen door je berichten te lezen en aangeven wanneer je geestelijke gezondheidszorg nodig hebt. Werkelijk? Zullen ze je automatisch melden zodat mannen in witte jassen aan je deur van het appartement verschijnen met een rechte jas? Deze manier van denken is meer dan gevaarlijk. ⁃ TN Editor

Dit is software om levens te redden. Facebook's nieuwe "proactieve detectie" kunstmatige intelligentie-technologie zal alle berichten scannen op patronen van suïcidale gedachten, en indien nodig middelen voor geestelijke gezondheid sturen naar de gebruiker die risico loopt of zijn vrienden, of contact opnemen met lokale eerstehulpverleners. Door AI te gebruiken om zorgwekkende berichten aan menselijke moderators te markeren in plaats van te wachten op gebruikersrapporten, kan Facebook de tijd die het duurt om hulp te sturen verminderen.

Facebook eerder getest met AI om lastige berichten te detecteren en meer prominente opties voor het melden van zelfmoord aan vrienden in de VS Nu zal Facebook alle soorten inhoud doorzoeken over de hele wereld met deze AI, behalve in de Europese Unie, waar Algemene Verordening Gegevensbescherming privacywetten voor profilering van gebruikers op basis van gevoelige informatie bemoeilijken het gebruik van deze technologie.

Facebook zal ook AI gebruiken om prioriteit te geven aan bijzonder risicovolle of urgente gebruikersrapporten, zodat ze sneller worden aangepakt door moderators, en hulpmiddelen om onmiddellijk lokale taalbronnen en contactinformatie van de eerste hulpverlener te vinden. Het wijdt ook meer moderators aan zelfmoordpreventie, traint hen om de gevallen 24 / 7 aan te pakken en heeft nu lokale 80-partners zoals Save.org, National Suicide Prevention Lifeline en Forefront van waaruit middelen kunnen worden verstrekt aan risicogebruikers en hun netwerken .

"Dit gaat over minuten besparen bij elke stap van het proces, vooral in Facebook Live", zegt VP productmanagement Guy Rosen. In de afgelopen testmaand heeft Facebook meer dan 100 "welzijnscontroles" geïnitieerd waarbij eerstehulpverleners de getroffen gebruikers bezochten. "Er zijn gevallen geweest waarin de eerstehulpverlener is aangekomen en de persoon nog steeds aan het uitzenden is."

Het idee van Facebook om de inhoud van berichten van mensen proactief te scannen, kan dystopische angsten oproepen over hoe anders de technologie zou kunnen worden toegepast. Facebook had geen antwoorden over hoe het zou voorkomen om te scannen op politieke dissidenten of kleine criminaliteit, waarbij Rosen alleen zei: "we hebben de mogelijkheid om hier te helpen, dus daar gaan we in investeren." technologie, maar het is een andere ruimte waar we weinig keus hebben, maar hopen dat Facebook niet te ver gaat.

Facebook-CEO Mark Zuckerberg prees de productupdate vandaag in een bericht, dat schrijven "In de toekomst zal AI in staat zijn om meer te begrijpen van de subtiele nuances van taal, en zal in staat zijn om ook andere problemen dan zelfmoord te identificeren, inclusief snel meer soorten pesten en haat herkennen."

Helaas, nadat TechCrunch vroeg of er een manier was voor gebruikers om zich af te melden, antwoordde een Facebook-woordvoerder dat gebruikers zich niet kunnen afmelden. Ze merkten op dat de functie is ontworpen om de veiligheid van gebruikers te verbeteren en dat ondersteuningsbronnen die door Facebook worden aangeboden snel kunnen worden afgewezen als een gebruiker ze niet wil zien.]

Facebook heeft de AI getraind door patronen te vinden in de woorden en afbeeldingen die worden gebruikt in berichten die in het verleden handmatig zijn gemeld voor zelfmoordrisico. Het zoekt ook naar opmerkingen als "Gaat het?" En "Heeft u hulp nodig?"

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

0 Comments
Inline feedbacks
Bekijk alle reacties