Wetenschappers: data en AI kunnen zien wie liegt

Universiteit van Rochester foto's / J. Adam Fenster
Deel dit verhaal!
Naarmate AI-algoritmen voor gezichtsanalyse zich verspreiden, zullen ze in elke denkbare toepassing en omstandigheid worden geïmplementeerd. Dergelijke software zal echter nooit als 100% effectief worden 'gecertificeerd', waardoor sociale chaos ontstaat terwijl beschuldigingen vliegen. Technocraatwetenschappers die dit spul uitvinden, hebben geen zicht op ethiek of maatschappelijke implicaties. ⁃ TN-editor

Iemand is aan het friemelen in een lange rij bij een beveiligingspoort van de luchthaven. Is die persoon gewoon nerveus over het wachten?

Of is dit een passagier die iets sinister te verbergen heeft?

Zelfs hoog opgeleide Transportation Security Administration (TSA) luchthavenveiligheidsfunctionarissen hebben het nog steeds moeilijk om te zeggen of iemand liegt of de waarheid vertelt - ondanks de miljarden dollars en jarenlange studie die aan het onderwerp is gewijd.

Nu gebruiken onderzoekers van de Universiteit van Rochester data science en een online crowdsourcing-framework genaamd ADDR (Automated Dyadic Data Recorder) om ons begrip van misleiding op basis van gezichts- en verbale signalen te vergroten.

Ze hopen ook gevallen van raciale en etnische profilering te minimaliseren die TSA-critici beweren wanneer passagiers opzij worden getrokken in het kader van het programma Screening of Passengers by Observation Techniques (SPOT).

"In principe lijkt ons systeem op Skype op steroïden", zegt Tay Sen, een promovendus in het laboratorium van Ehsan Hoque, een universitair docent van Computer Science. Sen werkte nauw samen met Karmul Hasan, een andere promovendus in de groep, op twee artikelen in IEEE geautomatiseerde gezichtsherkenning en gebarenherkenning en Procedures van de ACM over interactieve, mobiele, draagbare en alomtegenwoordige technologieën. De kranten beschrijven het raamwerk dat het lab heeft gebruikt om de grootste publiekelijk beschikbare misleidingsdataset tot nu toe te creëren - en waarom sommige glimlachen meer bedrieglijk zijn dan andere.

Spel onthult de waarheid achter een glimlach

Zo werkt ADDR: twee mensen melden zich aan Amazon Mechanical Turk, de crowdsourcing-internetmarkt die mensen koppelt aan taken die computers momenteel niet kunnen uitvoeren. Een video wijst de ene persoon toe als de beschrijver en de andere als de ondervrager.

De beschrijver krijgt dan een afbeelding te zien en krijgt de opdracht om zoveel mogelijk details te onthouden. De computer instrueert de beschrijver om te liegen of de waarheid te vertellen over wat ze zojuist hebben gezien. De ondervrager, die niet op de hoogte is van de instructies van de beschrijver, stelt de beschrijver vervolgens een aantal basisvragen die niet relevant zijn voor het beeld. Dit wordt gedaan om individuele gedragsverschillen vast te leggen die kunnen worden gebruikt om een ​​'gepersonaliseerd model' te ontwikkelen. De routinevragen zijn onder meer 'wat heb je gisteren gedragen?' - om een ​​mentale toestand uit te lokken die relevant is voor het ophalen van een herinnering - en "wat is 14 keer 4?" - om een ​​mentale toestand op te wekken die relevant is voor het analytische geheugen.

"Vaak hebben mensen de neiging om op een bepaalde manier te kijken of een gezichtsuitdrukking te tonen wanneer ze zich dingen herinneren," zei Sen. "En wanneer ze een computationele vraag krijgen, hebben ze een ander soort gezichtsuitdrukking."

Het zijn ook vragen waar de getuige geen reden voor zou hebben om over te liegen en die een basislijn vormen van de "normale" antwoorden van die persoon bij een eerlijk antwoord.

En natuurlijk zijn er vragen over het beeld zelf, waarop de getuige een waarheidsgetrouwe of oneerlijke reactie geeft.

De volledige uitwisseling wordt opgenomen op een afzonderlijke video voor latere analyse.

1 miljoen gezichten

Een voordeel van deze benadering van crowdsourcing is dat onderzoekers hierdoor een veel grotere pool van onderzoeksdeelnemers kunnen aanboren - en veel sneller gegevens kunnen verzamelen - dan zou gebeuren als deelnemers naar een laboratorium moesten worden gebracht, zegt Hoque. Het ontbreken van een gestandaardiseerde en consistente dataset met betrouwbare grondwaarheid is de belangrijkste tegenvaller geweest voor onderzoek naar misleiding, zegt hij. Met het ADDR-raamwerk verzamelden de onderzoekers in een paar weken inspanning 1.3 miljoen frames gezichtsuitdrukkingen van 151-paren van individuen die het spel speelden. Meer gegevens worden verzameld in het lab.

Gegevenswetenschap stelt de onderzoekers in staat om al die gegevens snel op nieuwe manieren te analyseren. Ze gebruikten bijvoorbeeld geautomatiseerde gezichtsanalysesoftware om te identificeren welke actie-eenheden in een bepaald frame werden gebruikt en om aan elk een numeriek gewicht toe te wijzen.

De onderzoekers gebruikten vervolgens een niet-gecontroleerde clusteringstechniek - een machine learning-methode die automatisch patronen kan vinden zonder vooraf bepaalde labels of categorieën te krijgen.

Het vertelde ons dat er in principe vijf soorten glimlachgerelateerde 'gezichten' waren die mensen maakten bij het beantwoorden van vragen, 'zei Sen. Degene die het meest werd geassocieerd met liegen was een versie met hoge intensiteit van de zogenaamde Duchenne-glimlach met zowel wang- / oog- en mondspieren. Dit is in overeenstemming met de theorie van de "Duping Delight" dat "wanneer je iemand voor de gek houdt, je er meestal van geniet", legt Sen uit.

Meer raadselachtig was de ontdekking dat eerlijke getuigen vaak hun ogen samentrekken, maar helemaal niet glimlachen met hun mond. "Toen we teruggingen en de video's opnieuw speelden, ontdekten we dat dit vaak gebeurde toen mensen zich probeerden te herinneren wat er in een afbeelding stond," zei Sen. "Dit toonde aan dat ze zich concentreerden en probeerden zich eerlijk te herinneren."

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

1 Reactie
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties
Tomsen

Ik vraag me gewoon af hoe mensen een leven kunnen leiden volledig zonder inhoud, alleen op illusies.
Als AI Facial kan vertellen wie er liegt, waarom hebben ze dit dan niet lang geleden uitgeprobeerd op Al Gore, Obama, Bush en 9/11?
Het antwoord is dat AI is gebaseerd op valse premissen, waarom de uitkomst natuurlijk ook onwaar moet zijn