BCI: The Final Frontier of Mind Reading Tech is heel dichtbij

BCIYouTube
Deel dit verhaal!
Technocraten doen er alles aan om je geest binnen te dringen om je gedachten te lezen. Brain-Computer-interfaces in combinatie met AI zullen een grote zakelijke vraag hebben en u zult alle privacy verliezen. ⁃ TN Editor

Social media-bedrijven kunnen online gegevens al gebruiken om betrouwbare inschattingen te maken over zwangerschap of zelfmoordgedachten - en nieuwe BCI-technologie zal dit nog verder stimuleren.

IHet regent tijdens je wandeling naar het station na het werk, maar je hebt geen paraplu. Uit je ooghoek zie je een regenjas in een etalage. Je denkt bij jezelf: "Zo'n regenjas zou perfect zijn voor dit weer."

Later, terwijl je op Instagram in de trein scrolt, zie je een vergelijkbare jas. Je neemt een kijkje. Eigenlijk is het precies dezelfde - en het is een gesponsorde post. Je voelt een plotselinge golf van paranoia: heb je iets hardop gezegd over de jas? Had Instagram je gedachten op de een of andere manier gelezen?

Hoewel de algoritmen van sociale media ons soms lijken te 'kennen' op een manier die bijna telepathisch kan aanvoelen, zijn hun inzichten uiteindelijk het resultaat van een triangulatie van miljoenen geregistreerde extern gemaakte online acties: klikken, zoekopdrachten, likes, gesprekken, aankopen, enzovoort. Dit is het leven onder toezichtkapitalisme.

Hoe krachtig de aanbevelingsalgoritmen ook zijn geworden, we gaan er nog steeds vanuit dat onze diepste dialoog intern is, tenzij anders bekendgemaakt. Maar recente ontwikkelingen in de BCI-technologie (Brain-Computer Interface), die cognitieve activiteit integreert met een computer, kunnen dit uitdagen.

In het afgelopen jaar hebben onderzoekers aangetoond dat het mogelijk is om rechtstreeks van hersenactiviteit te vertalen naar synthetische spraak of tekst door de neurale signalen van een persoon op te nemen en te decoderen, met behulp van geavanceerde AI-algoritmen.

Hoewel dergelijke technologie een veelbelovende horizon biedt voor mensen die lijden aan neurologische aandoeningen die de spraak beïnvloeden, wordt dit onderzoek ook op de voet gevolgd, en af ​​en toe gefinancierddoor technologiebedrijven zoals Facebook. Een verschuiving naar hersen-computerinterfaces, zullen ze voorstellen, zal een revolutionaire manier bieden om met onze machines en elkaar te communiceren, een directe lijn tussen geest en apparaat.

Maar zal de prijs die we betalen voor deze cognitieve apparaten een inval zijn in ons laatste bolwerk van echte privacy? Zijn we klaar om onze cognitieve vrijheid op te geven voor meer gestroomlijnde online services en beter gerichte advertenties?

Een BCI is een apparaat dat directe communicatie tussen de hersenen en een machine mogelijk maakt. Fundamenteel voor deze technologie is het vermogen om neurale signalen die in de hersenen ontstaan ​​te decoderen in opdrachten die door de machine kunnen worden herkend.

Omdat neurale signalen in de hersenen vaak luidruchtig zijn, is decodering uiterst moeilijk. Terwijl de afgelopen twee decennia enig succes hebben gezien bij het decoderen van sensorische motorsignalen in rekenopdrachten - waardoor indrukwekkende prestaties mogelijk zijn bewegend een cursor over een scherm met de geest of manipuleren een robotarm - hersenactiviteit geassocieerd met andere vormen van cognitie, zoals spraak, is te complex gebleven om te decoderen.

Maar de vooruitgang in diep leren, een AI-techniek die het vermogen van de hersenen om uit ervaring te leren nabootst, is aan het veranderen wat mogelijk is. In april van dit jaar heeft een onderzoeksteam van de Universiteit van Californië, San Francisco, gepubliceerde resultaten van een succesvolle poging om neurale activiteit in spraak te vertalen via een deep-learning powered BCI.

Het team plaatste kleine elektronische arrays rechtstreeks op de hersenen van vijf mensen en registreerde hun hersenactiviteit, evenals de beweging van hun kaken, monden en tongen terwijl ze hardop lazen uit kinderboeken. Deze gegevens werden vervolgens gebruikt om twee algoritmen te trainen: een leerde hoe hersensignalen de gezichtsspieren instrueerden te bewegen; de ander leerde hoe deze gezichtsbewegingen hoorbare spraak werden.

Nadat de algoritmen waren getraind, werden de deelnemers opnieuw gevraagd om uit de kinderboeken te lezen, dit keer alleen om de woorden na te bootsen. Met behulp van alleen gegevens verzameld uit neurale activiteit, konden de algoritmische systemen ontcijferen wat er werd gezegd, en produceerde begrijpelijke synthetische versies van de nagebootste zinnen.

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

1 Reactie
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties