In mei brachten honderden leidende figuren op het gebied van kunstmatige intelligentie een gezamenlijke verklaring uit waarin ze de existentiële dreiging beschreven die de technologie die zij hielpen creëren voor de mensheid vormt.
“Het beperken van het risico van uitsterven door AI zou een mondiale prioriteit moeten zijn”, aldus het rapport, “naast andere risico’s op maatschappelijke schaal, zoals pandemieën en een nucleaire oorlog.”
Die ene zin waarin de dreiging van menselijke uitroeiing werd opgeroepen, ondertekend door honderden CEO's en wetenschappers van bedrijven als OpenAI, Google's DeepMind, Anthropic en Microsoft, haalde de mondiale krantenkoppen.
De belofte, maar ook het risico, van generatieve AI, een soort technologie die grote hoeveelheden gegevens kan verwerken en genereren, was de drijfveer voor al deze experts om zich uit te spreken.
De release van ChatGPT door OpenAI in november veroorzaakte een golf van koortsachtige opwinding omdat het het vermogen aantoonde van grote taalmodellen, de onderliggende technologie achter de chatbot, om overtuigende tekstpassages tevoorschijn te toveren, een essay te schrijven of uw e-mails te verbeteren.
Het creëerde een race tussen bedrijven in de sector om hun eigen generatieve AI-tools voor consumenten te lanceren die tekst en realistisch beeldmateriaal konden genereren.
De hype rond de technologie heeft ook geleid tot een groter bewustzijn van de gevaren ervan: het potentieel om desinformatie te creëren en te verspreiden naarmate de democratische verkiezingen dichterbij komen; het vermogen ervan om banen te vervangen of te transformeren, vooral in de creatieve industrie; en het minder directe risico dat het intelligenter wordt dan mensen en deze vervangt.
Brussel heeft strenge maatregelen opgesteld over het gebruik van AI die de lasten op de schouders van technologiegroepen zouden leggen om ervoor te zorgen dat hun modellen de regels niet overtreden. De baanbrekende AI-wet zal naar verwachting eind dit jaar volledig worden goedgekeurd, maar omvat een uitstelperiode van ongeveer twee jaar nadat deze wet is geworden waaraan bedrijven moeten voldoen
Regelgevers en technologiebedrijven hebben luid geuit in het uiten van de noodzaak om AI te controleren, maar de ideeën over hoe de modellen en de makers ervan moeten worden gereguleerd lopen per regio sterk uiteen.
De EU heeft strenge maatregelen opgesteld over het gebruik van AI, die de druk op technologiebedrijven zouden leggen om ervoor te zorgen dat hun modellen de regels niet overtreden. Ze hebben veel sneller actie ondernomen dan de VS, waar wetgevers een brede evaluatie van AI voorbereiden om eerst te bepalen welke elementen van de technologie mogelijk aan nieuwe regelgeving moeten worden onderworpen en wat onder bestaande wetten kan vallen.
Groot-Brittannië probeert ondertussen zijn nieuwe positie buiten de EU te gebruiken om een eigen, flexibeler regime op te zetten dat de toepassingen van AI per sector zou reguleren in plaats van de software die eraan ten grondslag ligt. Verwacht wordt dat zowel de Amerikaanse als de Britse aanpak meer pro-industrie zullen zijn dan de Brusselse wet, die fel bekritiseerd is door de technologie-industrie.
De strengste beperkingen voor AI-makers zouden echter door China kunnen worden ingevoerd, omdat het land een evenwicht probeert te vinden tussen de doelstellingen tussen het controleren van de informatie die door generatieve modellen wordt verspreid en het concurreren in de technologierace met de VS.
[…] In de mondiale race om AI te reguleren weet niemand precies hoe […]
AI is slechts een onderdeel van een heel groot probleem dat ons geleidelijk allemaal opslokt. We proberen HIER zowel dit probleem als de enige houdbare oplossing uit te werken: https://1drv.ms/b/s!An5HSJsfNUxEpTRiS0Cp5VAW0kJv?e=9HsPVt