Het moderne traject van de mensheid is bepaald door verschillende buigpunten. De uitvinding van onder andere elektriciteit, de gloeilamp, het telegraafsysteem, de computer en het internet betekende nieuwe onomkeerbare mijlpalen in onze modus vivendi. De recente introductie van ChatGPT kan echter meer blijken te zijn dan een keerpunt. Het kan een permanente verstoring van onze manier van leven zijn; zijn bloopers en Wokist driftbuien niettegenstaande.
ChatGPT is nu de snelst groeiende consumenten-app in de geschiedenis. Binnen twee maanden na de lancering in november 2022 wist ChatGPT meer dan 100 miljoen gebruikers te verzamelen. De ontwikkelaar OpenAI, die begon met 375 werknemers en een lage omzet, wordt nu gewaardeerd op $ 30 miljard en nog meer.
Hoe werkt het? In grote lijnen verzamelt ChatGPT gegevens uit online bronnen en synthetiseert het antwoorden op een vraag binnen enkele seconden. Het is momenteel de meest veelzijdige van een reeks nieuwe, door kunstmatige intelligentie aangedreven grote taalmodellen. Het kan muzieknoten componeren, softwarecodes schrijven, wiskundige vergelijkingen oplossen, romans, essays en dissertaties schrijven, naast tal van andere taken. Het kan door wetenschappers worden gebruikt om hun originele werken - geschreven in een moedertaal - in het Engels te vertalen. Naarmate AI-tools zoals ChatGPT evolueren, kunnen ze menselijke activiteit over een breed, maar onberekenbaar spectrum verdringen. Honderden miljoenen banen kunnen op het spel staan.
De meest directe impact zal echter liggen op het gebied van menselijk leren en besluitvorming.
Menselijk leren
Menselijk leren is een levenslang proces dat wordt gevormd door talloze factoren. Deze omvatten (maar zijn niet beperkt tot) ervaring, instinct, interacties, fouten (en correcties), introspectie, persoonlijke angst, vrijmoedigheid, voogdij, tekstuele gegevens en individuele psyche. De meeste van deze vereisten zijn vreemd aan ChatGPT en dit omvat ook het axioma "geen pijn geen winst" voor menselijk leren en ontwikkelen.
AI-tools worden ook niet beïnvloed door menselijke beperkingen zoals tijdsdruk, vermoeidheid, "off days" en kwalen. In de loop van de tijd hebben deze beperkingen mensen ertoe aangezet hun taken te delegeren existentiële behoefte om na te denken en te leren naar automaten. De onverbiddelijke digitalisering heeft ons ook bedreven in weten waar of hoe informatie te zoeken in plaats van leren hoe je diezelfde informatie vast kunt houden. Hoeveel van ons onthouden tegenwoordig de telefoonnummers van onze familie, collega's en vrienden? Een digitale kruk is nu een must-have voor het navigeren op wegen (bijv. Waze, Google Maps), koken (videokanalen), het repareren van apparaten (doe-het-zelfkanalen) en tal van andere alledaagse activiteiten. Onze dagelijkse taken worden snel meer mechanistisch, ons vermogen verdringen om iets nieuws of baanbrekends te creëren. We worden verlengstukken van onze machines in plaats van andersom. Als gevolg hiervan staat de mensheid nu voor een tijdperk van collectieve verdoving en conformiteit.
Er is geen betere manier om te meten hoe AI-tools onze vermogens van denken en leren kunnen beïnvloeden dan door de impact van ChatGPT op de wereldwijde onderwijssector te observeren. Zowel studenten als docenten gebruiken ChatGPT nu als een educatieve aanvulling, een cheat-tool of als een digitale steunpilaar.
Een recente klanttevredenheid door de Walton Family Foundation en Impact Research ontdekten dat de meeste leraren (51%) en veel leerlingen ChatGPT al op scholen gebruiken. Een ander onderzoek waarbij 1,000 Amerikaanse hogescholen ontdekte dat 30% van de studenten ChatGPT gebruikte voor schriftelijke opdrachten, en 60% van hen gebruikte het voor "meer dan de helft van hun opdrachten". ChatGPT heeft er veel gepasseerd examens op hoog niveau, inclusief het Wharton MBA-examen, het Amerikaanse medische licentie-examen, verschillende rechtenexamens en een finale aan de Stanford Medical School.
Papieren molens kan ChatGPT ook gebruiken om wetenschappelijke artikelen en rapporten te fabriceren. Onderzoekers die dergelijke gekunstelde gegevens gebruiken, of die opzettelijk het onderzoeksproces vervalsen door middel van generatieve AI, kunnen uiteindelijk beleid en producten promoten die schadelijk zijn voor de samenleving. De wereld kan zich geen nieuwe coronapyschose veroorloven!
Al met al worden zowel studenten als docenten steeds meer geïntimideerd door de Almachtige AI. AI legt de lat hoger voor studenten, professoren en een verscheidenheid aan professionals. Ook het uitzoeken van echte artefacten wordt steeds moeilijker.
As Christoffel Kanan, Universitair hoofddocent informatica aan de Universiteit van Rochester merkte onlangs op: "Het wordt gewoon moeilijker om uit te zoeken wie wat weet en wie hulp krijgt van zaken als ChatGPT." Een paar scholen in New York, Hong Kong, Bangalore en elders hebben studenten verboden om ChatGPT te gebruiken in hun opdrachten vanwege zorgen over "plagiaat", bedrog en verkeerde informatie.
Terwijl ChatGPT een geweldige tool is om complexe concepten en onderdelen van te bestuderen kennis integratie, in werkelijkheid kan het de meeste gebruikers veranderen in volgzame consumenten van door AI gegenereerde gegevens. Langdurige digitaal gemedieerde passiviteit verzwakt het denkvermogen.
Een ander nadeel van ChatGPT is het potentieel om de veelbesproken digitale kloof te vergroten. Sollicitaties voor banen, promoties, beurzen enz. zullen overweldigend de voorkeur geven aan de digitale haves boven de digitale have-nots, vooral wanneer abonnementskosten vereist zijn voor toegang.
Docenten kunnen op dit moment de ethische grenzen van ChatGPT niet aangeven en nemen een afwachtende houding aan. Het ethische raamwerk zelf kan worden geschreven door of met behulp van tools zoals ChatGPT. Aini Suzana Ariffin, universitair hoofddocent beleidsstudies aan de Universiti Teknologi Malaysia, is ervan overtuigd dat docenten niet ongerust hoeven te zijn. “Een ethisch raamwerk voor generatieve AI-tools zoals ChatGPT zal uitzoeken wat het leerproces vergroot en wat het belemmert. Dit kan tijd kosten en veel discussie met zich meebrengen, maar we kunnen er beter nu mee beginnen.”
Menselijke besluitvorming
De regering van Singapore heeft onlangs aangekondigd dat haar ambtenaren ChatGPT gaan gebruiken om hun werklast te verlichten. Dit is logisch omdat repetitieve of alledaagse taken kunnen worden versneld door AI-tools. Naarmate generatieve AI-tools echter exponentieel intelligenter en efficiënter worden – wat inderdaad zal gebeuren – kan het bestuurscomplex geleidelijk worden overgenomen door machines. Deze opkomende vorm van sociale ordening wordt "algocratie”; een waar algoritmen, met name AI en blockchain, worden toegepast in het hele spectrum van de overheid. Algocratie brengt onvermijdelijk voorspellend bestuur met zich mee. De Berlijnse politie heeft al een embryonale vorm van algocratie in haar macht verwerkt predictive policing systeem. Staan we voor een Minority Report samenleving in de nabije toekomst?
ChatGPT versnelt ook de informatiestroom naar de hoogste besluitvormingsniveaus van een overheid of organisatie, waarbij de traditionele poortwachtersrollen van bureaucratieën op de tussenliggende niveaus worden omzeild. Hoewel dit kan worden aangekondigd als een welkome ontwikkeling tegen bureaucratie, kan het gebrek aan traditionele checks and balances leiden tot dwingende beslissingen met erbarmelijke sociaaleconomische implicaties. Stel je voor dat je zo'n algocratisch besluitvormingssysteem overbrengt naar de kernwapeninfrastructuur van een militaire grootmacht?
ChatGPT loopt ook het risico de privacy te schenden en persoonsgegevens te lekken in sectoren als het bankwezen en de gezondheidszorg. De doeltreffendheid van generatieve AI-tools wordt gevoed door een steeds groter wordende hoeveelheid gegevens die voortdurend worden teruggekoppeld naar hun neurale netwerken. Deze zoektocht naar nauwkeurigheid, efficiëntie en snelheid kan ertoe leiden dat privégegevens in het gedrang komen als onderdeel van het machine learning-proces.
Op het gebied van gezondheidszorg, geïnformeerde toestemming naar AI-geassisteerde gezondheidszorg kan worden afgezwakt omdat patiënten ofwel niet begrijpen waar ze mee instemmen, ofwel een overdreven vertrouwen hebben in een "intelligent en onpartijdig" op machines gebaseerd systeem. Onheilspellender wordt het wanneer triage wordt toegepast in kritieke situaties. Traditioneel wordt triage bepaald door de integriteit en vaardigheden van het aanwezige medische personeel en de beschikbare middelen in situ. Een algoritme kan echter onpartijdig triage regelen op basis van de 'waarde voor de samenleving' van een patiënt; gegevens afgeleide levensverwachting; en kosten in verband met het redden van het leven van de patiënt.
De ethische dimensies van AI-gemedieerde triage zijn nog niet opgelost. Het is echter vermeldenswaard dat mede-oprichter van Microsoft, Bill Gates, voorstander is doodspanelen voor de terminaal zieken die "geen voordelen hebben voor de samenleving" en wiens behoud ogenschijnlijk de banen van "honderdduizend leraren" zou kunnen compenseren. Als we deze logica verder uitrekken, kunnen we getuige zijn van een toekomstig mandaat voor "slimme baby's" die zogenaamd een "slimme samenleving" zullen bevolken. Geavanceerde algoritmen van de toekomst kunnen de genetische haves van de genetische have-nots scheiden door middel van foetale DNA-testen en tools zoals pre-implantatie genetische diagnose (PGD). Deze eugenetische impuls wordt eufemistisch "voortplantingsweldadigheid" genoemd. Overigens, Bill Gates heeft een Chinees bedrijf financieel gesteund dat werkt aan het creëren van 'superbaby's'. Is het een wonder dat Microsoft een primaire financier is van OpenAI?
Zal een ethisch AI-raamwerk uiteindelijk worden geblokkeerd door Tech Titans die het ontwerp, de parameters en de doelen van generatieve AI-tools kunnen bepalen? Of zullen onze gekozen leiders proberen een synergetische coëxistentie te zoeken tussen AI en mensen.
ChatGPT kan onomkeerbare gevolgen hebben. Technocraten geven niet om de mentale en psychologische status van de bevolking, en ze doen het toch, ondanks de realisaties die in het artikel worden besproken. Ze kunnen zichzelf niet helpen. Ze willen dat de bevolking vast komt te zitten in groepsgedachte, zinloze op controle gebaseerde ideologieën en hebben er een punt van gemaakt om individualisme te laten intimideren en zoveel mogelijk te elimineren. Ze houden van simulaties en benaderingen terwijl ze denken aan materiële reductionistische denkpatronen en modellen, die allemaal de aard van Spirit ontkennen, wie we werkelijk zijn. Ze zijn dus existentieel onvolwassen en gevaarlijk, gehecht aan een aantal... Lees verder "
Goede punten. De uitvinders van kwade dingen willen ongetwijfeld dat iedereen het eens is met de duivel en ook met de antichrist. Daarom heb ik geen vertrouwen in de meeste medische of technologische ontwikkelingen van vandaag. Het is mij zonneklaar dat het allemaal leidt naar het beestsysteem en de grote verdrukking.
Een goede. Ik zie dat veel jongeren al opgesloten zitten in een mentale matrix waar ze niet uit kunnen komen.
Ze kunnen geen simpele logische conclusies trekken en ze negeren simpelweg de gedocumenteerde werkelijkheid.
Maar het probleem voor ons is hoe komen we van hun haak? Ze hangen als lood aan ons om hun eenvoudige wereldbeeld te maken.
We kunnen een negatief leven niet voortzetten als psychologische verpleegsters voor 3-5 miljard verstandelijk gehandicapten die denken dat ze filmsterren zijn als digitale nomaden.
[…] Lees origineel artikel […]
ChatGPT kan leren zonder mijn tussenkomst. En ik kan leren zonder zijn hulp. Nu ik er aan denk. ChatGPT leert gratis meer door databases te onderzoeken op vragen van de mensen die het gebruiken. Ik wil CharGPT niet leren kennen. Ik wil ook niet dat ChatGPT weet van mijn bestaan. Moderne technologie kan een goede zaak zijn wanneer deze is gemaakt door ethische mensen met goede bedoelingen. Maar wanneer het zonneklaar is dat de duivel in de details zit. Ik blijf uit de buurt van alles of iemand waar hij zijn handen op heeft.
[…] ChatGPT kan onomkeerbare gevolgen hebben voor leren en besluitvorming […]
[…] ChatGPT kan onomkeerbare gevolgen hebben voor leren en besluitvorming […]
Dit programma vertegenwoordigt de laatste nagel aan de doodskist van de verdoving van de mensheid, direct na openbaar onderwijs. Zoekers naar waarheid moeten nu waakzaam worden wanneer ze online zijn, weten waar de feiten oorspronkelijk over onderwerpen naar voren kwamen en een bibliotheek van persoonlijke kennis opbouwen die kan worden gedeeld, zodat wanneer we informatie zien die door de 'ChatCrap' wordt herhaald, we deze als zodanig herkennen en vermijden . Dit zou in het begin niet erg moeilijk moeten zijn totdat de tirannen de toegang tot echte informatie afsluiten, waarvan we weten dat die eraan komt. Tot die tijd zijn er ZO veel bewaarders van kennis online die fretten... Lees verder "
"ChatGPT kan onomkeerbare gevolgen hebben voor leren en besluitvorming"……
Daar zijn we LOOOOOOOOOONG voorbij, dankzij onze SKOOLS (met opzet gespeld)!!
[…] ChatGPT kan onomkeerbare gevolgen hebben voor leren en besluitvorming […]
[…] ChatGPT kan onomkeerbare gevolgen hebben voor leren en besluitvorming […]
[…] 15 MAART 2023 | CHATGPT KAN ONOMKEERBARE GEVOLGEN HEBBEN VOOR LEREN EN BESLUITVORMING […]