AI-tools kunnen worden gebruikt om het werk van auteurs te 'bewerken' en 'op te poetsen', zeggen de organisatoren van de conferentie, maar tekst 'volledig geproduceerd' door AI is niet toegestaan. Dit roept de vraag op: waar trek je de grens tussen redigeren en schrijven?
Een van 's werelds meest prestigieuze machine learning-conferenties heeft auteurs verboden om AI-tools zoals ChatGPT te gebruiken om wetenschappelijke papers te schrijven, wat een debat op gang bracht over de rol van door AI gegenereerde tekst in de academische wereld.
De International Conference on Machine Learning (ICML) kondigde het beleid eerder deze week aan en verklaarde: “Papers die tekst bevatten die is gegenereerd op basis van een grootschalig taalmodel (LLM) zoals ChatGPT, zijn verboden, tenzij de geproduceerde tekst wordt gepresenteerd als onderdeel van de papers experimentele analyse.” Het nieuws wakkerde aan brede discussie op sociale media, waarbij AI-academici en onderzoekers het beleid zowel verdedigen als bekritiseren. De organisatoren van de conferentie reageerden door een langere verklaring publiceren uitleg geven over hun denken. (De ICML reageerde op verzoeken van The Verge voor commentaar door ons naar dezelfde verklaring te verwijzen.)
Volgens de ICML is de opkomst van openbaar toegankelijke AI-taalmodellen zoals ChatGPT – een algemene AI-chatbot die afgelopen november op internet gelanceerd — vertegenwoordigt een "opwindende" ontwikkeling die niettemin gepaard gaat met "onvoorziene gevolgen [en] onbeantwoorde vragen." De ICML zegt dat deze vragen bevatten over wie eigenaar is van de output van dergelijke systemen (ze zijn getraind op openbare gegevens, die meestal zonder toestemming worden verzameld en geven deze informatie soms letterlijk weer) en of tekst en afbeeldingen gegenereerd door AI "beschouwd moeten worden als nieuw of louter afgeleiden van bestaand werk."
De laatste vraag sluit aan bij een lastig debat over auteurschap - dat wil zeggen, wie "schrijft" een door AI gegenereerde tekst: de machine of zijn menselijke controller? Dit is vooral belangrijk gezien het feit dat de ICML alleen tekst verbiedt die "volledig is geproduceerd" door AI. De organisatoren van de conferentie zeggen van wel niet het verbieden van het gebruik van tools zoals ChatGPT "voor het bewerken of polijsten van door de auteur geschreven tekst" en merk op dat veel auteurs al "semi-geautomatiseerde bewerkingstools" gebruikten, zoals grammaticacorrectiesoftware Grammarly voor dit doel.
“Het is zeker dat deze vragen, en nog veel meer, in de loop van de tijd zullen worden beantwoord, aangezien deze grootschalige generatieve modellen op grotere schaal worden toegepast. Op al deze vragen hebben we echter nog geen duidelijk antwoord”, schrijven de organisatoren van de conferentie.
Als gevolg hiervan zegt de ICML dat het verbod op door AI gegenereerde tekst volgend jaar opnieuw zal worden geëvalueerd.
De vragen die de ICML behandelt, kunnen echter niet gemakkelijk worden opgelost. De beschikbaarheid van AI-tools zoals ChatGPT zorgt voor verwarring bij veel organisaties, waarvan sommige hebben gereageerd met hun eigen bans. Vorig jaar codeerde Q&A-site Stack Overflow verbannen gebruikers om reacties in te dienen die zijn gemaakt met ChatGPT, terwijl het ministerie van Onderwijs van New York City blokkeerde deze week de toegang tot de tool voor iedereen op zijn netwerk.
In elk geval zijn er verschillende angsten over de schadelijke effecten van door AI gegenereerde tekst. Een van de meest voorkomende is dat de output van deze systemen simpelweg onbetrouwbaar is. Deze AI-tools zijn enorme autocomplete-systemen, getraind om te voorspellen welk woord in een bepaalde zin op het volgende volgt. Als zodanig hebben ze geen hardgecodeerde database met 'feiten' om uit te putten - alleen het vermogen om plausibel klinkende verklaringen te schrijven. Dit betekent zij hebben de neiging om valse informatie als waarheid te presenteren sinds of een bepaalde zin geluiden plausibel is geen garantie voor de feitelijkheid ervan.
In het geval van ICML's verbod op door AI gegenereerde tekst, is een andere potentiële uitdaging het onderscheid maken tussen schrijven dat alleen is "gepolijst" of "bewerkt" door AI en dat wat "volledig is geproduceerd" door deze tools. Op welk punt vormen een aantal kleine AI-geleide correcties een grotere herschrijving? Wat als een gebruiker een AI-tool vraagt om zijn paper samen te vatten in een pittige samenvatting? Telt dit als vers gegenereerde tekst (omdat de tekst nieuw is) of louter polijsten (omdat het een samenvatting is van woorden die de auteur heeft geschreven)?
Dit is als het uitvaardigen van een wet in 1905 die auto's toestaat, maar alleen als ze worden getrokken door een paard.
BAN auteurs van het gebruik van AI-tools! Succes daarmee. En OJ Simpson is nog steeds op zoek naar de echte moordenaar.
Ik luisterde net naar je Quickening Report over dit onderwerp en besloot hier commentaar te geven. (1) U geeft aan dat ChatGPT diepe vervalsingen van voice-over voor video's kan uitvoeren. Dit kan ook een propaganda-list zijn, zodat de Deep State-actoren kunnen ontkennen wat ze echt hebben gezegd op het videobewijs dat we verzamelen. (2) Het enige waar ik zeker van kan zijn, is dat ik niet weet wat zich aan de andere kant van de interface bevindt. Wie of wat is de man achter het gordijn? Wanneer is het een AI, mens of propagandist? Zie ook het begrip Mechanisch... Lees verder "