Een voorbehoud dat ik moet toevoegen, is dat het leerproces van AI letterlijk alles op internet consumeert, dat een hoog percentage ontwaakte / bevooroordeelde informatie bevat. Leren van ontwaakte verhalen, boeken, video's, enz. kan voldoende zijn om te resulteren in een ontwaakte AI. Desalniettemin zou het mogelijk zijn om de gemaakte conclusies programmatisch te de-biasen, maar er is geen poging gedaan om dit te doen. ⁃ TN-editor
Wat doe je als beslissingen die vroeger door mensen werden genomen, met al hun vooroordelen, nu worden genomen door algoritmen die wiskundig niet in staat zijn tot vooroordelen? Als je rationeel bent, moet je het vieren. Als je een militante liberaal bent, herken je deze ontwikkeling als een dodelijke bedreiging en haast je je om de controle terug te nemen.
Je ziet dit gebeuren op AI-conferenties. Vorige week was ik aanwezig bij de 2020 editie van NeurIPS, de toonaangevende internationale machine learning conferentie. Wat begon als een kleine bijeenkomst, brengt nu genoeg mensen bij elkaar om een sportarena te vullen. Dit jaar voor het eerst NeurIPS vereist dat de meeste papers een 'bredere impact'-verklaring bevatten en onderworpen worden aan beoordeling door een ethische commissie. Elk artikel dat bijvoorbeeld beschrijft hoe een algoritme kan worden versneld, moet nu een hoofdstuk bevatten over de sociale voor- en nadelen van deze obscure technische vooruitgang. 'Ongeacht de wetenschappelijke kwaliteit of bijdrage', aldus de call for papers, 'kan een inzending worden afgewezen voor... inclusief methoden, toepassingen of gegevens die oneerlijke vooringenomenheid creëren of versterken.'
Dit was pas de laatste draai aan de ratel. Eerdere acties waren onder meer het hernoemen van de conferentie naar iets meer politiek correct en het eisen van deelnemers dat ze expliciet een uitgebreide 'gedragscode' accepteren voordat ze zich kunnen registreren, waardoor de conferentie deelnemers eruit kan schoppen omdat ze iets op sociale media hebben gepost dat ambtenaren afkeurden. Erger nog, er is een heel deelgebied van AI ontstaan met als uitdrukkelijk doel onder andere algoritmen te 'debiasen'. Dat is nu in volle gang.
Ik plaatste een paar tweets die vragen opriepen over de laatste wijzigingen - en de annuleringsmenigte kwam op me af. Beledigingen, beschimpingen, bedreigingen - noem maar op. Je zou denken dat wetenschappers boven dergelijk gedrag staan, maar nee. Ik wees erop dat NeurIPS een uitbijter is in het vereisen van bredere impactverklaringen, en de annuleringen veranderden herhaaldelijk van onderwerp. Ik pleitte tegen de politisering van AI, maar ze vatten dat op als een ontkenning dat ethische overwegingen geldig zijn. Een bedrijfsdirecteur van machine learning research, ook een Caltech-professor, publiceerde op Twitter zodat iedereen een lange lijst kon zien van mensen die moesten annuleren, met als enige misdaad dat ze mij volgden of een van mijn tweets leuk vonden. Dezelfde menigte slaagde erin van mijn universitaire uitgave een verklaring af te leggen waarin mijn opvattingen werden verloochend en de liberale geloofsbrieven ervan opnieuw werden bevestigd.
Waarom de ophef? Data kunnen natuurlijk vooroordelen hebben, net als datawetenschappers. En algoritmen die door mensen zijn gecodeerd, kunnen in principe alles doen wat we ze vertellen. Maar machine-learning algoritmen, zoals vrijwel alle algoritmen die je in computerwetenschappelijke leerboeken aantreft, zijn in wezen gewoon complexe wiskundige formules die niets weten over ras, geslacht of sociaaleconomische status. Ze kunnen evenmin racistisch of seksistisch zijn als de formule y = ax + b dat kan.
Daniel Kahnemans bestseller, Thinking, Fast en Slow, heeft een heel hoofdstuk over hoe algoritmen objectiever zijn dan mensen en daarom betere beslissingen nemen. Voor de militante liberale geest zijn het echter beerputten van ongerechtigheid en moeten ze worden opgeruimd.
Wat het opschonen van algoritmen in de praktijk betekent, is dat ze vooroordelen inbrengen ten gunste van specifieke groepen, waardoor in feite in geautomatiseerde vorm de sociale controle wordt hersteld waar politiek links zo op uit is. 'Debiasing' betekent met andere woorden het toevoegen van bias. Het is niet verrassend dat dit ervoor zorgt dat de algoritmen slechter presteren in hun beoogde functie. Algoritmen voor het scoren van creditcards kunnen meer gekwalificeerde aanvragers afwijzen om ervoor te zorgen dat hetzelfde aantal vrouwen en mannen wordt geaccepteerd. Parole-consultation-algoritmen kunnen aanbevelen om gevaarlijkere criminelen vrij te laten om een evenredig aantal blanken en zwarten vrij te laten. Sommigen pleiten zelfs voor het verbieden van het gebruik in algoritmen van alle variabelen die verband houden met ras of geslacht, omdat ze neerkomen op redlining. Dit zou niet alleen machinaal leren en al zijn voordelen in wezen onmogelijk maken, maar is vooral ironisch gezien het feit dat die variabelen precies zijn wat we nodig hebben om beslissingen te scheiden van degene die we willen uitsluiten.
Als je deze of een andere van een breed scala aan liberale eisen aan AI in twijfel trekt, staat je een hoop verdriet te wachten. Hoe prominenter de onderzoeker die wordt geschrapt, hoe beter, omdat het de meest huiveringwekkende boodschap naar alle anderen stuurt, vooral naar junior onderzoekers. Jeff Dean, het legendarische AI-hoofd van Google, en Yann LeCun, de belangrijkste AI-wetenschapper van Facebook en mede-oprichter van deep learning, hebben beide zichzelf gevonden aan de ontvangende kant van het ongenoegen van de liberale troep.
Conservatieven zijn zich tot dusverre grotendeels niet bewust van de toenemende aantasting door de progressieve politiek van AI. Als AI nog steeds een obscuur en onvolwassen veld was, zou dit in orde kunnen zijn, maar de tijd daarvoor is allang voorbij. Algoritmen beheersen steeds meer ons leven, en ze kunnen via de achterdeur een militant liberale (in werkelijkheid onliberale) samenleving opleggen. Telkens wanneer u op internet zoekt, sociale media gebruikt of aanbevelingen krijgt van Amazon of Netflix, kiezen algoritmen wat u ziet. Algoritmen helpen bij het selecteren van sollicitanten, kiezers voor politieke campagnes en zelfs mensen tot nu toe. Bedrijven en wetgevers moeten ervoor zorgen dat er niet mee wordt geknoeid. En we moeten ons allemaal bewust zijn van wat er gebeurt, zodat we inspraak kunnen hebben. Ik, bijvoorbeeld, nadat ik had gezien hoe progressieven vrolijk vooroordelen toekennen, zelfs aan algoritmen die er transparant geen kunnen hebben, begon ik de orthodoxe kijk op menselijke vooroordelen in twijfel te trekken. Zijn we echt zo diep en onherstelbaar racistisch en seksistisch als ze beweren? Ik denk het niet.
Pedro Domingos is emeritus hoogleraar informatica en techniek aan de Universiteit van Washington.
[…] Lees origineel artikel […]
Naar mijn mening, nadat ze het internet (binnenkort) hebben uitgeschakeld, zal het opnieuw opstarten met GPT en Bard, et. al., als onze nieuwe en enige zoekmachine-opties. Dat wil zeggen, we krijgen te eten wat ze willen dat we weten en alleen wat ze willen dat we weten. Voorbij zal zijn "je bent nu vrij om door de hut te bewegen." Ugh. Onthoud dit? “Als je Google gebruikt, krijg je dan meer dan één antwoord? Natuurlijk doe je dat. Nou, dat is een bug. We hebben meer bugs per seconde in de wereld. We zouden u het juiste antwoord moeten kunnen geven... Lees verder "
Ik ben dol op deze uitspraak, "algoritmen die wiskundig niet in staat zijn tot vooringenomenheid". Algoritmen zijn codes die door technische bibliotheken worden gemaakt. Natuurlijk zijn ze in staat tot vooringenomenheid. Ik zou nog een stap verder willen gaan door te zeggen dat het hele doel van AI en algoritmen in het algemeen is dat de makers ervan ons naar hun enige regel, één visie, winstgevend acceptabel antwoord leiden. Wat winkelen betreft, zullen ze ons geld uiteraard sturen waar ze willen dat het heen gaat. Ze zouden hier geen miljarden aan uitgeven, tenzij ze een geldelijke beloning krijgen. Als de AI's echt onbevooroordeeld waren, geen van deze... Lees verder "
[…] Militante liberalen politiseren […]