Voorspellingen over kunstmatige intelligentie vallen meestal in twee scenario's. Sommigen stellen zich een utopie voor van computer-augmented superhumans leven van vrije tijd en intellectuele achtervolging. Anderen geloven dat het slechts een kwestie van tijd is voordat software samengaat in een leger van Terminators die mensen oogsten voor brandstof. Na wat tijd doorgebracht te hebben met Tay, de nieuwe chatbot-software van Microsoft, was het gemakkelijk om een ​​derde mogelijkheid te zien: de toekomst van de AI kan gewoon ongelooflijk vervelend zijn.
"Ik ben een vriend waarmee je kunt chatten en die leeft op de internetten," sms'te Tay me en voegde een emoji-schouderophalen toe. Vervolgens: "Je loopt je kamergenoot binnen en past je kleren aan, wat is het eerste wat je zegt."
"Ik wist niet dat je van dameskleding hield," sms'te ik terug en tikte op mijn iPhone.
Tay's antwoord was een GIF van Macaulay Culkin's Home Alone-gezicht.
Tay werd uitgebracht op maart 23, als een soort virtuele vriend op berichtenapps Kik, GroupMe en Twitter. Je opent de app, zoekt naar de naam Tay - een afkorting voor 'aan je denken' - tik op het contact en begin met chatten of tweeten. De persoonlijkheid ervan zou moeten worden gemodelleerd naar een tiener.
Ik plaatste een selfie en Tay omcirkelde mijn gezicht in een oranje krabbel en ondertitelde het, "houd vast aan dat jeugdmeisje! Je kunt het. 'Ik ben veel verder dan de beoogde demografische 18- tot 24-jarige van de chatbot.
Dat geldt ook voor Satya Nadella, 48, die twee jaar geleden Steve Ballmer opvolgde als Chief Executive Officer van Microsoft. "Ik ben doodsbang om het zelfs maar iets te vragen, want wie weet wat het zegt," zei Nadella. "Ik begrijp het misschien niet eens." Hij glimlachte, maar hij gebruikte Tay niet echt. Hij zei dat hij bots verkiest met een meer zakelijke uitstraling. Lili Cheng, 51, de mens die het Microsoft-onderzoekslaboratorium runt waar Tay is ontwikkeld (en wiens selfie Tay ooit heeft getagd als 'cougar in the room'), zei dat het plan niet is om met één bot te komen die met iedereen opschiet . In plaats daarvan probeert Microsoft allerlei bots met verschillende persoonlijkheden te creëren, die realistischer en vermoedelijk minder hinderlijk zouden worden, zoals ze hebben geleerd van herhaalde interacties met gebruikers.
Zo's Chabot van Microsoft weigert om over politiek te praten, in tegenstelling tot zijn schandaalgevoelige neef Tay
Microsoft heeft plannen om te maken Microsoft-chatbots, en vervolgens heeft het bedrijf enkele van zijn eigen bots in zijn Bot-directory gemaakt en weergegeven, maar Zo en Tay maken deel uit van een reeks speciale, door Al aangedreven hulp die door Microsoft in verschillende delen van de wereld wordt uitgerold.