Google Search Chief: AI-chatbots kunnen 'overtuigende maar volledig fictieve' antwoorden geven

Deel dit verhaal!
De kapitalisatie van Google daalde met $ 100 miljard nadat zijn ChatGPT-concurrent Bard geen nauwkeurige antwoorden gaf. Hoe kan iemand weten wat waar of onwaar is? Als AI "grotendeels waar" is, zal iemand dan iets geven om de valse informatie die onverwachts wordt geconsumeerd? Google werkt momenteel onder 'code rood'-voorwaarden om relevant te blijven. ⁃ TN-editor

  • De baas van de zoekmachine van Google zei dat AI-chatbots "overtuigende" maar "fictieve" antwoorden kunnen geven.
  • Prabhakar Raghavan vertelde Welt am Sonntag dat het overweegt om Bard te integreren met Google Zoeken.
  • Google voelde de "urgentie" om zijn chatbot Bard vrij te geven aan het publiek, zei hij.
  • ChatGPT is nog maar een paar maanden oud en zorgt nu al voor opschudding in de zakenwereld.
  • Experts zeggen dat ChatGPT en aanverwante AI een bedreiging kunnen vormen voor sommige banen, met name voor bedienden.
  • Insider stelde volgens experts een lijst samen van 10 banen die deze technologie zou kunnen vervangen.

Sinds de release in November vorig jaarChatGPT van OpenAI is gewend aan schrijf sollicitatiebrievenmaak een kinderboek en zelfs studenten helpen hun essays te bedriegen.

De chatbot is misschien wel krachtiger dan we ooit hadden gedacht. Google ontdekte dat de zoekmachine in theorie de bot zou inhuren als codeerder op instapniveau als het interview bij het bedrijf.

Amazon-medewerkers die ChatGPT hebben getest zei dat het "zeer goed" is in het beantwoorden van vragen over klantenondersteuning, "geweldig" is in het maken van trainingsdocumenten en "zeer sterk" is in het beantwoorden van vragen over de bedrijfsstrategie.

Gebruikers van ChatGPT ontdekten echter ook dat de bot dat wel kan desinformatie genererencoderingsproblemen verkeerd beantwoorden en fouten maken in elementaire wiskunde.

Terwijl een 2013 University of Oxford studie ontdekte dat 47% van de banen in de VS in de komende 20 jaar door AI zou kunnen worden geëlimineerd, die voorspelling lijkt off-base te zijn geweest.

Anu Madgavkar, een partner bij het McKinsey Global Institute, zei dat dit komt omdat menselijk oordeel nog steeds moet worden toegepast op deze technologieën om fouten en vooringenomenheid te voorkomen, vertelde ze aan Insider.

"We moeten deze dingen beschouwen als productiviteitsverhogende tools, in tegenstelling tot volledige vervangingen", zei Madgavkar.

Lees hier het hele verhaal ...

Over de editor

Patrick Wood
Patrick Wood is een toonaangevende en kritische expert op het gebied van duurzame ontwikkeling, groene economie, Agenda 21, 2030 Agenda en historische technocratie. Hij is de auteur van Technocracy Rising: The Trojan Horse of Global Transformation (2015) en co-auteur van Trilaterals Over Washington, Volumes I en II (1978-1980) met wijlen Antony C. Sutton.
Inschrijven
Melden van
gast

5 Heb je vragen? Stel ze hier.
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties
Blaise

Al gebruikt ChatGPT. Serieus, als dit alles is wat de transhumanisten hebben, zijn ze echt een grap. Ja, het kan slagen als er een standaard corpus materiaal is, zoals een balie-examen. Maar vraag hem bijvoorbeeld om de beste dubbele filtergenerator voor jouw specifieke koelkastmodel (ga je gang, probeer het maar) en hij zal terugkomen met wat in wezen standaardtaal is die mooi klinkt en niets zegt. Laat het een artikel schrijven over hoe de covid-shots niet werken

Serieus, jij linkse fasco-marxist. Dit heb je allemaal???

[…] Google Search Chief: AI-chatbots kunnen 'overtuigende maar volledig fictieve' antwoorden geven […]

elle

“… gebruikers van ChatGPT ontdekten ook dat de bot dat kan desinformatie genererencoderingsproblemen verkeerd beantwoorden en fouten maken in elementaire wiskunde. '

Ik dacht dat dat het doel was om dergelijke software te maken. Het nut ervan ligt in het doorgeven van versleten, herhaalbare en typisch valse informatie voor het verhaal van totalitairen/technocraten, in het bijzonder.

Blijkbaar zijn de codeurs van het AI-gedrocht Woketards die weigerden te coderen voor de waarheid of iets goeds te zeggen over iemand / iets dat hun Woke-realiteit in twijfel trekt.

Dan Gilfried

Net als politici!? 😁

trackback

[…] Volledig fictieve antwoorden […]