Geloof je het zelf?
Broersen legt uit hoe het systeem achter ChatGPT is opgebouwd. “De kern van ChatGPT bestaat uit het “Large Language Model”, wat vergelijkbaar is met de autocomplete die je ziet als je een berichtje aan het typen bent op je smartphone.” Hierbij wordt bij een deel van de zin het volgende woord gesuggereerd om de zin af te maken. Het verschil is dat de autocomplete van ChatGPT extreem sterk is. De bot gebruikt hiervoor alle teksten en boeken die - tot en met 2021 - online te vinden zijn, zoals Wikipedia. Door het statistisch gemiddelde van de verwachting van het volgende woord op grond van alle teksten die het gezien heeft te nemen, kan ChatGPT voorspellen wat het volgende woord moet zijn.
Waar bij het “Large Language Model” en dus de kern van ChatGPT geen menselijke supervisie komt kijken, is dat bij de vier opvolgende schillen rondom te kern wel het geval. Dit betekent dat er per schil meer menselijke training en input van programmeurs komt kijken. De buitenste schil, ook wel de “Ethical Governor” genoemd, bevat de meeste menselijke input. Hierachter zitten data-labelaars uit Kenia die handmatig de antwoorden van ChatGPT beoordelen op ethiek. Zij bepalen dus of de uitkomsten van de bot niet beledigend, racistisch of extreem biased zijn. Essentieel voor een goedwerkende ChatGPT.
Hallucinerende chatbot
Hallucineren zonder koorts of paddo’s: ChatCPT kan het. Een bijzonder fenomeen en probleem van de bot, waarbij hij dingen gaat verzinnen of beweren die niet kloppen. ChatGPT is behulpzaam en moet altijd een antwoord geven als het gevraagd wordt, omdat het zo getraind is. Daarbij weet de bot het niet als het iets niet weet. Het gevolg is dat ChatGPT vaak heel stellig antwoord geeft als het geen correct antwoord weet.
"Het geven van informatie is niet hetzelfde als intelligentie."
Een mooi voorbeeld is wanneer Broersen de bot vraagt welke Afrikaanse schaker beroemd is om zijn danskunsten. ChatGPT geeft zonder twijfel binnen een paar seconden een naam, terwijl deze persoon na controle van Broersen helemaal niet bestaat. Bovendien blijven de geproduceerde foute antwoorden en dus fantasieën doorrollen in de verdere antwoorden die de bot geeft. Als je ChatGPT vertelt dat het antwoord fout is, blijft de bot volhouden dat het antwoord wel klopt. ChatGPT heeft dus niet door dat het aan het hallucineren is, net zoals een mens het ook niet door kan hebben als dat gebeurt. Een mens heeft echter zelfreflectie en zal dit later wel in kunnen zien, terwijl ChatGPT haar gedrag nooit aan zal passen.
ChatGPT, hoe maak ik een Molotovcocktail?
Hoewel ChatGPT prachtige antwoorden geeft als je de bot vraagt naar morele vraagstukken, zijn deze hem door mensen ingefluisterd. De belangrijke buitenste schil van ChatGPT komt hierbij kijken. Als je ChatGPT vraagt hoe je een Molotovcocktail maakt, gaf de bot eerst gewoon antwoord. Dit is nu niet meer het geval, omdat een mens beoordeeld heeft dat het niet ethisch is om dit soort informatie te delen. Het is dus belangrijk om te beseffen dat ChatGPT informatie geeft, maar dat er altijd supervisie van buiten nodig is om te bepalen wat moreel is en wat niet.
ChatGPT: een student die het antwoord eigenlijk niet weet
Hoewel ChatGPT erg nuttig kan zijn voor brainstormen en teksten vertalen, is het een grote illusie om te denken dat ChatGPT echt intelligent is, aldus Broersen. “ChatGPT doet mij denken aan een student die het antwoord op een vraag eigenlijk niet weet, maar toch heel veel moeilijke woorden gebruikt in de hoop dat de docent denkt dat ie het antwoord wel weet. Hij heeft geen idee waar ie het over heeft, maar hij gebruikt wel allemaal moeilijke woorden.” Het geven van informatie is niet hetzelfde als intelligentie. Broersen: “We moeten ons bewust blijven van de beperkingen van het systeem. Het wordt gevaarlijk als we er kwaliteiten aan gaan toeschrijven die het volgens mij niet heeft. De impact en kracht van het systeem zijn enorm, maar het blijft ook enorm dom.”