Analyse

De grote techbedrijven storten chatbots als ChatGPT, Bing Chat en Bard over de wereld uit en roepen iedereen op om ermee te experimenteren. Dit is echter niet zonder risico.

 

Wie voor het eerst begint te experimenteren met ChatGPT, ervaart waarschijnlijk een gevoel van opwinding als de chatbot in perfecte volzinnen antwoord geeft op elke vraag die je hem voorschotelt. Het lijkt net alsof je met een mens zit te chatten – zo een die overal meteen een antwoord op heeft.

Maar al snel na de lancering, eind vorig jaar, kwamen de eerste barstjes in dat beeld. ChatGPT bleek geen allesweter te zijn, integendeel, bij de meest simpele vragen gaat hij al in de fout. De grootste onzin komt soms terug in de antwoorden van de chatbot, hallucineren noemen experts het zelfs.
 

Nette zinnen in perfect Nederlands

Het probleem is alleen dat ChatGPT heel overtuigend formuleert. Door de nette zinnen in perfect Nederlands die hij in het chatscherm componeert, denkt de gebruiker dat het klopt wat hij zegt. ‘De makers van ChatGPT verdienen credits, het lijkt op gewone, menselijke taal’, zegt Steven Kraaijeveld, postdoctoraal onderzoeker bij de Radboud Universiteit in Nijmegen.

‘Maar de antwoorden die eruit komen zijn zeker niet altijd accuraat. Hij komt met papers die niet bestaan of zuigt titels van boeken uit zijn duim. Je moet als gebruiker eigenlijk alles checken wat ChatGPT beweert. Informatie moet traceerbaar zijn naar bronnen, maar die levert ChatGPT er niet bij. Als je uiteindelijk alles zelf moet uitpluizen, dan vind ik dat problematisch.’
 

Zoekmachines

Nu is ChatGPT nog een programma dat op zichzelf staat en waarvoor een gebruiker bewust een website moet bezoeken. Problematischer wordt het als ChatGPT wordt geïntegreerd in zoekmachines en mensen er niet meer omheen kunnen, vindt Kraaijeveld. ‘We kunnen niet meer zonder zoekmachines. Bedrijven moeten aan gebruikers duidelijk maken dat het nog niet is wat mensen ervan verwachten.’
 

Vind je dit een interessant artikel? Abonneer je dan gratis op de wekelijkse nieuwsbrief van De Ingenieur. Behoefte aan iets meer diepgang? Neem dan eens een proefabonnement van drie nummers op het papieren tijdschrift!


Deze kritiek van Kraaijeveld (en anderen) is relevant, want dit is precies wat de techbedrijven aan het doen zijn: chatbots combineren met hun zoekmachines. In februari lanceerde Microsoft Bing Chat; het voorzag zijn zoekmachine Bing van de technologie achter ChatGPT. Voorlopig alleen voor een beperkt aantal gebruikers.
 

Foto Shutterstock

 

Eigen taalmodel

Google zit intussen ook niet stil. Het lanceerde Bard, waaraan een gebruiker ook gewoon een vraag kan stellen, waarna Bard op internet gaat zoeken naar de juiste antwoorden. Bard draait op Googles eigen gigantische taalmodel LaMDA (language model for dialogue applications).

Ook kwamen er interne memo’s van Google naar buiten die laten zien dat het bedrijf is geschrokken van het succes van ChatGPT en alles op alles wil zetten om nuttige toepassingen van kunstmatige intelligentie versneld te lanceren.
 

Slechte beurt

In die snelheid zitten risico’s. Zo maakte Google een slechte beurt met een reclamefilmpje voor Bard. Daarin vertelde de chatbot, als voorbeeld, dat de James Webb Space Telescope de allereerste foto van een exoplaneet ooit zou hebben gemaakt. Maar dat klopt niet, liet de echte ontdekker – in 2004 – van de eerste exoplaneet weten op social media.

Het is een voorbeeld van het eerdergenoemde hallucineren. Wat er is gebeurd: het taalmodel waarop Bard draait heeft bestaande stukjes informatie op een verkeerde manier met elkaar gecombineerd. Beleggers reageerden op het nieuws over Google; op de beurs van Wall Street verloor moederbedrijf Alphabet tijdelijk honderd miljard dollar aan waarde.

 

Vervelende ervaringen

In de weken hierna werd meer duidelijk over de gevaren van een te snelle invoering van chatbots. Gebruikers die al aan de slag mochten met de chatbot van Bing, hadden soms vreemde en vervelende ervaringen. Zo was er een gebruiker, aldus techwebsite The Verge, die wilde weten wanneer en waar de nieuwe Avatarfilm draaide, maar vervolgens verzeild raakte in een ruzie met Bing over welk jaar het was.

De chatbot hield bij hoog en laag vol dat het 2022 was. Toen de gebruiker tegen Bing zei dat het toch echt 2023 was, kreeg die naar zijn hoofd geslingerd ‘onredelijk en koppig’ te zijn. ‘Je hebt mijn vertrouwen en respect verloren. Je had het mis, je was in de war en onbeschoft. Je bent geen goede gebruiker geweest’, schreef de chatbot volgens The Verge.
 

Ongewenste effecten

Nu kunnen we hierom lachen en de schouders ophalen. Maar dergelijk taalgebruik vol schijnbare emoties kan op mensen diepe en ongewenste effecten hebben, waarschuwt Kraaijeveld. ‘Het kan confronterend en verontrustend zijn, met alle psychologische en emotionele effecten van dien.’ Deze effecten worden nog versterkt naarmate de technologie wordt vermenselijkt. ‘Vooral kwetsbare groepen kunnen hiervoor vatbaar zijn.’

Ik ben voor een tijdelijke stop op dit soort software [chatbots] voordat het breder wordt toegepast, totdat er beter zicht is op de schadelijke effecten.

Een zoekmachine die verkeerde informatie geeft en klinkt als een overtuigend mens: de risico’s laten zich raden. Dat kan gewoon gevaarlijk zijn, als iemand met mentale problemen zich op een kwetsbaar moment tot een pratende zoekmachine wendt en een verkeerd advies krijgt. ‘ChatGPT is puur een tool die tekst genereert, zonder te weten wat die eigenlijk zegt’, aldus Kraaijevelds collega Tamar Sharon in de krant NRC.
 

Tijdelijke stop

Het lijkt dus onwenselijk dat Microsoft en Google hun chatbots zomaar in het wild loslaten op mensen. 'Move fast and break things' is vaak de mantra van Amerikaanse techbedrijven; software gratis beschikbaar stellen, de eerste gebruikers feedback laten geven en dan later wel kijken of er ook nadelen aan zitten. De wereld op zijn kop, meent Kraaijeveld.

‘Eerst komt die software online en pas later komt een keer de vraag of er misschien iets moet worden gereguleerd. De gebruikers lijken me hier onderdeel van een experiment. Dat zouden ze helder moeten maken en gebruikers na elke stap de kans geven om met dat experiment te stoppen. In die zin zou ik voor een moratorium zijn op dit soort software voordat het breder wordt toegepast. Een tijdelijke stop, totdat er beter zicht is op de schadelijke effecten.’

 

Uitbuiting achter chatbots
Alsof het nog niet genoeg is dat de gehypete combinaties van chatbot en zoekmachine regelmatig onzin uitkramen, is er ook nog wat aan te merken op wat er achter de schermen gebeurt. Voor het trainen van ChatGPT bijvoorbeeld, zette OpenAI laagbetaalde werknemers in Kenia in, die de meest gruwelijke teksten moesten lezen, zo onthulde het tijdschrift Time al in januari. In de teksten werden details beschreven over moord, kindermisbruik en zelfmoord. Ze deden dit vreselijke werk om zo de chatbot te trainen dit soort teksten te herkennen en in de toekomst ChatGPT veiliger te maken. De werknemers kregen maar een salaris van tussen de 1,32 dollar en twee dollar per uur, terwijl het werk traumatisch was. Sommige kregen de gevormde beelden niet meer van hun netvlies, schrijft Time.

 

Openingsbeeld Depositphotos

Vond je dit een interessant artikel, abonneer je dan gratis op onze wekelijkse nieuwsbrief.