column

Is het gepast om ChatGPT een condoleancebrief te laten schrijven, vragen filosofen Andrew Rebera en Lode Lauwaert zich af in deze column voor De Ingenieur. 
 

Generatieve AI (artificial intelligence) gaat meer en meer deel uit­maken van ons leven – daar lijkt het althans op. Juist daarom is het belangrijk dat niet alleen aandacht wordt besteed aan de voordelen, maar ook aan de risico’s, zoals het gevaar dat chatbots stereotypen bestendigen. Deze mogelijke problemen zijn niet nieuw en we moeten zeker de ernst ervan niet onderschatten. Maar veroorzaakt ChatGPT ook nieuwe problemen?

Stel, je weet niet hoe je moet beginnen met een moeilijke e-mail. Of je moet aan het eind van de dag een rapport klaar hebben. Geen probleem: de chatbot kan die teksten voor jou maken. Het uitbesteden van deze schrijftaken aan AI kan leiden tot de-skilling: de geleidelijke afname van het vermogen om taken uit te voeren. Als dat zo is, dan is dat in ieder geval niet nieuw. Denk aan de afname van het vermogen om telefoonnummers te onthouden in het tijdperk van de mobiele telefoon. Is dat echt een probleem?

Maar neem nu het volgende: ik heb moeite met het schrijven van een bericht of brief aan een vriend wiens vader is overleden. AI kan iets genereren dat daarbij past, zoals: ‘Ik ben diep bedroefd over het nieuws van je verlies’. Ik ­kopieer de tekst en verstuur hem naar mijn vriend. 

Is dat gepast? De woorden zijn niet van mijzelf afkomstig, maar van software. En is het niet van belang dat ik op zo’n belangrijk moment zelf de bron van communicatie ben? De conclusie lijkt te zijn dat we chatbots wel kunnen gebruiken om vacatures uit te schrijven, maar beter achterwege laten op momenten dat het er echt toe doet.

Het probleem is niet waar we de woorden vandaan halen, maar wat we ermee doen

Die gedachte is intuïtief aantrekkelijk. Maar onze woorden of handelingen in vertrouwde ­situaties zijn wel vaker een kwestie van gewoonte, van vorm, van ritueel zelfs. Denk aan religie. Wat daar wordt gezegd, komt niet van onszelf. Het draait er rond vaste soms eeuwenoude ­zinnen. Bovendien vinden we dat niet ongepast, integendeel. 

Juist religieus gedrag betekent dat we ons houden aan de geijkte formules. Wil je daarvan afwijken, en dingen zeggen en doen die van jou persoonlijk komen, dan vinden we dat meestal onwenselijk. Wat in zulke context in de eerste plaats telt, zijn de intensiteit en de intentie van je spreken en handelen.

Geldt hetzelfde niet voor ChatGPT? Is het gebruik van zo’n chatbot voor het overmaken van spijt of troost niet louter contra-intuïtief? Is dat ook echt een probleem? 

Natuurlijk, bepaalde woorden afkomstig van de chatbot kunnen slecht gekozen of naast de kwestie zijn. En een beroep op AI kan ongepast zijn als het bijvoorbeeld voortkomt uit luiheid of een gebrek aan zorg voor de woordkeuze. 

Cruciaal is dat, als het gebruik van AI bij een bepaalde gelegenheid ongepast is, het net zo ongepast zou zijn geweest om de woorden van een wenskaart te halen of ze door iemand anders te laten schrijven. 

Het probleem in dergelijke gevallen is niet waar we de woorden vandaan ­halen, maar wat we ermee doen. Het probleem ligt niet bij de AI, maar bij ons.


Tekst: Andrew Rebera, onderzoeker filosofie aan de Koninklijke Militaire School in Brussel, en Lode Lauwaert, hoogleraar techniekfilosofie aan de KU Leuven
Beeld: Alina Constantin / Better Images of AI / Handmade A.I / CC-BY 4.0

Vond je dit een interessant artikel, abonneer je dan gratis op onze wekelijkse nieuwsbrief.