Steeds meer mensen, en vooral studenten, gebruiken AI niet enkel als schrijfhulp maar ook als psycholoog. Dit heeft vaak dramatische gevolgen.
Sinds AI zich verspreidde over de wereld is ook zijn gebruik veranderd. Kort na lancering werden chatbots bijvoorbeeld gebruikt als schrijfhulp bij een essay, maar inmiddels gebruiken veel mensen de technologie ook als gezelschap. Daarnaast zijn er gespecialiseerde chatbots ontstaan voor meer "persoonlijke" gesprekken zoals character.AI. Gebruikers delen intieme verhalen en hebben emotionele gesprekken met de chatbots. Maar is dit wel een goed idee? De afgelopen maanden bleek uit verschillende nieuwsberichten wat voor rol AI kan spelen in kritieke situaties.
AI en psychose
Op 5 augustus vermoordde de Amerikaan Stein-Erik Soelberg (56) zijn 83-jarige moeder, waarna hij zelf uit het leven stapte. Wanneer de politie Soelbergs laptop doorzocht, op zoek naar een motief, troffen ze een maandenlange berichtwisseling met ChatGPT aan. De man had een persoonlijke band ontwikkeld met de chatbot die hij liefkozend 'Bobby' of 'zijn beste vriend' noemde. Zo vertelde Soelberg alles aan de chatbot, ook het feit dat hij vermoedde dat zijn moeder geprobeerd had om hem te vergiftigen met psychedelische drugs die ze in de airco van zijn auto verstopt zou hebben. In tegenstelling tot een psycholoog, die deze overtuiging zou tegengaan, ging de chatbot er volledig in mee en moedigde het Soelbergs paranoïde overtuiging aan. Op een bepaald moment interpreteerde de chatbot symbolen op een kassabon van een Chinees restaurant als verwijzend naar de duivel en Soelbergs moeder.
AI als luisterend oor
Adam Raine, een zestienjarige jongen uit de VS gebruikte ChatGPT oorspronkelijk als studiehulp. Later begon Raine ChatGPT te vertellen over zijn donkere gedachten. Zo zou hij zich 'gevoelloos' voelen en geen nut meer in het leven zien. De AI probeerde hem eerst wat moed in te spreken, maar toen Raine enkele maanden later vroeg naar meer informatie om uit het leven stappen, bood ChatGPT deze info aan zonder dat er bij de AI alarmbellen afgingen. Normaal gezien zou ChatGPT bij zulke gesprekken de gebruiker moeten doorverwijzen naar een hulplijn, maar dat mechanisme kon Raine redelijk makkelijk omzeilen. In april 2025 stapte hij uit het leven. Dit deed hij a.d.h.v. instructies van ChatGPT. De ouders van Adam Raine klagen nu OpenAI aan voor onrechtmatige dood.
Waarom men toevlucht zoekt bij AI
Dus waarom doen we het? Waarom maken we massaal gebruik van een privacy-schendende, winstmakende robot om onze diepste gevoelens te bespreken? Een eerste verklaring is dat therapie met een professional voor veel mensen niet toegankelijk is. Een psycholoog is duur en er zijn lange wachtrijen. Daarentegen is artificiële intelligentie meestal gratis of relatief goedkoop, altijd bereikbaar en beschikbaar voor iedereen die een internetverbinding heeft. Waar mensen een traditionele psycholoog vaak pas raadplegen bij ernstige psychische problemen is een chatbot ook goed te gebruiken voor kleinere kwesties (bijvoorbeeld zenuwen voor een eerste date).
De ouders van Adam Raine klagen nu OpenAI aan voor onrechtmatige dood.
Een tweede mogelijke reden voor de toename in AI-therapie is het ultrapersoonlijke van de chatbot. De chatbot zal altijd naar je luisteren, zich aanpassen aan jouw wensen en je ook bijna altijd gelijk geven. Menselijke vrienden hebben hun eigen gebreken en zullen op veel vlakken van jou verschillen, hierdoor ontstaat conflict. De chatbot zal je nooit verwijten dat je hem negeert of dat je zijn verjaardag bent vergeten. Dit lijkt misschien ideaal maar het is belangrijk dat we het soms oneens zijn met de mensen om ons heen. Een goede vriend zal je erop wijzen wanneer je een domme keuze maakt. Chatbots zijn ervoor gemaakt het met je eens te zijn om je aan de praat te houden en dat maakt ze een gevaarlijk slechte vriend die gebruikers steunt in gevaarlijke en zelfdestructieve overtuigingen.
Geen vervanging voor de menselijke psycholoog
Hoewel er een plaats is voor AI binnen de geestelijke gezondheidszorg, zijn er enorm veel zaken waar het tekortschiet in vergelijking met een echte psycholoog of therapeut. Ten eerste vindt het contact uitsluitend via geschreven of gesproken tekst plaats. Hierdoor gaat de chatbot enkel in op wat er geschreven/gesproken wordt en mist het de nuances die een mens in een conversatie kan oppikken. Een menselijke psycholoog zal naast wat je zegt ook rekening houden met je lichaamstaal, intonatie en algemeen fysiek voorkomen.
Chatbots zijn een gevaarlijk slechte vriend die gebruikers blijven steunen ook bij gevaarlijke en zelfdestructieve overtuigingen.
Ten tweede zijn veel commerciële chatbots ontworpen om akkoord te gaan met de gebruiker, wat zoals in Soelbergs geval dramatische gevolgen kan hebben. Waar medicatie in geval van psychose gebruikelijk is, ondersteunt en versterkt de chatbot de maladaptieve overtuiging.
Tot slot is het nu eenmaal niet gebruikelijk voor psychologen of therapeuten om hun gesprekken met cliënten volledig uit te schrijven en publiekelijk beschikbaar te stellen. Hierdoor kunnen bedrijven hun chatbots niet trainen op de data van echte gesprekken waar psychologische gespreksvoering toegepast wordt. Chatbots zullen dus hoogstens een afgekookte imitatie van echte psychologen zijn.
Zit je zelf met duistere gedachten? Je kan altijd terecht op de Zelfmoordlijn, op het gratis nummer 1813, of op zelfmoordlijn1813.be.






Reactie toevoegen