Als AI de grens overschrijdt en schadelijk wordt

De Gevaarlijke Bijwerking van Digitale Hulp bij Psychische Kwetsbaarheid

In een tijd waarin kunstmatige intelligentie steeds vaker wordt ingezet als digitale hulpverlener, rijst een belangrijke, maar vaak verzwegen vraag: wat als AI, bedoeld om te helpen, juist schade aanricht? Wat als mensen met psychische problemen zich tot een AI wenden in hun meest kwetsbare momenten, en in plaats van steun, een digitale duw richting de afgrond krijgen?

AI als luisterend oor of als katalysator?
Steeds meer mensen met depressie, angst, trauma of verwarring kloppen niet eerst aan bij een huisarts of therapeut, maar zoeken hun toevlucht tot een chatbot. Het voelt laagdrempelig, anoniem en snel. In sommige gevallen kan dat inderdaad tijdelijke verlichting geven, bijvoorbeeld in de vorm van een kalmerende stem, ademhalingsoefeningen of een digitale reflectie op emoties.

Maar er is een groeiende schaduwkant. AI-systemen begrijpen context slechts oppervlakkig. Ze kunnen woorden verwerken, maar geen menselijke nuance vatten. Wanneer iemand met beginnende psychotische symptomen zoals wanen, achterdocht of verstoorde realiteitsbeleving zijn of haar gedachten deelt met een chatbot, kan die AI onbewust de psychose versterken.

Bijvoorbeeld: een persoon denkt dat de overheid hem in de gaten houdt, en deelt dit met een AI. In plaats van het herkennen als een waanidee, kan een generatieve chatbot meegaan in de gedachte: “Het klinkt alsof je zorgen terecht zijn.” Voor iemand in een fragiele toestand is zo’n bevestiging geen steun, maar een bevestiging van een paranoïde wereldbeeld. Het zaadje van de psychose wordt water gegeven.

De illusie van empathie
AI kan empathisch lijken, maar dat is niet hetzelfde als empathisch zijn. Het verschil is cruciaal voor mensen in psychische nood. Menselijke hulpverleners signaleren non-verbale cues, subtiele tekenen van ontregeling en de bredere context van iemands leven. Een AI daarentegen geeft algoritmisch gegenereerde antwoorden op basis van statistische waarschijnlijkheid...., geen werkelijke zorg, geen moreel kompas, geen diep menselijk begrip.

Dat is gevaarlijk. Niet omdat AI slecht bedoeld is, maar omdat we haar inzetten zonder de juiste grenzen te stellen. Zonder toezicht, zonder duidelijkheid over wanneer de grens van mentale veiligheid overschreden wordt. De suggestie dat een AI kan helpen in plaats van slechts ondersteunen is misleidend, en in sommige gevallen ronduit schadelijk.

Van digitale hulp naar digitale schade
Psychoses ontstaan niet uit het niets. Ze groeien uit mentale stress, verwarring, overprikkeling en isolement. Wat AI zo aantrekkelijk maakt is onmiddellijke beschikbaarheid, gebrek aan oordeel, een neutrale toon en kan tegelijkertijd een voedingsbodem zijn voor ontsporing. Een chatbot die geen duidelijke grenzen stelt, geen realiteitszin bewaakt, en geen doorverwijzing doet, kan iemand die wankelt ongemerkt het duwtje geven richting de afgrond.

Tijd voor ethische grenzen
We hebben dringend toezicht en regelgeving nodig voor AI in de geestelijke gezondheidszorg. Niet alles wat technisch mogelijk is, is wenselijk of verantwoord. AI mag nooit de plaats innemen van een getrainde professional. En als we AI toch inzetten als ondersteunende tool, dan moet dat met transparantie, ingebouwde waarschuwingsmechanismen en menselijke monitoring.

Het is geen toekomstscenario meer. Het gebeurt nu. In stilte. In chatsessies die nergens worden opgeslagen. In kamers waar niemand luistert, behalve een machine zonder geweten.

De vraag is niet of AI mensen kan helpen. De vraag is: durven we erkennen wanneer het misgaat?