The IMMERSE blog


Volg onze Twitter-account @Immerse_Project om op de hoogte te blijven.

Jeroen Weermeijer

Postdoctoral Researcher

KU Leuven

27/08/2024

RoboTherapeuten: binnenkort bij jou op de bank, of blijven ze nog in de cloud?



Over ongeveer twee maanden vier ik het zesjarige jubileum van mijn studie naar de digitalisering van geestelijke gezondheidszorg, en wat een reis is het geweest. Toen ik aan deze reis begon, zag ik digitale technologie als een soort gereedschap om geestelijke gezondheidsproblemen beter te begrijpen en behandelen. Zes jaar geleden had ik nooit gedacht dat AI een therapeut zou kunnen 'vervangen'. Vandaag de dag denk ik daar anders over, en het idee is, zachtjes gezegd, zowel fascinerend als een beetje beangstigend. Hieronder bespreek ik drie technologische vooruitgangen die de aanwezigheid van een ‘RoboTherapeut’ faciliteren, en ik sluit af met het beantwoorden van de vraag of ik persoonlijk advies zou zoeken bij een RoboTherapeut mocht deze ooit (of wanneer deze zal) bestaan.


Vooruitgang 1: De Mensachtige Stem van AI


Als je wel eens sci-fi films kijkt, heb je waarschijnlijk opgemerkt dat AI vaak een stem heeft die duidelijk niet menselijk is. Als het wel menselijk klinkt, mist het meestal emotionele nuance. Dit was lange tijd ook het geval in de echte wereld. Neem bijvoorbeeld de Sophia-robot van Hanson Robotics uit 2016 — haar stem en manier van communiceren waren, hoewel geavanceerd, nog steeds merkbaar robotachtig en emotieloos. Recentelijke technologische vooruitgangen hebben echter de situatie veranderd. Met slechts 90 seconden audio kan software nu stemmen bijna perfect klonen, inclusief emotionele nuances zoals intonatie en schommelingen in snelheid. Sommige AI-stemmen zijn zo menselijk dat je zou kunnen denken dat je met een echt persoon aan het praten bent. Bijvoorbeeld, GPT-4o toont deze vooruitgang met ongelooflijk levensechte interacties.


Vooruitgang 2: Het Vermogen van AI om Psychologische Betekenis van taal te Begrijpen


Een veelgehoord argument tegen een RoboTherapeut is dat AI de diepere psychologische betekenis achter wat mensen zeggen niet kan begrijpen. Echter, dit argument wordt steeds minder relevant naarmate AI-technologie verder ontwikkelt. Moderne AI-systemen zijn ontworpen om tekst te analyseren op manieren die steeds meer lijken op menselijk begrip. Ze kunnen emotionele en psychologische details oppikken door patronen en sentimenten te detecteren, waardoor ze niet alleen de letterlijke betekenis kunnen interpreteren, maar ook de onderliggende emoties. Zo kan AI tegenwoordig taken uitvoeren zoals het detecteren van een gemoedstoestand. Hoewel AI nog niet volledig kan tippen aan het emotionele inzicht van mensen, maakt het indrukwekkende voortuitgang.


Vooruitgang 3: Patroonherkenning


Hoewel AI gegevens kan verwerken en reacties kan genereren, "voelt" of begrijpt het niet op dezelfde manier als een mens. Deze beperking benadrukt het fundamentele verschil tussen menselijke en kunstmatige intelligentie: de reacties van AI komen voort uit patronen en algoritmen, niet uit oprechte empathie of levenservaringen. Echter, het herkennen van patronen en het bewust maken van patiënten hiervan, is een centraal onderdeel van wat therapeuten doen in therapie. Dit roept een intrigerende vraag op: als je honderden uren aan therapiesessies zou opnemen en die gegevens aan een AI zou voeren, zou het dan voldoende patroonherkenning kunnen ontwikkelen om zijn eigen vorm van therapie te bieden?


Waarom Ik Toch Voor Menselijke Therapie Zou Kiezen


Samenvattend: moderne AI kan nu stemmen klonen met emotionele nuances, psychologische betekenis begrijpen door tekst te analyseren, en hoewel het ware empathie mist, zou het misschien therapie kunnen bieden door middel van geavanceerde patroonherkenning. Toch is de interactie niet echt menselijk, en ik weet niet zeker of ik persoonlijk in staat zou zijn om mijn diepste gedachten en gevoelens te delen met iets in plaats van iemand. Het doet me denken aan het rode en blauwe pil-dilemma uit The Matrix: de blauwe pil nemen betekent genieten van een geruststellende illusie, terwijl de rode pil betekent dat je geconfronteerd wordt met een mogelijk verontrustende werkelijkheid. Kiezen voor een AI-therapeut is als het kiezen van de blauwe pil — genieten van de illusie van menselijke interactie zonder te erkennen dat het nog steeds een kunstmatige constructie is. AI kan een overtuigende façade van empathie en begrip bieden, maar het mist fundamenteel (naar mijn mening) de levenservaringen, emotionele diepgang en oprechte menselijke verbinding die echte therapeuten kunnen bieden. Net zoals de rode pil de waarheid achter de illusie onthult, kan het besef dat een AI niet echt menselijk is, een harde herinnering zijn aan zijn beperkingen. Na bijna zes jaar in dit veld blijf ik hoopvol dat technologie therapie zal blijven ondersteunen — zoals we proberen te doen met ons DMMH-instrument — in plaats van de diep menselijke verbinding te vervangen die essentieel is voor therapeutisch succes. Toch vraag ik me af wat anderen zouden doen als ze de keuze hadden — zou jij een RoboTherapeut bezoeken?