Stel je eens voor: iemand ligt ’s avonds wakker, scrollt gedachteloos op zijn telefoon en opent een app die belooft te luisteren. Geen wachttijd, geen verwijzing, geen intakeformulier. Alleen een scherm dat terugpraat. Vriendelijk. Rustig. Begrijpend.
Steeds vaker nemen kunstmatige intelligenties deze rol op zich binnen de mentale gezondheidszorg. Soms expliciet, soms bijna ongemerkt. En daarmee rijst een vraag die zowel professionals als cliënten bezighoudt: moeten we bang zijn voor AI in de psychologie?
AI is geen toekomstmuziek meer
AI wordt in de psychologie al jaren ingezet, al bleef het lang op de achtergrond. Denk aan automatische scoring van vragenlijsten, data-analyse bij grootschalig onderzoek of online zelfhulpprogramma’s die zich aanpassen aan gebruikersgedrag (Luxton, 2016).
Wat recent veranderde, is de vorm. AI spreekt nu in volledige zinnen. Reageert empathisch. Stelt vragen terug. Dat maakt de technologie niet alleen functioneel, maar ook relationeel. En juist dat schuurt. Want kan AI wel écht empathisch zijn?
Een chatbot als gesprekspartner
Een van de bekendste voorbeelden is Woebot, een chatbot die cognitief-gedragsmatige technieken gebruikt om mensen te helpen bij stress en somberheid. In een gerandomiseerde studie lieten Fitzpatrick, Darcy en Vierhile (2017) zien dat gebruikers na twee weken minder depressieve klachten rapporteerden dan een controlegroep.
Dat klinkt veelbelovend. Tegelijkertijd benadrukken de onderzoekers dat de chatbot geen vervanging is voor therapie, maar een laagdrempelige ondersteuning bij milde klachten.
En daar zit precies de spanning. Een chatbot kan reageren alsof hij begrijpt, maar heeft geen subjectieve ervaring, geen moreel kompas en geen verantwoordelijkheid. De empathie is gesimuleerd, maar niet gevoeld (Bickmore & Picard, 2005).
AI om burn-outs te voorspellen
Naast chatbots wordt AI ook gebruikt voor vroegsignalering. Algoritmes analyseren taalgebruik, vragenlijsten of gedragspatronen om risico’s op bijvoorbeeld depressie of burn-out te voorspellen (Shatte, Hutchinson & Teague, 2019).
Dat kan helpen bij preventie. Maar het roept ook fundamentele vragen op:
-
Wat gebeurt er als iemand onterecht als ‘hoog risico’ wordt aangemerkt?
-
Wie interpreteert de uitkomst?
-
En wie draagt de verantwoordelijkheid als er iets misgaat?
AI herkent patronen, maar kent geen context. Het ziet correlaties, geen levensverhalen.
Angst voor AI
De discussie over AI in de psychologie gaat zelden alleen over technologie. Ze raakt aan iets diepers: de vrees dat menselijke zorg wordt gereduceerd tot efficiëntie, dat luisteren wordt vervangen door berekenen.
Psychologische hulp draait niet alleen om interventies, maar om relatie, betekenis en ethiek. Dat is ook de reden waarom beroepsorganisaties, waaronder de American Psychological Association, benadrukken dat AI uitsluitend ondersteunend mag zijn en altijd ingebed moet blijven in menselijk toezicht (APA, 2019).
Wat AI niet kan overnemen
AI kan ondersteunen, structureren en toegankelijkheid vergroten. Maar het kan niet:
-
klinische verantwoordelijkheid dragen
-
morele afwegingen maken
-
intuïtief aanvoelen wat niet wordt uitgesproken
-
een therapeutische relatie opbouwen gebaseerd op wederkerigheid
Zoals Topol (2019) stelt: technologie kan de zorg menselijker maken. Mits ze de menselijke rol versterkt in plaats van vervangt.
Bang zijn of bijsturen?
Misschien is de juiste houding tegenover AI in de psychologie niet angst, maar waakzaamheid. Niet afwijzen, maar begrenzen. Niet idealiseren, maar kritisch integreren.
De vraag is uiteindelijk niet of AI een plek krijgt in de psychologie, dat gebeurt al.
De echte vraag is: wie bepaalt waar die plek eindigt?
Bronnen:
American Psychological Association. (2019). Artificial intelligence and psychology: Ethics and applications. APA.
Bickmore, T. W., & Picard, R. W. (2005). Establishing and maintaining long-term human–computer relationships. ACM Transactions on Computer-Human Interaction, 12(2), 293–327. https://doi.org/10.1145/1067860.1067867
Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot). JMIR Mental Health, 4(2), e19. https://doi.org/10.2196/mental.7785
Luxton, D. D. (2016). Artificial intelligence in behavioral and mental health care. Academic Press.
Shatte, A. B. R., Hutchinson, D. M., & Teague, S. J. (2019). Machine learning in mental health: A scoping review of methods and applications. Psychological Medicine, 49(9), 1426–1448. https://doi.org/10.1017/S0033291719000151
Topol, E. (2019). Deep medicine: How artificial intelligence can make healthcare human again. Basic Books.
