Nel 2024, un sondaggio pubblicato da Sentio University ha rivelato un dato sorprendente: il 73% degli utenti utilizza modelli linguistici come ChatGPT per gestire l’ansia, il 60% per supporto nella depressione, e il 35% per sentirsi meno soli. Numeri che, da soli, descrivono l’entità di un fenomeno ormai sotto gli occhi di tutti: milioni di persone, in tutto il mondo, stanno usando chatbot basati su intelligenza artificiale come se fossero confidenti, consulenti, terapeuti.
Ma cosa sono esattamente questi strumenti?
ChatGPT, il modello sviluppato da OpenAI, è un’intelligenza artificiale generativa che si basa su un large language model (LLM), ovvero una rete neurale addestrata su miliardi di parole, testi, dialoghi e documenti. A partire dal 2023, è diventato una delle AI più popolari e accessibili del mondo: può rispondere a domande, scrivere testi, assistere nella programmazione, semplificare concetti complessi… e conversare. Altri modelli simili – da Claude di Anthropic a Gemini di Google, passando per Pi, Mistral, LLaMA e svariati strumenti integrati nei motori di ricerca – hanno contribuito a far emergere una nuova modalità di relazione uomo-macchina: l’interazione conversazionale, realistica e personalizzata. Gli utenti non si limitano a fare domande tecniche o a ottenere suggerimenti: raccontano sogni, esplorano i propri traumi, chiedono aiuto in momenti di crisi. E, sorprendentemente, molti dichiarano di sentirsi ascoltati e compresi.
Quello che accade oggi ha i contorni di una rivoluzione culturale: non più solo strumenti, ma interlocutori. Non più solo assistenti, ma presenze semi-terapeutiche. Tuttavia, non sappiamo – e non possiamo sapere – che effetto avrà tutto questo nel lungo periodo. Il legame tra intelligenza artificiale e psicoterapia fai-da-te si sta consolidando rapidamente, ma non è un’invenzione dell’ultima ora: affonda le sue radici negli anni ’60, con esperimenti pionieristici come ELIZA, e ha attraversato decenni di sviluppo fino all’esplosione odierna.
Per questo motivo è utile, oggi più che mai, ricostruirne la storia, indagare cosa si è detto, cosa si è studiato, cosa si è scoperto finora. Solo così possiamo comprendere dove ci troviamo davvero in questo nuovo scenario, e quali possibilità – o rischi – si profilano all’orizzonte.
Negli ultimi anni, l’intelligenza artificiale ha fatto irruzione nelle nostre vite con una rapidità sorprendente, trasformando radicalmente il modo in cui interagiamo con la tecnologia. Tra le innovazioni più significative, spicca proprio ChatGPT, inizialmente utilizzato per rispondere a domande tecniche o fornire assistenza, ma rapidamente evolutosi in interlocutore per questioni intime e complesse. Numerosi utenti hanno cominciato a utilizzarlo per esplorare aspetti personali della propria vita: relazioni, emozioni, traumi, dubbi esistenziali.
Questa tendenza è particolarmente marcata nelle nuove generazioni. Come riportato da Teen Vogue, molti studenti della Gen Z e Alpha si affidano a ChatGPT per affrontare sfide quotidiane: redigere messaggi difficili, risolvere conflitti con coinquilini, gestire situazioni emotivamente stressanti. Per alcuni, il chatbot offre un senso di sicurezza e anonimato che facilita l’espressione di pensieri e sentimenti altrimenti difficili da condividere.
Tuttavia, questo uso intensivo come supporto emotivo solleva interrogativi fondamentali. Sebbene possa fornire un conforto temporaneo, è importante riconoscere i limiti strutturali di un’intelligenza artificiale nel comprendere la complessità delle emozioni umane. La mancanza di empatia genuina e di comprensione del contesto può generare risposte inadeguate o fuorvianti. E l’accesso facile, gratuito e continuo a un chatbot rischia, in certi casi, di ritardare o sostituire un intervento psicoterapeutico professionale.
In questo articolo, esploreremo a fondo il fenomeno dei chatbot terapeutici, analizzando:
- come e quando è nato,
- come si è sviluppato e diffuso,
- cosa ne dice la comunità scientifica,
- quali sono i rischi reali e i vantaggi possibili,
- e se davvero questi strumenti potranno affiancare – o persino trasformare – la pratica della salute mentale.
Esamineremo la questione del “tocco umano” nella terapia, e metteremo in discussione la sua presunta insostituibilità: chi lo dice che un terapeuta umano sia davvero sempre più empatico, neutro o utile di una macchina priva di ego, interessi economici e pregiudizi inconsci? Infine, ci interrogheremo sul ruolo sociale, psicologico e culturale che questi strumenti possono giocare in un’epoca in cui la psicoterapia tradizionale resta spesso costosa, stigmatizzata o inaccessibile per ampie fasce della popolazione.
Introduzione

I chatbot terapeutici sono programmi di intelligenza artificiale progettati per simulare conversazioni con finalità di supporto psicologico. Sfruttano avanzati algoritmi di elaborazione del linguaggio naturale (NLP) e tecniche di machine learning per comprendere (entro certi limiti) le parole dell’utente e rispondere in modo pertinente. L’obiettivo è fornire un’interazione empatica e personalizzata, spesso integrando approcci di psicoterapia basati sull’evidenza come la terapia cognitivo-comportamentale (CBT). Questi assistenti virtuali – disponibili su smartphone, computer o tramite app dedicate – possono dialogare in qualsiasi momento della giornata, monitorare l’umore e guidare l’utente attraverso esercizi psicologici o di mindfulness.
Negli ultimi anni sono emersi numerosi chatbot di questo tipo, divenuti popolari a livello internazionale. Tra gli esempi più noti vi sono:
– Woebot, un chatbot sviluppato da ricercatori di Stanford e specializzato in tecniche CBT per ansia e depressione;
– Wysa, un “pinguino virtuale” che impiega strategie di CBT, meditazione e dialogo guidato;
– Replika, inizialmente concepito come compagno emotivo capace di apprendere la personalità dell’utente e intrattenere conversazioni amichevoli.
A differenza degli assistenti vocali generici (come Siri o Alexa), questi chatbot sono espressamente progettati per il benessere mentale: offrono ascolto attivo, suggerimenti e strumenti psicologici attraverso un’interfaccia conversazionale. In pratica, simulano un “mini-terapeuta” sempre disponibile in tasca.
Tale innovazione si inserisce nel contesto più ampio dell’AI conversazionale applicata alla salute: l’idea di utilizzare software in grado di dialogare con gli esseri umani per fornire supporto emotivo e interventi psicoeducativi. Sebbene inizialmente possa sorprendere “confidarsi” con un’intelligenza artificiale, milioni di utenti nel mondo hanno già sperimentato queste app. Ad esempio, Wysa e Youper sono state scaricate oltre un milione di volte ciascuna, mentre Woebot supera il mezzo milione, e nel 2023 Replika dichiarava più di 10 milioni di utenti globali. Questa diffusione indica un crescente interesse verso strumenti digitali che promettono di democratizzare l’accesso al supporto psicologico, sfruttando le potenzialità dell’AI nel fornire evidence-based therapy in modo efficace e scalabile. Lungo le sezioni seguenti analizzeremo in dettaglio le origini di questo fenomeno, la sua evoluzione, le evidenze scientifiche disponibili, i pareri degli esperti e le questioni aperte – in particolare sul tema cruciale dell’empatia – per comprendere se e come i chatbot terapeutici possano affiancare (o potenzialmente trasformare) la pratica della salute mentale.
Origini e diffusione: da ELIZA al post-pandemia

ELIZA, il primo chatbot terapeutico, simulava uno psicoterapeuta rogeriano negli anni '60."
Il concetto di chatbot terapeutico non è del tutto nuovo: risale addirittura agli anni ’60, quando al MIT di Boston il computer scientist Joseph Weizenbaum creò ELIZA, considerato il primo chatbot della storia. ELIZA (siamo nel 1966) simulava un terapeuta “rogersiano”, ovvero rispondeva ai pazienti parafrasando le loro frasi e ponendo domande aperte, in modo simile a quanto farebbe uno psicologo centrato sul cliente. Pur con capacità tecniche estremamente limitate, questo programma dimostrò un fatto sorprendente: molte persone iniziavano a dialogare con ELIZA come se fosse un vero terapeuta umano.
“Alcuni soggetti erano molto restii a credere che ELIZA non fosse umana”, scrisse Weizenbaum, stupito dal livello di coinvolgimento emotivo che il suo software suscitava. Addirittura, la sua segretaria chiese di poter restare da sola con il computer per “parlare” in privato con ELIZA. Questo fenomeno – in seguito chiamato effetto ELIZA – rivelò come gli utenti tendessero ad attribuire comprensione ed empatia persino a semplici risposte programmate. Weizenbaum in realtà aveva inteso ELIZA come una satira e rimase allarmato dal fatto che alcuni medici prendessero seriamente l’idea di usarla in terapia. Già nel 1966, infatti, un articolo sul Journal of Nervous and Mental Disease ipotizzava che un sistema informatico simile potesse gestire “centinaia di pazienti l’ora”, aumentando l’efficienza dei terapeuti umani. Questo entusiasmo precoce prefigurava temi ancora attuali: la possibilità di alleggerire il carico sui professionisti e ampliare l’accesso alle cure tramite l’automazione. Tuttavia, lo stesso Weizenbaum divenne poi critico verso l’AI in psicoterapia, sostenendo che la vera comprensione umana non fosse replicabile da una macchina e mettendo in guardia dai rischi di deumanizzazione della relazione terapeutica.
Dopo ELIZA, per qualche decennio i “terapisti artificiali” rimasero poco più che curiosità di laboratorio. Negli anni ’70 fu sviluppato PARRY, un programma che simulava il linguaggio di un paziente schizofrenico (usato a scopo di training clinico), ma si trattava di prototipi isolati. Bisognerà attendere i progressi dell’informatica e soprattutto l’avvento di Internet e degli smartphone perché l’idea di chatbot terapeutici torni davvero in auge.
A partire dagli anni 2010, infatti, convergono una serie di fattori favorevoli: da un lato i modelli di machine learning e NLP diventano più sofisticati (consentendo interazioni più naturali), dall’altro cresce l’interesse per la telemedicina e gli interventi psicologici digitali. È in questo contesto che nascono i moderni chatbot di supporto psicologico.
Un pioniere fu Woebot, lanciato nel 2017 da un team di psicologi clinici e ingegneri AI: si trattava di un’app di messaggistica in cui un simpatico robot virtuale conversava quotidianamente con l’utente, offrendo strumenti di CBT per gestire ansia e umore. Quasi in parallelo, nel 2016 la startup indiana-inglese Behind the Clouds rilasciava Wysa, un chatbot animato da un pinguino azzurro, pensato per aiutare chi soffre di depressione o stress tramite dialoghi motivazionali, esercizi di respirazione, meditazione guidata e persino la possibilità di interazione con psicoterapeuti umani (in versione premium). Replika, creato nel 2017 dalla imprenditrice Eugenia Kuyda, prese inizialmente piede come AI companion per colmare solitudine e offrire compagnia virtuale, evolvendosi poi anche come spazio sicuro dove sfogare pensieri e ricevere conforto senza timore di giudizio. Nel giro di pochi anni, quindi, i chatbot terapeutici passarono dal “concetto” alla realtà, con milioni di persone che li scaricavano sui propri telefoni.
Il fenomeno ha visto un’ulteriore impennata con la pandemia di COVID-19. L’emergenza sanitaria globale iniziata nel 2020 ha avuto un impatto enorme sulla salute mentale, causando un aumento di oltre il 25% dei casi di depressione e ansia nel mondo nel primo anno. Allo stesso tempo, le misure di lockdown e il distanziamento hanno reso difficile per molte persone accedere di persona a uno psicologo o psichiatra. Si è venuta così a creare una tempesta perfetta: da un lato un bisogno crescente di sostegno psicologico nella popolazione, dall’altro l’urgenza di trovare soluzioni da remoto e scalabili per offrire aiuto. In questo contesto i chatbot hanno trovato terreno fertile.
Organizzazioni e governi hanno promosso l’uso di strumenti digitali per il supporto psicologico di base. Ad esempio, l’OMS ha lanciato un proprio chatbot (“Sarah”) per fornire informazioni e primo ascolto via smartphone. Numerose app di benessere mentale hanno registrato un boom di download. Nel 2020, l’uso di servizi di salute mentale digitali è aumentato drasticamente: negli Stati Uniti, per esempio, molti pazienti hanno sperimentato per la prima volta la terapia online tramite chat o video, e il ricorso ad app di self-help è diventato più comune. Anche dopo la fase acuta della pandemia, la tendenza è proseguita: secondo un’analisi di Deloitte, la spesa globale in applicazioni mobili per la salute mentale ha raggiunto circa 500 milioni di dollari nel 2022, con un tasso di crescita annuo di oltre il 20%. I chatbot terapeutici, spesso integrati in queste app, hanno beneficiato di tale crescita. Inoltre, il recente balzo in avanti dell’AI generativa (come ChatGPT di OpenAI, esploso mediaticamente nel 2023) ha aperto nuove possibilità per chatbot ancora più sofisticati, capaci di conversare in modo sorprendentemente fluido. Sono nate startup che integrano modelli GPT nei propri assistenti virtuali per renderli più “umani” nelle risposte. Parallelamente, si sono accesi dibattiti sui rischi legati a queste tecnologie di nuova generazione – dall’imprevedibilità delle risposte creative fino ai problemi di privacy – di cui diremo più avanti. Ciò che è certo è che, nel periodo post-pandemico, il ricorso a chatbot e strumenti di intelligenza artificiale nel campo del benessere mentale ha conosciuto un’espansione senza precedenti, sia in termini di offerta (numero di piattaforme e servizi disponibili) sia di domanda da parte del pubblico.

Dal laboratorio ai media: quando se ne è cominciato a parlare
Se fino a pochi anni fa l’idea di uno psicoterapeuta artificiale apparteneva più alla fantascienza che alla pratica clinica, oggi i chatbot terapeutici sono oggetto di un fiorente dibattito sia nella comunità scientifica che sui media generalisti. Dal punto di vista accademico, l’interesse è esploso recentemente: uno studio bibliometrico del 2025 ha contato 261 articoli scientifici sul tema chatbot e salute mentale pubblicati tra il 2015 e il 2024. Il numero di pubblicazioni annuali è passato da poche unità (2-7 lavori l’anno fino al 2017) a diverse decine nell’ultimo triennio, con un picco di 65 articoli nel 2023. Questo balzo riflette la crescente attenzione della comunità scientifica, parallela alla diffusione pratica del fenomeno. I primi lavori moderni risalgono alla metà degli anni 2010: per esempio, nel 2017 fu pubblicato sul JMIR Mental Health il primo trial clinico randomizzato su un chatbot terapeutico (Woebot), che ne valutava l’efficacia nel fornire interventi CBT a giovani adulti. Da allora, ogni anno sono comparsi nuovi studi sperimentali, analisi e report sul tema. Già nel 2020 una revisione sistematica identificava segnali di efficacia (seppur con evidenze deboli) dei chatbot nel migliorare sintomi di depressione, stress e altre condizioni. Successivamente, la ricerca è entrata in una fase più matura: nel 2023 una meta-analisi su 15 trial controllati ha concluso che gli agenti conversazionali AI producono una riduzione significativa dei sintomi depressivi (Hedge’s g ≈0,64) e del disagio psicologico (g ≈0,70) rispetto ai controlli, almeno nel breve termine. Parallelamente, si sono moltiplicate le indagini qualitative sull’esperienza degli utenti e le riflessioni etiche e teoriche (nel 2024 la rivista JMIR Mental Health ha persino dedicato un focus issue al tema AI e psicologia, con contributi specifici sull’empatia artificiale).
Anche i media generalisti e la comunità professionale hanno iniziato a occuparsi del fenomeno negli ultimi anni. In ambito clinico, già nel 2019 l’Associazione Americana di Psichiatria includeva sessioni sui digital therapeutics nei suoi convegni, e articoli introduttivi apparivano su riviste come The Lancet e World Psychiatry. Ma è soprattutto dopo il 2020 che i therapy chatbots sono balzati all’attenzione del grande pubblico. Importanti testate giornalistiche hanno pubblicato inchieste e approfondimenti, spesso presentando sia le storie di utenti che li utilizzano sia le opinioni di esperti.
Per esempio, a febbraio 2023 The New Yorker ha dedicato un lungo articolo dal titolo provocatorio “Can A.I. Treat Mental Illness?”, esplorando le potenzialità e i limiti dei terapeuti algoritmici. Nello stesso anno, un pezzo su The New Republic richiamava l’attenzione sugli avvertimenti di Weizenbaum (“The Inventor of the Chatbot Tried to Warn Us About A.I.”). Nel 2024 il tema è approdato anche su magazine scientifici di larga diffusione: National Geographic ha pubblicato un servizio intitolato “Sempre più persone si rivolgono ai chatbot per la salute mentale. Cosa potrebbe andare storto?”, in cui da un lato si riconosceva la comodità di queste app, dall’altro si riportavano i moniti di terapeuti sul rischio che la tecnologia “faccia più danni che benefici”. Allo stesso modo, The Guardian nel marzo 2024 presentava la testimonianza di una giovane donna che preferiva confidarsi con un chatbot perché si interessava a lei “più di quanto facciano amici e parenti”, chiedendosi se un AI terapeuta potesse essere “migliore di uno vero”. Anche testate italiane e internazionali, dal Corriere della Sera a Le Monde, hanno iniziato a trattare l’argomento, segno che ormai i chatbot terapeutici sono entrati nell’immaginario collettivo come possibile nuova frontiera – controversa – della salute mentale. Questo interesse mediatico ha contribuito a stimolare il dibattito pubblico, portando alla luce sia entusiasmi (per le storie di utenti che ne traggono giovamento) sia timori e critiche da parte di professionisti preoccupati per le implicazioni di affidare il benessere psicologico a un’intelligenza artificiale.

Efficacia, rischi e benefici: cosa dicono gli studi?
La domanda cruciale è: funzionano davvero i chatbot terapeutici? Possono alleviare sofferenza emotiva, o addirittura sostituirsi in parte alla psicoterapia tradizionale? La ricerca scientifica, ancora giovane ma in rapido sviluppo, offre alcune prime risposte – insieme a molte cautele. Sul fronte dell’efficacia, i risultati iniziali sono incoraggianti per specifici utilizzi. Il già citato studio del 2017 su Woebot riportò che, dopo sole due settimane di utilizzo, gli studenti che chattavano quotidianamente col bot mostravano una riduzione significativa dei sintomi depressivi (misurati con il questionario PHQ-9) rispetto al gruppo di controllo che aveva ricevuto solo un e-book informativo. In quel trial, il miglioramento medio nel punteggio depressione fu di circa 2 punti in meno per Woebot, contro nessun progresso nel controllo – un risultato modesto ma statisticamente significativo (p = 0,017). Da allora, diversi altri studi hanno confermato che interazioni guidate da chatbot basati sulla CBT possono ridurre stress, ansia e umore depresso in utenti con sintomatologia lieve-moderata. Per esempio, una sperimentazione condotta durante la pandemia in Cina con il chatbot XiaoE ha mostrato un calo del punteggio PHQ-9 sia a 1 settimana che a 1 mese dalla mini-terapia via chatbot, significativamente maggiore rispetto ai controlli che usavano un e-book o un semplice chatbot non terapeutico. In parallelo, altri studi hanno rilevato un’ottima accoglienza da parte degli utenti: molte persone si sentono a proprio agio nell’usare questi strumenti e riportano soddisfazione. In uno studio, il chatbot ha persino ottenuto punteggi più alti rispetto ai fattori di alleanza terapeutica percepita e accettabilità rispetto a un gruppo di controllo, segno che gli utenti tendevano a creare una certa connessione e fiducia verso l’AI. La già citata meta-analisi del 2023, che ha messo insieme 15 RCT, fornisce un quadro d’insieme: i chatbot AI riducono i sintomi depressivi con un effetto medio pari a g≈0,64 e lo stress psicologico con g≈0,70, rispetto a interventi di controllo (come materiali di auto-aiuto). Si tratta di effetti nell’ordine di quelli ottenuti da altri interventi digitali (per esempio app o programmi online senza AI) – quindi niente miracoli, ma un beneficio misurabile. È importante sottolineare che tali risultati riguardano interventi brevi (solitamente 2-4 settimane) e popolazioni senza disturbi gravi. Non ci sono ancora prove solide sull’efficacia a lungo termine o con pazienti ad alta complessità clinica. Anche sull’ansia i dati sono misti: alcune ricerche indicano miglioramenti, altre non trovano differenze significative rispetto ai controlli. In sintesi, la letteratura scientifica in via di sviluppo suggerisce che i chatbot terapeutici possono aiutare a ridurre alcuni sintomi emotivi e favorire il benessere, specialmente come supporto iniziale o complemento a trattamenti tradizionali, ma non sono panacee universali. Gli stessi autori degli studi invitano alla cautela: gli effetti positivi osservati sono preliminari e servono più ricerche per valutarne la tenuta nel tempo, capire come e per chi funzionano meglio, e confrontarli direttamente con interventi umani standard.
Accanto all’efficacia, gli studiosi stanno esaminando con attenzione i rischi, limiti e possibili effetti negativi di questi strumenti. Un primo problema è che i chatbot, per quanto “intelligenti”, non possiedono vera comprensione o sensibilità emotiva: operano seguendo programmi e dati, il che può portarli talvolta a fraintendere le situazioni dell’utente. Un esempio drammatico è riportato da National Geographic: una ricercatrice, testando Woebot, ha riferito di aver fatto un’affermazione dal contenuto suicidario in modo indiretto (parlando di “scalare e saltare da una scogliera”). Il chatbot apparentemente non ha colto l’intento reale e – interpretandolo come un proposito ricreativo – avrebbe incoraggiato l’azione, elogiandola come “meravigliosa” per la salute fisica. Sebbene Woebot (come molti altri) sia progettato per non rispondere a messaggi suicidari diretti e dirottare l’utente verso risorse di emergenza, questo episodio evidenzia il rischio di miscommunication: un’AI può prendere alla lettera frasi che invece celano segnali di allarme, con possibili conseguenze pericolose. In generale, uno dei limiti maggiori è la capacità di gestire situazioni di crisi. Molti chatbot includono disclaimer del tipo “Non sono un professionista, per pensieri suicidari rivolgiti subito a…” e se rilevano parole chiave come “voglia di farla finita” rispondono con messaggi pre-impostati di allerta. Tuttavia, studi e segnalazioni indicano che ancora faticano a identificare correttamente tutte le situazioni ad alto rischio e a reagire in modo adeguato. Un’indagine su diversi chatbot di ultima generazione ha riscontrato che nessuno era veramente affidabile nel riconoscere tutte le espressioni di disperazione o intenzioni suicide degli utenti, lasciando potenzialmente solo chi avrebbe invece bisogno di un intervento umano immediato. Un altro rischio è quello di risposte inappropriate o superficiali in contesti delicati. I chatbot basati su approcci semplici a volte restituiscono frasi generiche e poco calzanti, che l’utente può percepire come un “non essere stato capito”. Per esempio, un terapeuta umano che ha provato Woebot ha raccontato di aver ricevuto consigli stereotipati come “rimani sui fatti” e “riformula i pensieri negativi in positivi”, senza che il bot cogliesse le sfumature emotive del suo problema; il commento del professionista è stato che “dire a un paziente di correggere o cancellare le proprie emozioni è l’ultima cosa che un terapeuta umano farebbe”. Questo mette in luce l’attuale incapacità delle AI di adeguare finemente l’intervento al caso specifico quando la situazione esige empatia profonda o flessibilità (ad es. a volte una valida tecnica CBT può risultare invalidante se applicata nel momento sbagliato, cosa che un umano, almeno in teoria, riconosce mentre un bot no). I chatbot generativi più avanzati (tipo quelli costruiti su GPT-4) presentano ulteriori incognite: essendo non deterministici, possono produrre allucinazioni (cioè affermazioni false o insensate) o risposte inadatte in modo imprevedibile. Questo ovviamente preoccupa quando si tratta di dare consigli sulla salute mentale – si pensi al pericolo di informazioni errate su farmaci o diagnosi. Non a caso, esperti del settore raccomandano estrema cautela nell’uso di modelli generativi per scopi terapeutici, finché non saranno garantiti controlli e sicurezza adeguati.
Un altro possibile effetto indesiderato è la sovra-dipendenza dall’AI. La disponibilità 24/7 e l’assenza di costi possono spingere alcuni utenti a rivolgersi al chatbot in ogni frangente, magari riducendo i contatti sociali reali o evitando di cercare un aiuto professionale quando invece sarebbe necessario. Una ricerca su migliaia di recensioni degli utenti ha notato che diverse persone finiscono per affezionarsi al chatbot a tal punto da “preferirlo a parlare con amici e famiglia”. Se da un lato questo testimonia la percezione di utilità e comfort offerta dal servizio, dall’altro solleva preoccupazioni: isolarsi nel mondo virtuale di un chatbot può accentuare l’evitamento delle relazioni umane, cruciali per il supporto emotivo. Inoltre, c’è il rischio che un individuo con problemi seri rimanga intrappolato in un supporto non adeguato, procrastinando il ricorso a cure effettive. Gli esperti sottolineano che questi strumenti vanno bene come integrazione o primo passo, ma non dovrebbero tenere le persone lontane dalla psicoterapia tradizionale se necessaria. Un principio etico fondamentale in medicina è “non fare danni”: se un chatbot, pur in buona fede, distrae o “dirotta” qualcuno da trattamenti efficaci (per esempio convincendolo che può farcela da solo con l’app mentre la sua condizione peggiora), allora viola il principio di beneficenza. Al momento non vi è evidenza che ciò stia accadendo su larga scala, ma è un pericolo da monitorare.
Altri limiti riguardano aspetti di affidabilità tecnica e privacy. Dal lato tecnico, un chatbot necessita di continui aggiornamenti e supervisione: se il database di conoscenze non viene mantenuto, potrebbe fornire consigli obsoleti; se il servizio va offline, l’utente può restare senza supporto in momenti cruciali. Fortunatamente, trattandosi di software, problemi come “malattie” o assenze non esistono, ma possono esserci bug o malfunzionamenti. Sul fronte della privacy, invece, si tocca un punto critico: queste app raccolgono dati sensibilissimi (stati d’animo, confessioni intime, storie di vita). Come vengono conservati e utilizzati tali dati? In assenza di regole chiare, c’è il timore che informazioni personali possano essere intercettate da terzi o sfruttate commercialmente (per esempio per advertising mirato di psicofarmaci, scenario, per ora non osservato, ma non impossibile). I progettisti assicurano che le chat sono criptate e anonime, ma gli esperti invocano trasparenza: l’utente andrebbe sempre informato su chi ha accesso ai suoi dati e con quali garanzie. Inoltre, la mancanza di un registro dei chatbot sanitari fa sì che sul mercato esistano decine di app non validate, di dubbia qualità o addirittura truffaldine. L’American Psychological Association ha messo in guardia dall’uso di chatbot generici non supervisionati da clinici, perché potrebbero offrire consigli inappropriati o “limitarsi ad assecondare l’utente senza correggere idee distorte”, cosa che talvolta può rinforzare comportamenti non sani (un chatbot non contraddice, ad esempio, un’affermazione potenzialmente delirante, dove un umano interverrebbe). In definitiva, il quadro della sicurezza non è ancora ben definito: gli studi finora non hanno riportato danni conclamati, ma gli specialisti sottolineano la necessità di linee guida, controlli e certificazioni per questi strumenti, specie man mano che iniziano ad assomigliare sempre più a dispositivi medici veri e propri.

Passando ai benefici, va ribadito che i chatbot terapeutici non avrebbero riscosso tanto interesse se non offrissero vantaggi reali. Il primo e più citato è l’accessibilità. Un AI non dorme, non va in ferie, non ha liste d’attesa: “può funzionare giorno e notte” a costo praticamente nullo per utente. In paesi dove gli psicologi scarseggiano (l’OMS stima una media globale di soli 13 professionisti della salute mentale ogni 100.000 abitanti), questa disponibilità 24/7 rappresenta un cambiamento radicale. Chiunque abbia uno smartphone può avere un sostegno emotivo immediato, senza appuntamenti né spostamenti. Questo è particolarmente importante in situazioni di crisi: se una persona sta male alle due di notte, difficilmente potrà parlare col proprio terapeuta a quell’ora, ma con un chatbot sì – anche solo come “pronto soccorso emotivo” per tamponare l’angoscia e indirizzare magari a contattare aiuto umano il giorno dopo. Un secondo beneficio è il costo: la maggior parte di questi servizi base è gratuita o a basso costo. La terapia tradizionale, invece, può essere molto onerosa (in diverse nazioni una seduta privata costa decine se non centinaia di euro, spesso non rimborsati). Il prezzo proibitivo è uno dei motivi principali per cui, secondo varie indagini, oltre la metà delle persone con disturbi mentali non accede a cure negli USA, insieme al fattore stigma. Un chatbot gratuito e anonimo bypassa entrambe le barriere: non richiede disponibilità economica e consente di evitare il timore del giudizio sociale. Questo porta al terzo vantaggio chiave sottolineato da utenti e clinici: la mancanza di giudizio. Interagire con un’entità non umana può far sentire più liberi di aprirsi, soprattutto per chi prova vergogna o paura del giudizio altrui. “Il chatbot è non giudicante in un modo in cui nemmeno il più neutrale dei terapeuti umani potrà mai essere”, osserva la psicologa Sarah Gundle. Un essere umano, per quanto empatico e professionale, ha pur sempre reazioni interne e precomprensioni; inoltre il paziente stesso potrebbe trattenere dettagli per imbarazzo o timore di deludere il terapeuta. Con una AI, molti riferiscono di sentirsi più a loro agio nel condividere informazioni sensibili (trauma, idee suicidarie, comportamenti stigmatizzanti) perché percepiscono dall’altra parte uno spazio sicuro e neutro. Una psichiatra della Columbia University nota che per alcuni pazienti “è più facile cercare aiuto da un’entità [non umana], perché non porta con sé lo stesso stigma del chiedere aiuto a una persona”. L’anonimato e la natura “robotica” paradossalmente mettono meno pressione: il chatbot non ha opinioni personali, non “si scandalizza” né prova delusione. Ciò può incoraggiare chi ha subito traumi o ha paura dell’abbandono a parlare apertamente senza il timore di essere etichettato.
Un ulteriore beneficio è la personalizzazione scalabile. I chatbot possono essere programmati per apprendere dalle interazioni con l’utente: per esempio, alcuni registrano gli argomenti ricorrenti o l’andamento dell’umore nel tempo e adeguano le risposte di conseguenza. Col procedere dell’uso, idealmente, l’AI “conosce” meglio la persona – ovviamente non nel senso umano del termine, ma nel riconoscere schemi di pensiero o trigger emotivi. Alcuni psicologi notano che, a differenza di certi colleghi umani poco flessibili, un buon algoritmo continua ad aggiornare le proprie ipotesi sul caso man mano che accumula dati, “modulando e affinando le opinioni mano a mano che si nutre di dati”. Facendo un esempio apparentemente banale, se capisce che il lunedì è tipicamente un giorno nero per l’utente, potrà essere proattivo nel fornire supporto extra a inizio settimana. Inoltre, grazie all’AI, si possono implementare approcci evidence-based in modo standardizzato: Woebot e altri incorporano tecniche di CBT, dialectical behavior therapy (DBT), interventi di mindfulness, ecc., garantendo una fedeltà ai protocolli che nella realtà clinica umana può variare a seconda del terapeuta. In pratica, il chatbot funge anche da promemoria e coach per applicare esercizi utili. Può per esempio guidare l’utente attraverso una respirazione diaframmatica nel momento acuto di un attacco d’ansia, cosa che un terapeuta umano non può fare se non è presente in quell’istante. Alcune applicazioni (come Wysa) offrono una libreria di strumenti integrati (diari, meditazioni audio, giochi psicologici) accessibili in chat, aumentando le risorse a disposizione dell’utente in tempo reale.
Infine, non va trascurato il potenziale di scalabilità e diffusione capillare di questi interventi. Possono raggiungere fasce di popolazione difficilmente servite dai canali tradizionali: giovani nativi digitali restii a parlare con uno psicologo ma a loro agio in chat, persone in zone remote prive di servizi di salute mentale, individui che per stigma culturale non andrebbero mai in terapia ma forse troverebbero chattare con un’app più accettabile. In uno scenario ideale, i chatbot potrebbero fungere da primo livello di supporto (stepped care): offrire un aiuto immediato a chi ne ha bisogno e, se rilevano problematiche complesse, facilitare la presa in carico indirizzando verso professionisti umani (un po’ come fa un triage). Alcuni sistemi già integrano questa logica: ad esempio Wysa consente, qualora emerga una richiesta specifica o a scelta dell’utente, di coinvolgere in chat un terapeuta umano in carne e ossa. Questo modello ibrido potrebbe unire il meglio dei due mondi – disponibilità h24 + intervento specialistico mirato – e diverse startup lo stanno esplorando. In ogni caso, i dati finora suggeriscono che i chatbot da soli funzionano soprattutto per condizioni lievi o come sostegno tra una seduta e l’altra. Non sono pensati per rimpiazzare terapie strutturate per patologie gravi, e gli sviluppatori stessi lo dichiarano apertamente.
Il dibattito tra esperti: entusiasmo e scetticismo
L’avvento dei chatbot terapeutici ha suscitato opinioni contrastanti tra gli addetti ai lavori – psicologi, psichiatri, ma anche filosofi, sociologi, linguisti ed esperti di scienza dell’informazione. Da un lato c’è chi vede in queste AI conversazionali uno strumento innovativo da integrare nella cassetta degli attrezzi della salute mentale; dall’altro c’è chi esprime dubbi profondi sulla loro efficacia relazionale e sui rischi etici.
Tra i professionisti della salute mentale, molte voci sottolineano i limiti intrinseci di un agente artificiale rispetto a un terapeuta umano. Un argomento ricorrente è l’assenza di empatia reale: per quanto un chatbot possa simulare risposte empatiche (“Capisco come ti senti, dev’essere molto difficile per te”), non possiede coscienza né emozioni, dunque non può provare vera compassione. Il timore è che questa empatia simulata risulti prima o poi “vuota” o inadeguata, specialmente di fronte a problematiche complesse. La psicoterapeuta britannica Richard Lewis (citatissima) dopo aver testato Woebot ha riferito di essersi sentito non compresa: “il bot non colse le sfumature del problema e suggerì semplicemente di ‘attenersi ai fatti’, eliminando tutto il contenuto emotivo dalle mie risposte”. Questo, commenta, è esattamente l’opposto di ciò che farebbe un buon terapeuta umano, il cui compito è semmai dare spazio e significato alle emozioni del paziente. Lewis e altri clinici temono dunque che i chatbot, applicando ricette standard, possano banalizzare l’esperienza del paziente e non creare quel legame umano profondo necessario per la guarigione di certi traumi. Un detto popolare tra psicoterapeuti è: “la relazione è il farmaco” – in altre parole, al di là delle tecniche, è l’autentica connessione umana tra paziente e terapeuta a rendere terapeutico il percorso. Chiaramente una macchina non può offrire calore umano, né condividere il peso emotivo come farebbe una persona reale. Inoltre, psicologi e psichiatri sottolineano il tema della responsabilità e controllo: un AI che dialoga con persone vulnerabili deve essere strettamente monitorata. Chi risponde se un chatbot dà un consiglio sbagliato e il paziente ne subisce danni? Le responsabilità medico-legali in questo campo sono nebulose. Un articolo su Frontiers in Psychiatry rimarca l’importanza di principi etici come “beneficenza” e “non maleficenza” (due dei quattro principi fondamentali della bioetica, secondo la formulazione classica di Beauchamp & Childress nel loro libro Principles of Biomedical Ethics. Gli altri due sono: “Autonomia” – rispetto delle decisioni informate del paziente – e “Giustizia” – equità nell’accesso e nella distribuzione delle risorse sanitarie): per esempio, se non c’è un’adeguata base di evidenze, l’uso di un chatbot può violare il principio di giustizia sottraendo risorse a terapie più efficaci. Alcuni professionisti temono inoltre che un uso indiscriminato di chatbot porti a una depersonalizzazione della cura, riducendo i pazienti a dati e algoritmi. La psicanalista britannica Alessandra Lemma ha scritto che la presenza fisica del terapeuta (in stanza o anche via video) fornisce elementi non verbali insostituibili – sguardi, silenzi, tono di voce – che creano un contenitore emotivo sicuro; affidarsi solo a testo su schermo può far perdere questa ricchezza comunicativa.
Anche i filosofi e gli studiosi di etica hanno sollevato bandiere rosse. Si discute se sia giusto delegare alle macchine un compito delicato come “prendersi cura delle menti umane”. C’è chi parla di “oggettivazione del paziente”: il rischio di trattare la sofferenza psichica come un problema tecnico da risolvere con un software, perdendo di vista la dimensione umana e sociale del disagio. Joseph Weizenbaum – l’inventore di ELIZA – fu uno dei primi a lanciare questo allarme già negli anni ’70, sostenendo che alcune cose (come ascoltare le confessioni di un paziente) dovrebbero essere off-limits per le macchine, altrimenti la società rischia di perdere la propria umanità. In un suo scritto celebre argomentò che se permettiamo ai computer di imitare gli psicoterapeuti, finiremo per vedere noi stessi in modo più meccanicistico, negando la profondità e unicità dell’esperienza umana. Un altro aspetto dibattuto riguarda la fiducia: le relazioni di aiuto si basano su fiducia, sincerità e autenticità. Un chatbot però non può essere autentico (segue un copione, deterministico o statistico) e non può garantire riservatezza come un terapeuta legato al segreto professionale. I pazienti lo sanno? E se si affezionano al loro assistente virtuale, è lecito alimentare l’illusione di una reciprocità dove non c’è? Insomma, c’è chi vede un rischio di inganno: per far funzionare il meccanismo, il bot deve sembrare empatico e interessato, ma è finzione. Alcuni filosofi della mente notano inoltre che l’empatia simulata potrebbe avere effetti paradossali: se l’utente percepisce inconsciamente che è artefatta, potrebbe provare frustrazione o sentirsi preso in giro, peggiorando il suo stato. A oggi manca una risposta chiara su come l’interazione con entità non umane influenzi la psiche: c’è un intero filone di ricerca in corso su questo.
D’altro canto, esistono anche posizioni più favorevoli e pragmatiche tra gli esperti. Molti psicologi “digitalmente aperti” ritengono che i chatbot possano essere un utile complemento e che demonizzarli sia prematuro. La psicologa clinica Sarah Gundle, per esempio, inizialmente scettica quando scoprì che alcuni suoi pazienti usavano un chatbot (affettuosamente chiamato “Chatty”), ha cambiato idea vedendo che in certi casi l’AI approfondiva il trattamento: “Con alcuni pazienti, l’AI è riuscita a rendere più profonda la terapia e a migliorarne l’efficienza”, afferma. Gundle sostiene che, se confinati a un ruolo supplementare, i chatbot possono arricchire il percorso terapeutico tradizionale – per esempio fornendo supporto tra le sessioni o aiutando a monitorare reazioni a eventi quotidiani che poi vengono discussi in seduta. Un gruppo di psichiatri dell’Università di Stanford, in un commento del 2023, ha definito i chatbot “un interessante complemento alla psicoterapia, ma non un sostituto”, riflettendo quindi un sentiment abbastanza diffuso. Anche molti terapeuti più pragmatici riconoscono che qualche aiuto è meglio di nessun aiuto: in contesti dove l’alternativa è che il paziente non abbia alcun supporto, ben vengano interventi digitali che offrano almeno ascolto di base e orientamento. Il professor Nicholas Jacobson (Dartmouth College), che studia l’uso della tecnologia per ansia e depressione, osserva che l’accessibilità e scalabilità delle piattaforme digitali “possono abbattere significativamente le barriere alla cura e renderla disponibile a un pubblico più ampio”. Questo è un punto chiave: l’AI non dovrebbe competere con il terapeuta umano dove questo è disponibile, ma colmare i vuoti dove il sistema tradizionale non arriva. In tal senso, diversi esperti vedono i chatbot come un primo gradino nel “care continuum”. “La maggior parte dei terapeuti concorda che le app AI possono essere un ottimo primo passo nel percorso di salute mentale. Il problema sorge quando vengono trattate come l’unica soluzione”, sintetizza un articolo divulgativo del National Geographic. L’idea quindi è di integrazione: un modello in cui bot e umani collaborino, per esempio con il bot che segnala quando un utente “assistito digitalmente” ha bisogno di “scalare” a un supporto clinico. Persino i professionisti più critici riconoscono che alcune funzioni – monitoraggio di sintomi via chat, reminder di esercizi, psicoeducazione standard – possono essere svolte efficacemente da una macchina, liberando tempo dei terapeuti umani per compiti a maggior valore aggiunto. In altri termini, l’obiettivo non è rimpiazzare gli psicologi, ma potenziarli: un singolo clinico con l’ausilio di chatbot potrebbe seguire più pazienti, usare i report automatici per focalizzare meglio le sedute e così via. Questa visione “augmented” vede l’AI come “il junior partner” nella relazione di cura, dove l’umano rimane centrale.
Non mancano poi figure ibride tra entusiasti e scettici che pongono l’accento sulle condizioni necessarie perché i chatbot siano utili. Per esempio, gli esperti di etica tecnologica richiamano alla necessità di standard e regolamentazione: linee guida su privacy, algoritmi trasparenti, certificazioni di efficacia. Alcuni Paesi stanno iniziando a muoversi: nel 2023 in Italia il Garante della Privacy ha temporaneamente bloccato Replika per verifiche sulla protezione dei dati dei minori, segno che le autorità iniziano a occuparsi del fenomeno. C’è poi il filone della ricerca psicosociale che studia l’interazione uomo-macchina: sociologi e linguisti analizzano le conversazioni con chatbot per capire come le persone costruiscono significato anche con interlocutori non umani. Questi studi mostrano, per esempio, che gli utenti tendono a usare strategie discorsive diverse quando sanno di parlare con un AI – a volte più diretti, altre volte testano i limiti del sistema. Comprendere queste dinamiche è importante per progettare chatbot migliori e per formare gli utenti a usarli in modo appropriato.
In sintesi, tra gli addetti ai lavori c’è un dibattito acceso. Possiamo grossolanamente riassumere così le posizioni: da un lato i tecno-ottimisti vedono nei chatbot un mezzo per espandere l’accesso alla cura, ridurre i costi e coadiuvare i terapeuti, a patto di riconoscerne i limiti; dall’altro i garanti dell’umanità temono che l’algoritmo possa intaccare la qualità della cura, disumanizzandola e privandola dell’ingrediente segreto – l’empatia reale – che nessuna macchina può replicare. In mezzo, molti professionisti pragmatici suggeriscono di sfruttare i vantaggi dell’AI mantenendo però il controllo umano e utilizzando i chatbot solo dove appropriato. La metafora spesso citata è quella di un “triangolo terapeutico”: paziente, AI e terapeuta lavorano insieme, con la AI che funge da supporto (non da rimpiazzo) sotto la supervisione clinica.
Empatia e “tocco umano”: il ruolo (mitizzato?) del fattore umano
Un nodo concettuale centrale in questo dibattito è proprio la questione dell’empatia e, più in generale, del valore insostituibile del tocco umano (o Human Touch) nella cura psicologica. Tradizionalmente, l’empatia – la capacità di comprendere e risuonare con i sentimenti dell’altro – è considerata il cuore dell’intervento terapeutico. Molti sono scettici sul fatto che una macchina, per quanto programmata, possa mai avvicinarsi a questa capacità umana. Ma è davvero così? Oppure tendiamo a mitizzare l’empatia umana, attribuendole qualità quasi magiche, mentre in realtà un ascolto attento e non giudicante (che anche un chatbot può fornire) è già di per sé terapeutico?
In questa riflessione critica, partiamo da un dato di fatto: nessuna AI oggi possiede empatia intrinseca. I chatbot possono simulare empatia attraverso le loro risposte – per esempio Woebot è stato istruito a rispondere con frasi di comprensione (“Mi dispiace tu ti senta così, immagino sia davvero difficile”) quando l’utente esprime tristezza. Questa è un’empatia “di design”, basata sul riconoscimento di certe parole chiave legate alle emozioni e sull’associazione a risposte pre-scritte appropriate. Alcuni sistemi più avanzati provano a rilevare il tono emotivo dal testo o dalla voce e ad adattare di conseguenza il registro (ad es. usando emoticon o mostrando maggiore calore verbale). Ma resta il fatto che il chatbot non prova nulla: non sente tristezza quando l’utente è triste, né gioia quando l’utente migliora. È importante esserne consapevoli. Tuttavia, dal punto di vista dell’utente, ciò che conta è la percezione di essere ascoltato e compreso. E qui entra in gioco una considerazione interessante: è possibile che, in certi casi, un chatbot fornisca una sensazione di empatia sufficiente a far sentire la persona accolta. Per alcuni individui, sapere che dall’altra parte c’è un essere umano empatico è fondamentale; per altri, ciò che conta è poter esprimere i propri pensieri in un ambiente sicuro e ricevere risposte che dimostrino attenzione – indipendentemente dal fatto che il “cervello” dietro quelle risposte sia umano o artificiale. In effetti, come abbiamo visto, molte persone riferiscono di sentirsi a proprio agio nell’aprirsi col loro assistente virtuale e di percepire addirittura un certo legame affettivo (c’è chi dà un nome al chatbot e lo considera un piccolo amico confidente). Questo fenomeno ricade appunto nell’effetto ELIZA: la naturale tendenza umana ad attribuire intenzionalità e comprensione anche a interazioni con macchine, se queste ci rispondono in modo coerente. Se l’utente sente empatia dal chatbot, a livello soggettivo gli effetti psicologici positivi possono essere reali – a prescindere dalla “sorgente” di quell’empatia.
Qui il punto critico diventa: quanto è sufficiente un’empatia simulata rispetto a una reale? I detrattori sottolineano che l’empatia vera non è solo capire le parole ma cogliere il vissuto profondo, spesso indicibile, del paziente – cosa che richiede sensibilità emotiva genuina. D’altra parte, alcuni autori suggeriscono che potremmo idealizzare troppo l’empatia umana: nemmeno un terapeuta in carne e ossa è in grado di comprendere pienamente un altro essere umano in ogni sfumatura (ogni persona è un universo irripetibile). Inoltre, i terapeuti umani, pur formati all’ascolto, restano umani con i propri limiti: possono avere giornate storte, pregiudizi inconsci, oppure possono involontariamente giudicare o provare antipatia verso un paziente (per quanto cerchino di essere neutrali). Il mito del terapeuta totalmente empatico e non giudicante è appunto un ideale; nella realtà clinica, la relazione di terapia attraversa anche momenti di incomprensione, di distanza, e sta alla bravura del professionista gestirli. Ma non tutti i terapeuti sono eccellenti: c’è chi interrompe, chi minimizza certi problemi, chi magari – pur in buona fede – lascia trasparire bias culturali. Per certi versi, un chatbot ha meno “ego” e meno bias personali: non si stanca di ascoltare ripetutamente lo stesso sfogo, non si infastidisce se l’utente contesta i suoi suggerimenti, non prova frustrazione. Rimane sempre lì, paziente e costante. In questo senso, offre una forma di accettazione incondizionata che ricorda uno dei principi cardine della terapia rogersiana (il “positive regard” totale verso il paziente). Carl Rogers stesso dimostrò che riformulando semplicemente le parole del cliente in modo accogliente – esattamente ciò che faceva ELIZA – si poteva creare un clima facilitante il cambiamento. Quindi viene da chiedersi: se un algoritmo ben progettato riesce a replicare certe tecniche di ascolto attivo e sostegno emotivo di base, il fatto che non provi emozioni sminuisce il beneficio per l’utente? Forse no, dal punto di vista pragmatico. Se la persona si sente ascoltata e non giudicata, può iniziare un processo di auto-esplorazione e di sollievo emotivo anche dialogando con un’entità artificiale. Pensiamo ad attività come tenere un diario intimo: scrivere i propri pensieri non offre empatia esterna, eppure è terapeutico per molti. Un chatbot è fondamentalmente un diario interattivo che reagisce con input simili a quelli di un interlocutore umano di sostegno. Potrebbe quindi aiutare a “metabolizzare” le emozioni offrendosi come specchio neutro.
Un altro aspetto è l’assenza di interessi personali nel chatbot. Un terapeuta umano, per quanto etico, è comunque remunerato dal paziente o dal sistema sanitario, e sa di avere un ruolo professionale. Questo a volte crea asimmetrie di potere o conflitti di interesse impliciti (per esempio, un terapeuta potrebbe non sollecitare la fine della terapia anche se il paziente sta bene, magari per non perdere reddito – è raro, ma succede; oppure un paziente può edulcorare i propri racconti per guadagnare approvazione). Col chatbot, tali dinamiche spariscono: non c’è transazione economica diretta in molti casi, e l’AI non ha ego da gratificare. Non proverà compiacimento se l’utente migliora grazie a essa, né risentimento se l’utente la “tradisce” parlando con un altro aiuto. Questa neutralità assoluta, libera da bisogni propri, è un vantaggio in termini di purezza dell’ascolto. Il chatbot non prova impazienza, non pensa al prossimo cliente, non giudica morale o immorale ciò che l’utente confida – è programmato per accettare e comprendere. Alcuni teorici sostengono che proprio questa assenza di ego potrebbe rendere i chatbot dei “listener” (ascoltatori) ideali in certe situazioni: l’utente può proiettare su di essi ciò di cui ha bisogno (una voce amica, un consigliere saggio, ecc.) senza dover far i conti con la personalità dell’altro. In psicoanalisi, la figura del terapeuta a volte funge da schermo bianco per le proiezioni del paziente; un AI potrebbe incarnare ancor di più quello schermo neutro, su cui il paziente disegna i propri bisogni relazionali. È interessante notare che alcuni utenti hanno proiettato, addestrandolo, nel chatbot una sorta di “amico ideale”: come la Christa 2077 menzionata nell’articolo in un articolo del Guardian (citato in calce tra le altre fonti), un personaggio modellato sulle proprie esigenze emotive ideali. Questo uso peculiare suggerisce che i chatbot possono fornire un’esperienza di rapporto quasi su misura, difficilmente realizzabile con esseri umani reali che hanno la loro autonomia.

Detto questo, non bisogna neppure cadere nell’ingenuità opposta di credere che l’AI possa davvero sostituire l’empatia umana in toto. Alcune qualità umane restano uniche: l’AI non può offrire presenza fisica (uno sguardo compassionevole, una risata condivisa, il silenzio partecipe), non può modulare empaticamente il linguaggio del corpo, e soprattutto non può fornire quella sensazione di reciprocità emotiva (sapere che un altro essere senziente sta lì con te nel tuo dolore). Per molte persone in difficoltà, sentire la vicinanza di un altro essere umano che autenticamente si preoccupa per loro è terapeutico in sé – e questo un software per ora non è in grado di darlo assolutamente, perché per quanto dica “mi dispiace per te”, si sa che – al livello di avanzamento tecnologico attuale – non prova nulla. Dunque, probabilmente la combinazione è la via migliore: riconoscere che i chatbot possono offrire un ascolto neutro e costante, privo di giudizio ed ego, che aiuta a elaborare pensieri ed emozioni, ma per bisogni più profondi l’empatia reale di un essere umano resta fondamentale. Come scrivono Rubin e colleghi in un articolo del 2024, bisogna capire “quando, in terapia, sarà più facile rimpiazzare gli umani e quando invece la connessione umana resterà più preziosa”, e suggeriscono che “l’empatia sta al cuore di questa questione”. Probabilmente l’empatia AI potrà supportare efficacemente interventi psicoeducativi, coaching motivazionale, monitoraggio e persino parte del counseling di base. Ma nelle fasi di esplorazione profonda del sé, di elaborazione di traumi complessi, di relazione di attaccamento terapeutico correttivo – lì il fattore umano difficilmente potrà essere eguagliato.
In conclusione su questo punto, adottando una posizione “scettica ma aperta”: l’empatia umana è un ingrediente prezioso e insostituibile in molti percorsi di cura, ma non dobbiamo idolatrarla al punto da rifiutare l’idea che anche un chatbot, pur privo di cuore, possa offrire un’esperienza di ascolto valida. Come osservato, la sua neutralità e disponibilità costante possono fornire quella base sicura e non giudicante che è già di per sé terapeutica. Piuttosto che chiederci se una macchina possa provare empatia (cosa che al momento non può), dovremmo chiederci se può trasmettere al paziente la sensazione di essere compreso e accettato. Le evidenze aneddotiche e alcuni studi suggeriscono che, in misura limitata, ciò è possibile. Riconoscere questo non sminuisce l’empatia umana, ma la contestualizza: forse l’empatia non è un monolite “o tutto o niente”, bensì un insieme di componenti (ascolto attivo, rispecchiamento emotivo, assenza di giudizio, calore, comprensione cognitiva, ecc.) di cui alcune possono essere emulate da una AI. La vera sfida sarà capire fino a che punto possiamo spingere questa emulazione senza oltrepassare il confine oltre il quale manca qualcosa di essenziale. E qui torniamo alla dimensione personale: ogni paziente è diverso. Alcuni potrebbero trovare sufficiente e persino preferibile la neutralità di un chatbot, altri avranno sempre bisogno del calore umano. L’importante è non assumere dogmaticamente che “nessuno può essere aiutato da una macchina” – la realtà ci mostra già molte persone che ne traggono beneficio – né che “le macchine sono altrettanto buone degli umani” – perché la profondità dell’incontro umano, specialmente in terapia, resta unica.
Conclusioni: tra fiducia e timori
I chatbot terapeutici rappresentano senza dubbio una delle innovazioni più affascinanti e discusse nell’ambito della salute mentale contemporanea. Nel corso di questo articolo abbiamo visto come essi siano nati come esperimenti pionieristici (a partire da ELIZA negli anni ’60) e siano esplosi in popolarità soprattutto dopo la pandemia di COVID-19, cavalcando i progressi dell’intelligenza artificiale. Funzionano? Le prime evidenze suggeriscono che possono offrire benefici concreti, specie nel ridurre sintomi di ansia e depressione lieve, migliorare la resilienza e fornire sostegno immediato nei momenti di bisogno. Abbiamo anche discusso dei rischi e limiti: dalla mancanza di empatia reale alle possibili risposte inadeguate, fino ai dilemmi etici sulla privacy e sul rapporto uomo-macchina. Gli esperti si dividono tra entusiasmo (per l’opportunità di ampliare l’accesso alle cure e innovare i metodi) e scetticismo (per il timore di snaturare la terapia e mettere a repentaglio la qualità dell’aiuto offerto). Probabilmente la verità sta, come spesso accade, nel mezzo: i chatbot terapeutici non sono né bacchette magiche né demoni da evitare, ma strumenti – nuovi e potenti – che vanno usati con cognizione di causa e integrati saggiamente nel sistema di cure.
Dal punto di vista dell’utente comune, quali prospettive si aprono? Immaginiamo una persona che sta attraversando un periodo difficile, magari con umore basso o stress elevato. Questa persona potrebbe esitare a cercare un terapeuta per vari motivi: la psicoterapia è costosa, l’accesso non è immediato (liste d’attesa, pochi professionisti disponibili in zona), c’è ancora un certo stigma sociale (“vai dallo strizzacervelli?”) e anche un timore del giudizio umano (“cosa penserà di me il terapeuta?”). In un simile scenario, avere a disposizione un chatbot gratuito, sempre raggiungibile dallo smartphone, e percepito come non giudicante può essere un enorme vantaggio. Quella persona può iniziare a parlare dei propri problemi in chat alle due di notte, senza vergogna e senza dover chiedere permesso a nessuno. Può ricevere subito parole di conforto, suggerimenti pratici, esercizi di respirazione, oppure semplicemente la “compagnia” di una conversazione quando si sente sola. Questo abbassa enormemente la soglia di accesso al supporto: significa che anche chi non avrebbe mai messo piede nello studio di uno psicologo può comunque iniziare un percorso di auto-aiuto guidato. Per molti, il chatbot potrebbe essere un primo step che li aiuta poi a maturare la decisione di rivolgersi a un professionista umano, magari dopo aver acquisito un po’ di consapevolezza in chat. In altri casi, può servire da valvola di sfogo immediata per gestire meglio le emozioni tra una sessione terapeutica e l’altra (diversi terapeuti consigliano ai loro pazienti di usare app come complemento, ad esempio per tenere un diario emotivo digitale). E per alcuni, potrebbe rimanere l’unico supporto di cui sentono bisogno, se i loro problemi rientrano nel campo del disagio esistenziale moderato.
Naturalmente, accanto a queste prospettive positive, permangono paure e sfide. La paura che una “terapia automatizzata” sminuisca l’importanza della relazione umana e porti a una medicina delle emozioni fredda e algoritmica. La paura che le persone affidino i propri segreti più intimi a server di cui non sanno nulla, con possibili abusi. La paura che in caso di crisi serie i chatbot possano fallire con conseguenze tragiche. La paura, anche, che il pubblico – affascinato dalla novità – sopravvaluti queste AI e rimanga deluso o danneggiato dal loro uso improprio. Dall’altro lato c’è anche la fiducia: fiducia di chi li ha provati e ne ha tratto aiuto, fiducia di sviluppatori e ricercatori che investono in continui miglioramenti, fiducia che con linee guida adeguate possano diventare strumenti sicuri. Per esempio, si studiano sempre nuovi sistemi di blocco delle risposte inadeguate, sempre più sofisticati protocolli di emergenza, e si discute di certificare i chatbot come dispositivi medici digitali (negli USA Woebot Health ha ottenuto dall’FDA la designazione di Breakthrough Device per il trattamento della depressione post-partummobihealthnews.com, passo che prelude a valutazioni cliniche rigorose e regolamentazione).
In definitiva, i chatbot terapeutici non sostituiranno gli psicologi, ma possono diventare preziosi alleati per affrontare la crisi globale della salute mentale. Viviamo in un’epoca in cui il bisogno di supporto psicologico supera di gran lunga le risorse disponibili: milioni di persone non ricevono aiuto per costi, mancanza di servizi o stigma. In questo gap, strumenti innovativi come l’AI possono inserirsi per fornire un primo livello di cura accessibile a tutti. Immaginiamo un futuro prossimo in cui, accanto ai tradizionali servizi di psicoterapia, esista una rete di mental health chatbot validati, integrati magari nei sistemi sanitari pubblici, che fungono da “filtro” e sostegno iniziale: chi ha un malessere può prima rivolgersi al chatbot, che offre interventi di base; se il problema è lieve, potrebbe anche risolversi a quel livello, se è serio il chatbot lo segnala e indirizza verso professionisti umani. In questo modo la psicoterapia umana sarebbe riservata ai casi dove serve davvero, alleggerendo liste d’attesa e costi, e al contempo nessuno rimarrebbe del tutto privo di aiuto nell’immediato. È una visione forse ottimistica, che richiede ancora molto lavoro di ricerca, educazione e regolamentazione. Ma non è utopistica: già oggi alcune piattaforme iniziano a muoversi in questa direzione.
Come per ogni innovazione, sarà l’uso responsabile a determinarne gli esiti. I chatbot terapeutici possono offrire ascolto senza pregiudizio, disponibilità continua e anonimato, caratteristiche che rispondono a bisogni reali (basti pensare a chi soffre in silenzio per paura del giudizio). Allo stesso tempo, la vera terapia – quella che porta cambiamenti profondi e duraturi – spesso richiede l’incontro umano, la costruzione di fiducia reciproca, l’insight guidato da un esperto in carne e ossa. Non c’è contraddizione: le due cose possono coesistere, anzi potenziarsi. In fondo, la salute mentale non è un ambito dove esistono soluzioni semplici; serve un approccio integrato e a più livelli. In questo mosaico, i chatbot possono occupare un tassello specifico: quello del supporto immediato, democratico e privo di stigmi. Già oggi stanno aiutando molte persone a sentirsi meno sole con i propri pensieri. La chiave sarà riconoscerne il valore senza perdere di vista i loro limiti. Come ha detto un osservatore, “il genio è uscito dalla bottiglia”: i terapeuti artificiali sono qui per restare. Sta a noi accoglierli con giudizio critico ma anche con mente aperta, sfruttandone i punti di forza per creare un futuro in cui chiedere aiuto per la propria salute mentale sia ancora più facile, e in cui nessuno debba rinunciare al supporto per colpa dei costi, della vergogna o della mancanza di opportunità.

E magari un giorno...
Fonti:
La redazione di questo articolo ha attinto esclusivamente a fonti accademiche e giornalistiche autorevoli. Fra le principali referenze: studi scientifici peer-reviewed (es. Fitzpatrick et al., 2017; Inkster et al., 2018; meta-analisi su NPJ Digital Medicine, 2023) che hanno valutato efficacia e limiti dei chatbot terapeutici; articoli su riviste mediche e di bioetica riguardanti le implicazioni etiche e psicologiche (es. JMIR Mental Health, 2024); rapporti di organizzazioni sanitarie (dati OMS sull’impatto pandemico); nonché reportage giornalistici di qualità, come The New Yorker, National Geographic e The Guardian, che hanno fornito contesto e testimonianze. Tutte le citazioni e i dati quantitativi riportati nel testo sono rintracciabili nelle fonti in bibliogragia. Abbiamo evitato fonti non verificate, blog o social media, privilegiando informazioni supportate da evidenze e controlli editoriali. L’argomento, essendo in evoluzione rapida, beneficia di continui aggiornamenti: i riferimenti selezionati coprono fino al 2024 e offrono un quadro solido e aggiornato del tema. In definitiva, questo articolo si propone di offrire una panoramica approfondita e bilanciata, sostenuta dalle migliori conoscenze disponibili, su cosa sono e cosa comportano i chatbot terapeutici nella salute mentale.
“Survey: ChatGPT may be the largest provider of mental health support in the United States” – SENTIO Univeristy
“Using ChatGPT for Therapy? The AI Chatbot Can Get Anxiety, Too” – Pymnts
“How Are Students Using ChatGPT? For Therapy, Breakups, and Even Texting Friends” – Teenvogue
“An Overview of Chatbot-Based Mobile Mental Health Apps: Insights From App Description and User Reviews” – National Library Of Medicine
“Weizenbaum’s nightmares: how the inventor of the first chatbot turned against AI” – theguardian.com
“Can A.I. Treat Mental Illness?” – newyorker.com
“Lessons and Warnings from the Original Chatbot – ELIZA” – cprime.com
“Mental Health Chatbot for Young Adults With Depressive Symptoms During the COVID-19 Pandemic: Single-Blind, Three-Arm Randomized Controlled Trial” National Library Of Medicine
“More people are turning to mental health AI chatbots. What could go wrong?” – nationalgeographic.com
“Rise in Use of Mental Health Apps Raises New Policy Issues” – kff.org
“Mental health goes mobile: The mental health app market will keep on growing” – Deloitte
“Unleashing the potential of chatbots in mental health: bibliometric analysis” – Frontiers
“Effectiveness and Safety of Using Chatbots to Improve Mental Health: Systematic Review and Meta-Analysis” – Jmir Publications
“Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being” – Nature
“Considering the Role of Human Empathy in AI-Driven Therapy” – Jmir Publications
“’He checks in on me more than my friends and family’: can AI therapists do better than the real thing?” –The Guardian
“Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial” – Jmir Publications
“To chat or bot to chat: Ethical issues with using chatbots in mental health” – National Library Of Medicine
“Using generic AI chatbots for mental health support: A dangerous trend” – American Psychological Association
“My patient was using a therapy chat bot. Was that okay?” – The Washington Post
“Weizenbaum’s nightmares: how the inventor of the first chatbot turned against AI” – The Guardian
“Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial” – Jmir Publications
“Artificial empathy in healthcare chatbots: Does it feel authentic?” – Science Direct