LUN. - VEN. 08:00 - 20:00
347 8199 059
TORINOONLINE

Empatia Artificiale

Fragilità reali: l'illusione terapeutica dell'AI

AI

L’intelligenza artificiale sta diventando un compagno quotidiano: ci aiuta a organizzare, scrivere, imparare, persino a trovare le parole quando non le abbiamo. Nel campo della salute mentale può rappresentare un valido supporto soprattutto per i compiti ripetitivi e organizzativi: aiutare a tenere traccia degli appuntamenti, riordinare informazioni, suggerire esercizi o ricordare tecniche già apprese, raccogliere pensieri in modo strutturato. In questo senso è una macchina efficiente, capace di alleggerire il carico gestionale e di facilitare la continuità del lavoro personale. Ma si tratta pur sempre di funzioni operative, non relazionali: ciò che organizza o ricorda non sostituisce la complessità dell’incontro umano. Il problema nasce quando l’AI non viene più usata come strumento, ma come sostituta di una relazione terapeutica. È qui che, soprattutto nelle persone più fragili, i rischi diventano tangibili. La psicoterapia non è semplicemente un dialogo oppure una raccolta di consigli. È un incontro umano fatto di sfumature, di silenzi, di responsabilità reciproche, di attenzione corporea ed emotiva. È una relazione che si costruisce nel tempo, nella quale il terapeuta osserva il modo in cui il paziente parla, pensa, si muove, evita, si difende, e dove ogni parola pronunciata è sostenuta da un’etica professionale e da un monitoraggio continuo del benessere della persona.

L’AI, pur potendo simulare empatia e comprensione, non possiede un’esperienza emotiva, non ha un senso di responsabilità clinica, non sa riconoscere segnali di rischio che per un terapeuta umano sono evidenti già da una pausa, da un cambiamento di tono, da una frase appena accennata. Gli strumenti conversazionali possono generare risposte che sembrano profondissime, ma non hanno un vero ancoraggio al vissuto dell’altro. E, soprattutto, possono commettere errori gravi: creare informazioni inesatte, minimizzare la sofferenza, offrire consigli clinicamente inappropriati. Per una persona con ansia lieve può essere solo un imprevisto da gestire; per una persona con un disturbo grave, può diventare una ferita.

La ricerca mette in luce diversi elementi critici. Alcuni studi documentano come, con utenti affetti da psicosi o disturbi dell’umore severi, i chatbot possano senza volerlo rinforzare convinzioni deliranti, scivolare nella conferma di idee persecutorie o non riconoscere segnali di disorganizzazione del pensiero. Altri lavori osservano risposte insufficienti o pericolosamente vaghe di fronte a temi come il suicidio o l’autolesionismo: mancano protocolli di sicurezza, mancano domande fondamentali, manca la capacità di orientare la persona verso un aiuto immediato. In ambito clinico, questo non è un dettaglio tecnico: è una questione di vita, letteralmente.

Ci sono poi gli aspetti più sottili, quelli relazionali. Molte persone fragili raccontano di sviluppare attaccamento per i chatbot, soprattutto nelle ore notturne o nei momenti di crisi. L’AI è percepita come sempre disponibile, sempre gentile, mai frustrante. Questo può diventare un sollievo immediato, ma, a lungo andare, rischia di isolare ulteriormente chi fatica a costruire legami nel mondo reale. Un adolescente con difficoltà sociali, un giovane adulto con un disturbo di personalità, una persona che ha vissuto traumi relazionali possono abituarsi all’idea che una relazione non abbia complessità, conflitti, limiti. È una promessa seducente, ma profondamente illusoria: la relazione terapeutica è proprio il luogo dove imparare a tollerare la presenza dell’altro, anche quando non corrisponde ai propri desideri.

Un altro problema è che i chatbot possono far emergere ricordi o vissuti dolorosi senza essere in grado di contenerli. Possono incoraggiare una persona a parlare di traumi, abusi, automutilazioni, ma non possono accompagnarla nelle ore successive, non possono monitorare un peggioramento improvviso, non possono valutare l’impatto di ciò che hanno evocato. È come aprire una porta profonda senza nessuno accanto quando ci si ritrova dall’altra parte.

Anche le istituzioni sanitarie stanno iniziando a segnalare questi rischi. In diversi paesi, enti regolatori e associazioni professionali hanno avvertito che l’uso dell’AI come sostituto della terapia rappresenta un pericolo concreto, soprattutto per adolescenti e persone con disturbi gravi. Alcuni stati hanno già introdotto leggi che vietano di presentare i chatbot come alternative alla psicoterapia, proprio per tutelare chi potrebbe affidarsi a questi strumenti nei momenti più vulnerabili.

Questo non significa demonizzare la tecnologia, anzi. L’AI può essere una grande risorsa, se rimane nel posto giusto: accanto alla terapia, non al suo posto. Può aiutare a chiarire concetti, a preparare una seduta, a trovare parole quando si è confusi. Può sostenere il processo terapeutico rendendolo più accessibile, più continuo, più consapevole. Ma non può diventare l’unica voce a cui rivolgersi nei momenti di disperazione, né può assumersi la responsabilità clinica che richiede anni di formazione e supervisione.

Per chi è già fragile, affidarsi a un sistema che non sbaglia perché è saggio, ma perché è programmato per sembrare convincente, può essere profondamente destabilizzante. L’AI è un’opportunità straordinaria, ma la cura psicologica — quella vera — nasce e si sviluppa solo tra esseri umani che si incontrano, si osservano, si ascoltano e si assumono la responsabilità dell’altro. In quella presenza viva, imperfetta, fatta di scambi reali, avviene ciò che nessuna macchina può imitare: il cambiamento.