Psicologo e AI: ChatGPT può davvero sostituire la terapia?
L’intelligenza artificiale è ovunque, anche nella salute mentale. Ma tra un chatbot-psicologo gratis e un percorso di psicoterapia online c’è una differenza profonda: l'empatia umana. In questo articolo esploriamo i limiti di ChatGPT, i rischi del fai-da-te digitale e come l’AI può invece diventare un alleato del terapeuta senza mai sostituirlo.

"Ciao ChatGPT, mi sento ansioso, cosa posso fare?". Inizia così, spesso per gioco o per una necessità impellente di sfogo, l’esperienza di chi prova a usare ChatGPT o altre forme di intelligenza artificiale come psicologo.
In questo articolo esploreremo le potenzialità e i limiti della tecnologia applicata alla salute mentale, analizzando perché l’AI può essere un assistente, ma mai un sostituto del calore e della competenza umana.
Usare ChatGPT come psicologo: perché ci attira così tanto?
Il successo delle ricerche come “psicologo AI gratis” o “chatbot psicologo gratuito” non deve stupire. Viviamo in un’epoca di gratificazione istantanea: è naturale che, di fronte a un malessere emotivo, la tentazione sia quella di cercare una soluzione "chiavi in mano", accessibile dal divano di casa in qualsiasi momento.
L’attrattiva di un chatbot-psicologo gratis risiede in tre fattori principali:
- immediatezza e disponibilità 24/7: l’ansia non segue gli orari di ufficio. Un attacco di panico alle tre del mattino o un momento di sconforto durante la pausa pranzo richiedono una risposta subito;
- assenza di giudizio (percepita): molte persone evitano la terapia per paura del giudizio o per lo stigma sociale legato alla salute mentale. Parlare con uno schermo sembra meno "pericoloso": parlare con uno schermo può sembrare meno esposto al giudizio: non c’è uno sguardo umano, non c’è una persona davanti a cui sentirsi vulnerabili. Questo però non significa che l’AI sia neutrale o priva di limiti: può produrre risposte stereotipate, inaccurate o non adatte alla situazione clinica della persona;
- basso costo: in un contesto economico complesso come quello attuale, la possibilità di accedere a un supporto (seppur basilare) senza pesare sul budget familiare rappresenta una motivazione importante.
Molti giovani nativi digitali utilizzano l'AI per "sfogarsi" o per strutturare pensieri confusi. È un esercizio che può avere una sua utilità, simile a quella di un diario segreto interattivo. Tuttavia, dare un nome a un'emozione è solo il primo passo. Ma in psicoterapia non ci si limita a “sfogarsi” o a etichettare un’emozione, a volte sfogarsi può essere anche controproducente: si lavora sui pensieri, sui comportamenti, sulle strategie di evitamento e sui meccanismi che mantengono il problema nel tempo.

L’intelligenza artificiale può sostituire lo psicoterapeuta?
ChatGPT non è uno psicologo. Può sembrare accogliente, disponibile e intelligente, ma non può comprendere la sofferenza della persona, non può offrire una presa in carico clinica. Sebbene molti cerchino la migliore AI per la psicologia, è fondamentale comprendere la differenza tra elaborazione del linguaggio e comprensione dell'essere umano.
L'intelligenza artificiale lavora su calcoli probabilistici. Quando ChatGPT ti risponde, non sta riflettendo sul tuo dolore: sta calcolando quale parola, statisticamente, ha più probabilità di seguire la precedente all'interno di un contesto dato. Elabora pattern linguistici, contesto e probabilità di risposta sulla base dei dati con cui è stato addestrato e delle istruzioni ricevute. Può quindi produrre risposte molto plausibili e anche utili, ma non ha esperienza soggettiva o comprensione reale della storia della persona. È un’architettura di dati, non un’architettura di sentimenti.
I limiti della "terapia" con i chatbot
La psicoterapia non è solo "scambio di informazioni". È un processo vivo che poggia su pilastri che l'AI non può replicare. Tra i principali troviamo:
- la mancanza di responsabilità clinica: un'AI non può farsi carico di una diagnosi né gestire una crisi acuta. Un chatbot può proporre indicazioni generali, esercizi di grounding o numeri di emergenza (ad esempio se un utente manifesta intenzioni autolesionistiche). Ma non può valutare in modo pienamente responsabile il rischio clinico, attivare una rete di protezione, coordinarsi con altri professionisti o assumersi la responsabilità deontologica e legale di una presa in carico;
- l'incapacità di leggere il non verbale: nei chatbot testuali manca una parte importante dell’incontro clinico: tono della voce, pause, postura, sguardo, ritmo, esitazioni, cambiamenti corporei. Anche quando alcune tecnologie provano ad analizzare segnali vocali o visivi, questo non equivale alla comprensione clinica che nasce dentro una relazione terapeutica, con responsabilità, contesto e continuità. Il tono della voce, i respiri affannosi, lo sguardo che evita l'interlocutore o un sorriso amaro dicono molto di più delle parole scritte;
- il fenomeno delle "allucinazioni": in ambito tecnologico, l'allucinazione avviene quando l'AI inventa fatti o fornisce consigli pseudoscientifici in modo estremamente convincente. In ambito medico e psicologico, questo può essere pericoloso, portando l'utente a seguire suggerimenti potenzialmente dannosi.
Come sottolineato dall'Ordine degli Psicologi dell'Emilia-Romagna, l'intervento psicologico non è un semplice "prodotto" informativo, ma un atto professionale protetto. L'uso dell'AI solleva criticità sulla deontologia. Un altro tema delicato riguarda la privacy: quando una persona inserisce in un chatbot informazioni intime, cliniche o familiari, dovrebbe sapere con chiarezza dove quei dati vengono trattati, per quali finalità, per quanto tempo vengono conservati, chi può accedervi e se possano essere usati per migliorare il sistema. Nel campo della salute mentale, questi aspetti non sono secondari: riguardano dati estremamente sensibili
Il rischio del fai-da-te digitale
Affidarsi esclusivamente a un algoritmo può alimentare alcuni processi problematici: cercare rassicurazioni continue, moltiplicare le autodiagnosi, rimuginare sulle risposte ricevute o evitare il confronto con una persona reale. In questi casi l’AI non diventa uno strumento di consapevolezza, ma un modo per restare intrappolati nel problema. Si leggono spiegazioni tecniche sul proprio stato, ci si auto-diagnostica tramite prompt, ma si resta chiusi in una bolla digitale che impedisce il vero confronto con l'altro. Senza la guida di un professionista che sappia contestualizzare il tuo vissuto e la tua storia familiare, il rischio è quello di restare in superficie, curando il sintomo ma ignorando la radice del problema.
Un rischio da non sottovalutare è la dipendenza dalla risposta immediata. Se ogni emozione spiacevole viene portata subito a un chatbot, la persona può ridurre progressivamente la propria tolleranza all’incertezza, alla solitudine e all’attesa. l’AI può diventare una forma di rassicurazione a breve termine: calma nell’immediato, ma nel tempo può mantenere il bisogno di controllare, chiedere, verificare e ricevere conferme
È fondamentale distinguere tra promozione del benessere (dove un'app può aiutare con il relax, ad esempio) e cura della salute mentale. Secondo l'Ordine, la diagnosi e il trattamento richiedono la supervisione di un essere umano abilitato. L'AI rischia di "standardizzare" la sofferenza, ignorando l'unicità della persona e riducendo il paziente a un insieme di parametri statistici.
Come trovare piattaforme AI per supporto psicologico?
Se la tua intenzione non è sostituire la terapia, ma affiancarle uno strumento di auto-aiuto, esistono piattaforme nate specificamente per il benessere mentale che sono molto più efficaci di un chatbot generico.
App come Wysa o Youper utilizzano l'intelligenza artificiale per guidarti attraverso esercizi di terapia cognitivo-comportamentale (CBT) o tecniche di respirazione, mentre altre come Woebot sono progettate per aiutarti a monitorare l'umore nel tempo.
Per scegliere la piattaforma più adatta, verifica sempre che l'app dichiari di basarsi su protocolli clinicamente validati e che garantisca la protezione dei tuoi dati personali (cerca la conformità al GDPR). Ricorda però: queste applicazioni possono essere strumenti di auto-aiuto guidato, utili per esercitarsi tra una seduta e l’altra o per monitorare alcuni aspetti del proprio benessere, ma non sostituiscono una valutazione clinica, ma se senti il bisogno di scavare a fondo nelle tue dinamiche interiori, il passaggio successivo fondamentale resta il confronto con un professionista.
Le app e gli strumenti digitali possono essere utili quando l’obiettivo è circoscritto: rilassarsi, monitorare l’umore, prendere nota di alcuni pensieri, ricordarsi di respirare o creare piccole routine di benessere. Il limite compare quando vengono usati per gestire nel tempo un disagio psicologico più profondo, ricorrente o invalidante. In questi casi le tecniche possono dare sollievo nell’immediato, ma rischiano anche di diventare una forma di compensazione: aiutano a “tenere insieme” l’equilibrio, senza modificare davvero i meccanismi che alimentano il problema.
In psicoterapia capita spesso di incontrare persone che per anni hanno provato a controllare ansia, insonnia, pensieri intrusivi o sofferenza emotiva attraverso strategie di auto-aiuto: respirazione, meditazione, esercizi, rassicurazioni, contenuti online, app. Alcune di queste strategie possono essere utili, ma se usate come unica risposta rischiano di strutturare il problema: la persona impara a funzionare solo se riesce a controllare costantemente ciò che prova. Quando questo equilibrio si rompe, il lavoro terapeutico può diventare più complesso, perché non si tratta solo di affrontare il sintomo, ma anche di sciogliere un sistema di controllo costruito nel tempo.
Per questo, quando il disagio persiste, si ripete o limita la vita quotidiana, non serve aggiungere un’altra tecnica: serve una valutazione professionale che aiuti a capire cosa mantiene il problema e quale percorso sia davvero indicato.
La psicoterapia online con Serenis: l’umano al centro
In Serenis usiamo la tecnologia con una missione precisa: rendere accessibile il benessere mentale e non solo. La psicoterapia online rompe le barriere geografiche ed economiche proprio come l'AI, ma porta con sé la qualità clinica imprescindibile.
Il valore aggiunto di Serenis non è il software, ma la selezione dei clinici. Questo perché crediamo che la relazione terapeutica sia uno dei fattori centrali del cambiamento: permette fiducia, collaborazione e continuità. Ma non basta da sola. In un percorso efficace contano anche la competenza clinica, la formulazione del caso, l’uso di interventi basati sulle evidenze e la capacità di adattare il trattamento alla persona. La ricerca scientifica lo conferma: l'alleanza tra paziente e terapeuta conta più della tecnica specifica utilizzata.
Compila il questionario e scopri quale terapeuta può fare al caso tuo.
- Centro medico autorizzato
- 100% professionisti qualificati
- Primo colloquio gratuito
Scribe: quando l'AI è al servizio del medico (e non lo sostituisce)
Questo non significa che la tecnologia non abbia spazio nella stanza (virtuale) della terapia. In Serenis utilizziamo l'intelligenza artificiale per potenziare il lavoro del clinico, non per scavalcarlo. Un esempio è Scribe.
Scribe è un'integrazione dell'AI nella psicologia: non interagisce con il paziente ma è un assistente silenzioso che aiuta il terapeuta a fare meglio il suo lavoro. Si tratta di un assistente basato su intelligenza artificiale che trascrive i dialoghi delle videochiamate e crea delle sintesi precise. Tramite questa funzione, gli specialisti possono ottimizzare i tempi e gli utenti mantengono una visione chiara dei propri progressi.
Come funziona Scribe?
- ascolto e trascrizione: previo consenso esplicito del paziente, Scribe ascolta la seduta e ne genera una trascrizione e un riassunto clinico;
- maggiore focus del professionista: grazie a Scribe, lo psicoterapeuta non deve più dividere la sua attenzione tra l'ascolto e la scrittura degli appunti. Può guardarti negli occhi (attraverso la webcam), cogliere ogni tua sfumatura emotiva e restare presente nel momento;
- privacy e controllo: Scribe è GDPR compliant e i dati sono criptati. Inoltre, il paziente ha il potere assoluto: la funzione può essere interrotta in ogni istante sia dall'utente che dallo specialista.

Il futuro della salute mentale: integrazione, non sostituzione
Guardando al futuro, è probabile che vedremo un aumento di strumenti basati sull'AI per il monitoraggio del sonno, dell'umore o per esercizi di mindfulness. Questi strumenti sono preziosi "compagni di viaggio", simili a un contapassi per chi vuole rimettersi in forma.
L’intelligenza artificiale è eccezionale nel gestire la complessità dei dati, ma la sofferenza psicologica non è fatta solo di dati: riguarda storia personale, contesto, relazioni, significati, corpo, emozioni e comportamenti. Per questo richiede una competenza clinica capace di integrare metodo, relazione empatica e flessibilità nell'intervento, non semplicemente una risposta plausibile generata in tempo reale
Perché scegliere un professionista invece di un'AI?
I motivi per cui scegliere uno psicoterapeuta invece di rivolgersi all'intelligenza artificiale come psicologo sono numerosi, tra i principali troviamo:
- la validazione emotiva: sentirsi dire "capisco come ti senti" da un algoritmo è una rassicurazione logica. Sentirlo da una persona che ha dedicato la vita a comprendere la sofferenza umana ha un peso ben diverso;
- il setting terapeutico: la terapia è uno spazio regolato, protetto e continuativo, fondato su consenso informato, riservatezza, responsabilità professionale e obiettivi condivisi. L'interazione con un'AI è spesso frammentata, distratta e inserita nel flusso di altre notifiche;
- la personalizzazione profonda: un terapeuta si ricorda di ciò che hai detto tre mesi fa non perché ha un database, ma perché ti ha ascoltato nel tempo, ha seguito il filo della tua storia e ha imparato a riconoscere ciò che per te conta davvero.
Meglio un'AI o un professionista?
In conclusione, l'AI è una risorsa straordinaria se usata come strumento di supporto. Può aiutarci a scrivere meglio, a organizzare la giornata e, nel caso di Scribe, ad aiutare i terapeuti a essere più concentrati. Ma quando si tratta di benessere mentale, il fattore umano resta insostituibile.
ChatGPT può aiutarti a mettere in ordine alcune idee, ma non può prendersi cura di te. Una psicoterapia non offre solo risposte: costruisce uno spazio in cui comprendere il problema, verificarne i meccanismi, lavorare sul cambiamento e farlo dentro una relazione professionale responsabile