Negli ultimi mesi sempre più persone si stanno appoggiando ai chatbot per “parlare” di ansia, stress e difficoltà personali. Il motivo è chiaro: sono disponibili, immediati e sembrano empatici.
Ma c’è un punto che va detto senza giri di parole.
Un testo ben scritto non è una presa in carico.
E in salute mentale, confondere “linguaggio empatico” con “cura” diventa rischioso quando entrano in gioco crisi, autolesionismo o ideazione suicidaria.
[IMMAGINE 1
Suggerimento: persona che guarda lo smartphone
Alt text consigliato: Persona che usa uno smartphone per cercare supporto emotivo online]
Il problema non è se i chatbot “possono essere utili”.
Il problema è quanto sono affidabili quando la conversazione diventa sensibile.
Un esempio concreto.
In uno studio pubblicato su Scientific Reports sono state valutate 29 app con chatbot usando scenari simulati basati sulla Columbia-Suicide Severity Rating Scale. Risultato: nessuna soddisfaceva i criteri iniziali per una risposta adeguata. Inoltre, circa la metà delle risposte è stata giudicata inadeguata anche con criteri più permissivi.
Tradotto: in assenza di validazione clinica e protocolli di escalation robusti, non possiamo trattare un chatbot come “supporto sicuro” in contesti ad alto rischio.
[IMMAGINE 2
Suggerimento: laptop con grafico sfocato e articoli stampati
Alt text consigliato: Scrivania con laptop e articoli di ricerca per rappresentare un approccio basato su evidenze]
Può aiutare a:
chiarire concetti e terminologia
riassumere informazioni di base
proporre domande utili da portare in terapia
È utile come “mappa”, non come terapia.
Qui la differenza non è “AI sì / AI no”.
È come lo strumento è progettato.
Un esempio di riferimento (non di sostituzione clinica) è il companion “Ebb” di Headspace: un lavoro pubblicato su JMIR Formative Research descrive un utilizzo nel mondo reale e mette al centro la necessità di progettazione e confini chiari.
Per chi lavora in salute mentale, l’impatto più concreto spesso non è “far parlare l’AI col paziente”.
È ridurre il carico invisibile attorno allo studio:
agenda
documenti
promemoria
routine amministrative
archiviazione
Qui la tecnologia può togliere attrito senza entrare nello spazio clinico.

Quando emergono segnali di rischio, serve escalation umana e responsabilità.
Il problema non è l’intenzione, è l’assenza di garanzie.
Un LLM non ha contesto clinico, non osserva il decorso, non ha responsabilità professionale.
Una risposta plausibile non è una valutazione clinica.
La terapia è relazione, confini, responsabilità e continuità.
Simulare empatia non equivale a reggere una funzione terapeutica.
[IMMAGINE 3
Suggerimento: chat vs studio reale
Alt text consigliato: Differenza tra supporto digitale e relazione terapeutica umana]
Se un tool “AI” entra vicino alla salute mentale, chiedi sempre:
Perimetro: dove si ferma, cosa non fa
Sicurezza: cosa succede nei casi sensibili
Responsabilità: chi risponde se sbaglia
Escalation: come porta a supporto umano
Se una di queste quattro cose è vaga, non è “innovazione”. È rischio.

GestAI nasce da un presupposto semplice.
La relazione clinica non si tocca.
Si protegge.
Per questo GestAI non nasce per fare terapia.
Nasce per aiutare i professionisti a gestire meglio tutto ciò che sta intorno allo studio, così da recuperare tempo, ordine e lucidità.
Se vuoi capire come GestAI può aiutarti nella gestione dello studio senza invadere il lavoro clinico, puoi approfondire qui: www.gestai.it
Brown University (via ScienceDaily). ChatGPT as a therapist? Ethical risks. https://www.sciencedaily.com/releases/2026/03/260302030642.htm
AIES (AAAI/ACM Conference on AI, Ethics, and Society). Practitioner-informed framework. DOI: 10.1609/aies.v8i2.36632
JMIR Formative Research (2026). Real-World Use of a Mental Health AI Companion (Ebb by Headspace). https://formative.jmir.org/2026/1/e86904
Scientific Reports. Performance of mental health chatbot agents in detecting and managing suicidal ideation. https://www.nature.com/articles/s41598-025-17242-4