L’integrazione delle tecnologie emergenti nella pratica clinica sta modificando in modo significativo il modo in cui si pensa e si vive la psicoterapia. Tra gli strumenti più discussi, ChatGPT—un modello linguistico sviluppato da OpenAI—ha generato un dibattito acceso nel mondo della salute mentale, sollevando domande profonde su cosa possa o non possa fare l’intelligenza artificiale in ambito terapeutico.
Da un lato, si evidenziano possibili applicazioni interessanti: supporto nella redazione di contenuti, accesso a informazioni organizzate, generazione di spunti o materiali per il lavoro clinico. Dall’altro, emergono rischi e fraintendimenti legati alla tendenza a sovrapporre le capacità tecniche di un modello linguistico alle funzioni della relazione terapeutica.
È quindi necessario affrontare il tema con lucidità, senza semplificazioni, analizzando il valore dello strumento, ma anche i suoi limiti, etici e clinici.
Non è corretto definire ChatGPT come una forma di intelligenza artificiale nel senso più pieno del termine. Si tratta di un modello linguistico avanzato, addestrato per produrre risposte testuali coerenti a partire da enormi quantità di dati. La sua “intelligenza” non è cosciente, né empatica: si limita a riprodurre, interpolare e riformulare contenuti linguistici.
Questo non significa che non sia uno strumento valido. Al contrario: la sua capacità di sintesi, la velocità di elaborazione e l’accesso a informazioni strutturate lo rendono un potenziale alleato per chi lavora nella salute mentale. Il punto, semmai, è capire come integrarlo, e con quali accortezze.
In ambito psicologico, un modello come ChatGPT può essere utilizzato per:
generare spunti linguistici utili alla pratica
costruire esercizi o schede in stile CBT
favorire riflessioni psicoeducative tra una seduta e l’altra
fornire supporto immediato a chi cerca aiuto, soprattutto in ambiti non critici
Queste possibilità, però, non devono essere confuse con la psicoterapia. La relazione terapeutica, infatti, non si riduce alla somministrazione di risposte corrette o informazioni pertinenti. È un processo costruito nel tempo, fatto di presenza, sintonizzazione, ascolto profondo e co-costruzione del significato.
I modelli linguistici, per quanto precisi, non sono infallibili. Possono produrre errori, generalizzazioni, distorsioni culturali o risposte formalmente corrette ma clinicamente inadeguate. Inoltre, non possiedono la capacità di comprendere davvero un’emozione, né di navigare il campo relazionale.
Uno studio recente ha mostrato come le risposte di ChatGPT vengano spesso giudicate più empatiche e articolate rispetto a quelle fornite da medici umani in forum clinici online. Questo dato, però, va letto con attenzione: non si misura la qualità di una relazione terapeutica in base alla lunghezza o alla pertinenza formale di una risposta.
La psicoterapia non è un quiz, ma un incontro. È proprio l’imprevedibilità, la coerenza tra parole e tono, il silenzio, la presenza—elementi tipicamente umani—che fanno la differenza.
Qualsiasi integrazione dell’IA nella pratica clinica richiede una riflessione etica approfondita. Alcuni dei temi più urgenti includono:
la protezione dei dati personali
l’affidabilità e il controllo delle risposte
i rischi di uso sostitutivo in assenza di guida clinica
la possibile dipendenza da relazioni virtuali
la necessità di supervisionare bias o distorsioni insite nei dati di addestramento
La tecnologia, se utilizzata in modo acritico o senza un quadro regolativo adeguato, può produrre effetti paradossali: semplificare la comunicazione, ma indebolire la qualità del legame; aumentare l’accesso all’informazione, ma ridurre la profondità della comprensione.
Non è la tecnologia a determinare il cambiamento, ma il modo in cui scegliamo di utilizzarla. Alcuni terapeuti già oggi usano strumenti basati sull’IA per strutturare esercizi, automatizzare schede o elaborare documentazione clinica in modo più fluido. Altri li usano per educare il paziente a una consultazione responsabile di risorse online.
In entrambi i casi, ciò che fa la differenza è la consapevolezza del contesto clinico. Un terapeuta non viene sostituito da un chatbot perché la sua funzione non si esaurisce nella risposta, ma nella relazione. E proprio per questo, integrare uno strumento come ChatGPT richiede pensiero critico, sensibilità e supervisione.
Educare i pazienti all’uso consapevole di strumenti linguistici basati su IA può diventare parte del lavoro clinico. Alcune indicazioni essenziali potrebbero includere:
spiegare che ChatGPT è un modello linguistico, non un terapeuta
invitare alla verifica delle fonti e alla prudenza verso l’autodiagnosi
proteggere la privacy e scoraggiare la condivisione di contenuti sensibili
chiarire che non sostituisce in alcun modo la relazione terapeutica
favorire l’uso complementare e non esclusivo, come stimolo alla riflessione
promuovere il confronto continuo tra ciò che emerge online e ciò che si lavora in terapia
La comparsa di strumenti come ChatGPT non è una minaccia alla psicoterapia, ma un’occasione per ridefinire il nostro ruolo, aggiornare le competenze, mantenere viva la qualità della relazione umana in un mondo sempre più mediato dal digitale.
Non si tratta di rincorrere l’efficienza, ma di proteggere lo spazio clinico come luogo di senso, esperienza e cura. In fondo, come suggerisce ironicamente Douglas Adams nel suo romanzo "Guida galattica per autostoppisti", la vera risposta non ha valore se non siamo capaci di formulare le domande giuste.
Anche nella psicoterapia, la domanda resta il vero inizio del cambiamento. La tecnologia può supportarci nel cercare, ma non potrà mai sostituire la responsabilità del chiedere e del prendersi cura.