Innovazione tecnologica nella pratica clinica nel rispetto della persona

Innovazione tecnologica nella pratica clinica nel rispetto della persona

Team GestAI
11/12/2025
6 min
strumenti digitali per psicologietica dell’IA in ambito clinicoprivacy e dati sensibili in psicologiapsicologia e intelligenza artificialeAI Act e salute mentaledocumentazione clinica digitaleinnovazione tecnologica in psicologiaterapiaIA in psicoterapia

Da qualche anno, chi lavora in psicologia si trova di fronte alla stessa domanda, più o meno esplicita:

“Cosa farà davvero l’intelligenza artificiale al nostro lavoro?”

L’intervista a Tommaso Ciulli su psicologia e IA offre molti spunti utili per rispondere. Come GestAI, la sentiamo vicina su diversi punti, ma ci interessa soprattutto far emergere come la vediamo noi, a partire da quella lettura.

Non è un discorso astratto: riguarda il modo in cui, domani, gestiremo i casi clinici, i dati sensibili, il tempo tra una seduta e l’altra, la relazione con i pazienti.

1. L’IA non sostituirà lo psicologo, ma cambierà il contesto in cui lavora

Siamo d’accordo su un punto di partenza fondamentale: il lavoro psicologico non è riducibile a una sequenza di risposte corrette.

La pratica clinica tiene insieme conoscenze teoriche, competenze tecniche, esperienza, capacità di stare nella relazione, tolleranza dell’incertezza, lettura del contesto e delle dinamiche implicite. Nessun modello generativo, oggi, è in grado di replicare questa complessità.

Per noi questo significa una cosa molto concreta:

l’IA può supportare il professionista su alcuni compiti, ma non può entrare al posto suo nello spazio della relazione terapeutica.

Se un sistema promette “terapia automatica” o “sostituzione del terapeuta”, per noi è già un segnale di allarme.

2. L’IA in psicologia non nasce oggi (e non è una moda passeggera)

Uno dei passaggi che abbiamo apprezzato di più dell’intervista è il richiamo alla storia: l’idea di “computer che dialogano con le persone” non nasce con ChatGPT, ma parte almeno dagli anni ’60, con progetti come ELIZA, e si evolve attraverso diverse ondate di ricerca fino ai modelli attuali.

Per noi questo dato è importante per due motivi:

  1. Non siamo davanti a una moda tech, destinata a sparire tra un anno.

  2. Siamo dentro un processo lungo, che richiede alla professione psicologica di posizionarsi in modo consapevole, non solo di reagire tra entusiasmo e rifiuto.

In altre parole: l’IA non è “il futuro che arriverà”, è già nel presente di molti colleghi, spesso in modo tacito e non tematizzato.

3. Dove l’IA può essere davvero utile nella pratica clinica

Nell’intervista vengono citate alcune applicazioni che ritroviamo anche nell’esperienza di chi sperimenta questi strumenti in studio.

In particolare, vediamo un potenziale concreto quando l’IA viene utilizzata per:

  • facilitare la concettualizzazione del caso, aiutando a organizzare informazioni, ipotesi e piani di intervento;

  • supportare la produzione di materiali psicoeducativi (schede, testi per i pazienti, sintesi di articoli o linee guida);

  • aiutare nella gestione di documenti complessi, come bandi, progetti, relazioni;

  • alleggerire il carico di organizzazione del lavoro, tra appunti, agenda, promemoria, fatture e progetti paralleli.

Il filo rosso, per noi, è questo:

l’IA è più interessante quando riduce il rumore organizzativo e restituisce tempo ed energie alla relazione di cura, invece di provare a sostituirla.

4. I rischi non sono teorici: perché serve prudenza (non panico)

Accanto alle opportunità, l’intervista sottolinea una serie di rischi che condividiamo pienamente e che guidano anche le nostre scelte progettuali.

I più rilevanti, dal nostro punto di vista, sono almeno quattro:

  1. Allucinazioni e inesattezze

    I modelli possono generare risposte plausibili ma errate. In ambito clinico questo non è un semplice “bug”: può portare a decisioni sbagliate, interpretazioni fuorvianti, indicazioni fuoriscala.

  2. Bias e distorsioni

    L’IA apprende da dati storici, che includono stereotipi, squilibri di rappresentanza, distorsioni culturali. Senza un controllo attento, questi bias possono replicarsi o amplificarsi negli output.

  3. Gestione dei dati sensibili

    Parlare di psicologia significa spesso trattare informazioni estremamente delicate. Usare strumenti generici, senza sapere dove finiscono i dati e chi può accedervi, espone a rischi etici, deontologici e legali.

  4. Uso “fai da te” al posto di un percorso psicologico

    È già realtà il fenomeno di persone che usano l’IA come surrogato di un colloquio, al posto di un consulto professionale. Questo non solo non equivale a una presa in carico, ma può contribuire a posticipare o evitare la richiesta d’aiuto.

Per noi, riconoscere questi rischi non significa demonizzare lo strumento, ma assumersi la responsabilità di come viene usato.

5. L’IA come “terzo” nella relazione: possibilità e limiti

Un altro passaggio interessante dell’intervista riguarda l’idea dell’IA come possibile “terzo” nella relazione terapeutica: uno strumento che può aiutare a tenere traccia dei temi che ritornano, dei pattern linguistici, del tono emotivo, tra una seduta e l’altra.

Da un lato, vediamo qui una potenzialità:

  • strumenti che aiutano a osservare nel tempo l’andamento di un percorso;

  • supporti alla consapevolezza del paziente (es. diario, riflessioni guidate, esercizi tra le sedute);

  • maggior continuità tra i momenti di incontro.

Dall’altro, condividiamo il rischio che troppa attenzione allo strumento faccia perdere di vista l’esperienza viva del paziente e del terapeuta, spostando il focus su grafici, indicatori, “punteggi” prodotti dall’IA.

Per noi la domanda chiave è:

questo strumento aiuta a far emergere meglio il mondo interno della persona o rischia di coprirlo con troppi layer di analisi?

Ogni scelta tecnologica dovrebbe partire da qui.

6. AI Act, norme e responsabilità della professione

L’intervista richiama anche il ruolo dell’AI Act, la normativa europea che inizia a definire vincoli, criteri di trasparenza e livelli di rischio per diversi usi dell’IA, con particolare attenzione agli ambiti sanitari.

Non vogliamo ridurre il discorso a un elenco di articoli di legge, ma cogliamo un messaggio di fondo:

non è più possibile usare o proporre strumenti di IA in psicologia senza preoccuparsi seriamente di:

  • trasparenza sul funzionamento dei sistemi;

  • tracciabilità e protezione dei dati;

  • valutazione dei rischi specifici per la salute mentale;

  • coerenza con i codici deontologici delle professioni psicologiche.

In altre parole, la tecnologia non può correre da sola: deve stare dentro una cornice di responsabilità clinica, etica e legale.

Se vuoi saperne di più vai al nostro articolo : IA ACT

7. La nostra posizione (dopo questa lettura e dopo il lavoro sul campo)

Cosa ci portiamo a casa, come GestAI, dall’intervista e dall’esperienza quotidiana con i professionisti?

Potremmo riassumerlo così:

  • L’IA non sostituirà lo psicologo, ma sta già cambiando il contesto in cui la psicologia opera. Ignorarlo non è una protezione: è un rischio.

  • Gli strumenti più utili non sono quelli che promettono “terapia automatica”, ma quelli che alleggeriscono il carico organizzativo e cognitivo del professionista, permettendogli di dedicare più tempo ed energie alla relazione.

  • I rischi (allucinazioni, bias, gestione impropria dei dati, uso fai da te) sono reali e richiedono scelte progettuali chiare, non solo dichiarazioni di principio.

  • La domanda per noi psicologi non è più “se” usare l’IA, ma come farlo in modo coerente con la nostra responsabilità clinica e deontologica.

Come team, il nostro impegno è costruire strumenti che:

  • restino al servizio dei terapeuti, non al loro posto;

  • rispettino la centralità del paziente e della relazione;

  • siano progettati fin dall’inizio pensando a privacy, sicurezza e controllo sui dati.

Perché il punto non è avere più tecnologia in studio, ma avere più spazio per il lavoro psicologico, nel senso pieno del termine.

Fonte: http://www.humantrainer.com/articoli/intervista-psicologia-intelligenza-artificiale.html