L'intelligenza artificiale predittiva nei sistemi EHR

L'intelligenza artificiale predittiva nei sistemi EHR

Team GestAI
09/12/2025
6 min
studiono showEfficienzaterapia digitaleAI psicologiaclinicaterapiaterapia terapeuta

Epic Systems ha integrato nella propria piattaforma di cognitive computing, uno strumento proprietario di intelligenza artificiale che calcola la probabilità numerica che un paziente non si presenti all'appuntamento (no-show). Il sistema, caratterizzato da un'implementazione semplificata e un'integrazione nativa con l'EHR, utilizza come input dati personali del paziente “Health Affairs” insieme ad altre variabili cliniche e comportamentali.

L'adozione di questo tipo di strumenti predittivi ha conosciuto una rapida diffusione nel settore sanitario, promettendo ottimizzazione delle risorse, riduzione degli sprechi e miglioramento dell'efficienza operativa. Tuttavia, l'implementazione di algoritmi di machine learning nei sistemi clinici solleva questioni etiche fondamentali quando non adeguatamente supervisionata.

Il problema della discriminazione algoritmica

Bias nei dati di addestramento

Gli algoritmi di machine learning apprendono dai dati storici. Quando questi dati riflettono disparità sistemiche esistenti nel sistema sanitario – come differenze nell'accesso alle cure tra gruppi etnici, barriere socioeconomiche, o pattern di utilizzo influenzati da discriminazioni pregresse – l'algoritmo può perpetuare e amplificare questi bias.

Nel contesto specifico della predizione dei no-show, le variabili utilizzate possono includere:

  • Codice postale e area di residenza: proxy indiretti per status socioeconomico e appartenenza etnica

  • Storia di appuntamenti mancati: che può riflettere barriere di accesso (trasporto, lavoro precario, caregiving) piuttosto che "irresponsabilità"

  • Tipologia di assicurazione sanitaria: correlata a reddito e condizione sociale

  • Età e genere: variabili demografiche che possono intersecarsi con vulnerabilità specifiche

Il rischio di profezie autoavveranti

Quando un sistema identifica un paziente come "ad alto rischio di no-show", le conseguenze operative possono paradossalmente aumentare la probabilità di mancata presentazione:

  1. Deprioritizzazione: Il paziente riceve slot orari meno favorevoli (primi posti del mattino, orari incompatibili con impegni lavorativi)

  2. Overbooking strategico: Lo slot viene doppiamente prenotato, creando potenziali ritardi e peggiorando l'esperienza

  3. Comunicazione ridotta: Minore investimento in reminder personalizzati o supporto logistico

  4. Stigmatizzazione implicita: Il personale può inconsciamente trattare il paziente con minor attenzione o priorità

Questo meccanismo crea un circolo vizioso discriminatorio: i pazienti identificati come "a rischio" ricevono un servizio degradato che aumenta realmente la probabilità di no-show, confermando apparentemente la "correttezza" della predizione algoritmica.

Evidenze scientifiche sulla discriminazione algoritmica in sanità

Studi su bias razziali negli algoritmi sanitari

Una ricerca pubblicata su Science (Obermeyer et al., 2019) ha documentato come un algoritmo ampiamente utilizzato negli Stati Uniti per gestire la cura di circa 200 milioni di persone presentasse bias razziali significativi: a parità di condizioni cliniche, i pazienti neri ricevevano punteggi di rischio inferiori rispetto ai pazienti bianchi, risultando deprioritizzati nell'accesso a programmi di gestione delle patologie croniche.

La causa? L'algoritmo utilizzava la spesa sanitaria storica come proxy dello stato di salute. Poiché i pazienti neri hanno storicamente un accesso ridotto alle cure (e quindi una spesa minore) a causa di barriere sistemiche, l'algoritmo interpretava erroneamente questa minore spesa come "migliore stato di salute".

Bias socioeconomici nei modelli predittivi

Ricerche recenti evidenziano come i bias intrinseci nelle cartelle cliniche elettroniche possano propagarsi nei modelli di intelligenza artificiale, sebbene alcuni studi abbiano mostrato che modelli AI ben progettati possano anche contribuire ad affrontare disparità in ambiti come le misure radiografiche e il riconoscimento delle cause fisiche del dolore tra gruppi razziali e socioeconomici.

Il problema non risiede nell'IA in sé, ma nella qualità e rappresentatività dei dati, nelle variabili selezionate e nella mancanza di validazione equa degli algoritmi su popolazioni diverse.

Implicazioni etiche e cliniche

Ovviamente questo tipo di utilizzo implica delle conseguenze a livello etico e clinico. L'utilizzo di algoritmi discriminatori viola principi etici fondamentali della pratica medica:

  • Giustizia distributiva: L'allocazione delle risorse sanitarie deve essere equa e non penalizzare gruppi già vulnerabili

  • Non-discriminazione: Le decisioni cliniche non devono basarsi su caratteristiche che non hanno rilevanza medica diretta

  • Fiducia: La relazione terapeutica si fonda sulla percezione di essere trattati in modo giusto e rispettoso

Inoltre, viviamo una aumento delle discriminazioni delle popolazioni già svantaggiate nell'accesso alle cure – minoranze etniche, persone a basso reddito, residenti in aree rurali – sono quelle più vulnerabili ai bias algoritmici. L'implementazione acritica di sistemi predittivi rischia di:

  • Ridurre ulteriormente l'accesso alle cure per chi ne ha più bisogno

  • Deteriorare la qualità dell'assistenza ricevuta

  • Erodere la fiducia nel sistema sanitario

  • Aumentare il gap di salute tra gruppi sociali

Quali possono essere quindi le soluzioni per un’Ia più equa?

Di seguito abbiamo identificato alcuni punti.

1. Audit algoritmici obbligatori

Prima dell'implementazione e periodicamente durante l'utilizzo, gli algoritmi devono essere sottoposti a valutazioni di equità (fairness audits):

  • Analizzare le performance del modello disaggregate per gruppo demografico, etnico, socioeconomico

  • Identificare variabili proxy che possano veicolare discriminazione indiretta

  • Documentare pubblicamente i risultati delle valutazioni

2. Trasparenza e explicabilità

I sistemi proprietari come quelli di Epic devono fornire:

  • Documentazione completa delle variabili utilizzate e del loro peso

  • Spiegabilità delle predizioni individuali (perché questo paziente è classificato come "ad alto rischio"?)

  • Accesso per ricercatori indipendenti per verifiche terze

3. Coinvolgimento dei pazienti e delle comunità

Le popolazioni potenzialmente impattate devono essere:

  • Informate dell'uso di algoritmi predittivi nelle decisioni che li riguardano

  • Consultate nella fase di progettazione e validazione dei sistemi

  • Rappresentate nei team che sviluppano e valutano gli algoritmi

4. Formazione degli operatori sanitari

I bias negli algoritmi medici, se non adeguatamente affrontati, possono portare a decisioni cliniche scadenti e peggiorare le disuguaglianze sanitarie esistenti, influenzando le decisioni dell'IA in modi che svantaggiano alcuni gruppi.

Il personale clinico e amministrativo deve:

  • Comprendere i limiti degli algoritmi e i potenziali bias

  • Essere formato sul concetto di profezia autoavverante

  • Mantenere capacità critica rispetto alle predizioni automatiche

  • Avere il potere di override quando la predizione appare inappropriata

5. Riprogettazione degli obiettivi algoritmici

Invece di predire "chi mancherà all'appuntamento", gli algoritmi potrebbero essere orientati a:

  • Identificare barriere di accesso modificabili (trasporto, orari, comunicazione)

  • Personalizzare gli interventi di supporto (reminder multicanale, assistenza logistica, telemedicina)

  • Ottimizzare l'esperienza del paziente piuttosto che massimizzare l'efficienza operativa a breve termine

6. Validazione continua e feedback loops

Implementare sistemi di monitoraggio continuo che verifichino:

  • Se i tassi di no-show si riducono uniformemente tra tutti i gruppi

  • Se emergono pattern di discriminazione nell'assegnazione degli slot

  • L'efficacia degli interventi correttivi implementati

Conclusioni

L'integrazione dell'intelligenza artificiale nei sistemi di cartelle cliniche elettroniche rappresenta un'opportunità straordinaria per migliorare efficienza e qualità dell'assistenza. Tuttavia, il caso degli algoritmi predittivi per i no-show dimostra come l'implementazione acritica di questi strumenti possa perpetuare e amplificare discriminazioni sistemiche.

La strada verso un'IA sanitaria equa richiede:

  • Vigilanza continua sui potenziali bias

  • Trasparenza nei modelli e nelle decisioni

  • Accountability dei fornitori e degli utilizzatori

  • Coinvolgimento delle comunità impattate

  • Supervisione umana qualificata e critica

  • Orientamento all'equità come obiettivo primario, non secondario

Le strutture sanitarie che adottano questi sistemi hanno la responsabilità etica e legale di garantire che la tecnologia serva tutti i pazienti in modo giusto, contribuendo a ridurre – non ad amplificare – le disparità nell'accesso e nella qualità delle cure.

Riferimenti scientifici chiave:

  • Obermeyer Z, et al. (2019). "Dissecting racial bias in an algorithm used to manage the health of populations." Science, 366(6464), 447-453.

  • Rajkomar A, et al. (2018). "Ensuring Fairness in Machine Learning to Advance Health Equity." Annals of Internal Medicine, 169(12), 866-872.

  • Gianfrancesco MA, et al. (2018). "Potential Biases in Machine Learning Algorithms Using Electronic Health Record Data." JAMA Internal Medicine, 178(11), 1544-1547.