Epic Systems ha integrato nella propria piattaforma di cognitive computing, uno strumento proprietario di intelligenza artificiale che calcola la probabilità numerica che un paziente non si presenti all'appuntamento (no-show). Il sistema, caratterizzato da un'implementazione semplificata e un'integrazione nativa con l'EHR, utilizza come input dati personali del paziente “Health Affairs” insieme ad altre variabili cliniche e comportamentali.
L'adozione di questo tipo di strumenti predittivi ha conosciuto una rapida diffusione nel settore sanitario, promettendo ottimizzazione delle risorse, riduzione degli sprechi e miglioramento dell'efficienza operativa. Tuttavia, l'implementazione di algoritmi di machine learning nei sistemi clinici solleva questioni etiche fondamentali quando non adeguatamente supervisionata.
Gli algoritmi di machine learning apprendono dai dati storici. Quando questi dati riflettono disparità sistemiche esistenti nel sistema sanitario – come differenze nell'accesso alle cure tra gruppi etnici, barriere socioeconomiche, o pattern di utilizzo influenzati da discriminazioni pregresse – l'algoritmo può perpetuare e amplificare questi bias.
Nel contesto specifico della predizione dei no-show, le variabili utilizzate possono includere:
Codice postale e area di residenza: proxy indiretti per status socioeconomico e appartenenza etnica
Storia di appuntamenti mancati: che può riflettere barriere di accesso (trasporto, lavoro precario, caregiving) piuttosto che "irresponsabilità"
Tipologia di assicurazione sanitaria: correlata a reddito e condizione sociale
Età e genere: variabili demografiche che possono intersecarsi con vulnerabilità specifiche
Quando un sistema identifica un paziente come "ad alto rischio di no-show", le conseguenze operative possono paradossalmente aumentare la probabilità di mancata presentazione:
Deprioritizzazione: Il paziente riceve slot orari meno favorevoli (primi posti del mattino, orari incompatibili con impegni lavorativi)
Overbooking strategico: Lo slot viene doppiamente prenotato, creando potenziali ritardi e peggiorando l'esperienza
Comunicazione ridotta: Minore investimento in reminder personalizzati o supporto logistico
Stigmatizzazione implicita: Il personale può inconsciamente trattare il paziente con minor attenzione o priorità
Questo meccanismo crea un circolo vizioso discriminatorio: i pazienti identificati come "a rischio" ricevono un servizio degradato che aumenta realmente la probabilità di no-show, confermando apparentemente la "correttezza" della predizione algoritmica.
Una ricerca pubblicata su Science (Obermeyer et al., 2019) ha documentato come un algoritmo ampiamente utilizzato negli Stati Uniti per gestire la cura di circa 200 milioni di persone presentasse bias razziali significativi: a parità di condizioni cliniche, i pazienti neri ricevevano punteggi di rischio inferiori rispetto ai pazienti bianchi, risultando deprioritizzati nell'accesso a programmi di gestione delle patologie croniche.
La causa? L'algoritmo utilizzava la spesa sanitaria storica come proxy dello stato di salute. Poiché i pazienti neri hanno storicamente un accesso ridotto alle cure (e quindi una spesa minore) a causa di barriere sistemiche, l'algoritmo interpretava erroneamente questa minore spesa come "migliore stato di salute".
Ricerche recenti evidenziano come i bias intrinseci nelle cartelle cliniche elettroniche possano propagarsi nei modelli di intelligenza artificiale, sebbene alcuni studi abbiano mostrato che modelli AI ben progettati possano anche contribuire ad affrontare disparità in ambiti come le misure radiografiche e il riconoscimento delle cause fisiche del dolore tra gruppi razziali e socioeconomici.
Il problema non risiede nell'IA in sé, ma nella qualità e rappresentatività dei dati, nelle variabili selezionate e nella mancanza di validazione equa degli algoritmi su popolazioni diverse.
Ovviamente questo tipo di utilizzo implica delle conseguenze a livello etico e clinico. L'utilizzo di algoritmi discriminatori viola principi etici fondamentali della pratica medica:
Giustizia distributiva: L'allocazione delle risorse sanitarie deve essere equa e non penalizzare gruppi già vulnerabili
Non-discriminazione: Le decisioni cliniche non devono basarsi su caratteristiche che non hanno rilevanza medica diretta
Fiducia: La relazione terapeutica si fonda sulla percezione di essere trattati in modo giusto e rispettoso
Inoltre, viviamo una aumento delle discriminazioni delle popolazioni già svantaggiate nell'accesso alle cure – minoranze etniche, persone a basso reddito, residenti in aree rurali – sono quelle più vulnerabili ai bias algoritmici. L'implementazione acritica di sistemi predittivi rischia di:
Ridurre ulteriormente l'accesso alle cure per chi ne ha più bisogno
Deteriorare la qualità dell'assistenza ricevuta
Erodere la fiducia nel sistema sanitario
Aumentare il gap di salute tra gruppi sociali
Quali possono essere quindi le soluzioni per un’Ia più equa?
Di seguito abbiamo identificato alcuni punti.
Prima dell'implementazione e periodicamente durante l'utilizzo, gli algoritmi devono essere sottoposti a valutazioni di equità (fairness audits):
Analizzare le performance del modello disaggregate per gruppo demografico, etnico, socioeconomico
Identificare variabili proxy che possano veicolare discriminazione indiretta
Documentare pubblicamente i risultati delle valutazioni
I sistemi proprietari come quelli di Epic devono fornire:
Documentazione completa delle variabili utilizzate e del loro peso
Spiegabilità delle predizioni individuali (perché questo paziente è classificato come "ad alto rischio"?)
Accesso per ricercatori indipendenti per verifiche terze
Le popolazioni potenzialmente impattate devono essere:
Informate dell'uso di algoritmi predittivi nelle decisioni che li riguardano
Consultate nella fase di progettazione e validazione dei sistemi
Rappresentate nei team che sviluppano e valutano gli algoritmi
I bias negli algoritmi medici, se non adeguatamente affrontati, possono portare a decisioni cliniche scadenti e peggiorare le disuguaglianze sanitarie esistenti, influenzando le decisioni dell'IA in modi che svantaggiano alcuni gruppi.
Il personale clinico e amministrativo deve:
Comprendere i limiti degli algoritmi e i potenziali bias
Essere formato sul concetto di profezia autoavverante
Mantenere capacità critica rispetto alle predizioni automatiche
Avere il potere di override quando la predizione appare inappropriata
Invece di predire "chi mancherà all'appuntamento", gli algoritmi potrebbero essere orientati a:
Identificare barriere di accesso modificabili (trasporto, orari, comunicazione)
Personalizzare gli interventi di supporto (reminder multicanale, assistenza logistica, telemedicina)
Ottimizzare l'esperienza del paziente piuttosto che massimizzare l'efficienza operativa a breve termine
Implementare sistemi di monitoraggio continuo che verifichino:
Se i tassi di no-show si riducono uniformemente tra tutti i gruppi
Se emergono pattern di discriminazione nell'assegnazione degli slot
L'efficacia degli interventi correttivi implementati
L'integrazione dell'intelligenza artificiale nei sistemi di cartelle cliniche elettroniche rappresenta un'opportunità straordinaria per migliorare efficienza e qualità dell'assistenza. Tuttavia, il caso degli algoritmi predittivi per i no-show dimostra come l'implementazione acritica di questi strumenti possa perpetuare e amplificare discriminazioni sistemiche.
La strada verso un'IA sanitaria equa richiede:
Vigilanza continua sui potenziali bias
Trasparenza nei modelli e nelle decisioni
Accountability dei fornitori e degli utilizzatori
Coinvolgimento delle comunità impattate
Supervisione umana qualificata e critica
Orientamento all'equità come obiettivo primario, non secondario
Le strutture sanitarie che adottano questi sistemi hanno la responsabilità etica e legale di garantire che la tecnologia serva tutti i pazienti in modo giusto, contribuendo a ridurre – non ad amplificare – le disparità nell'accesso e nella qualità delle cure.
Riferimenti scientifici chiave:
Obermeyer Z, et al. (2019). "Dissecting racial bias in an algorithm used to manage the health of populations." Science, 366(6464), 447-453.
Rajkomar A, et al. (2018). "Ensuring Fairness in Machine Learning to Advance Health Equity." Annals of Internal Medicine, 169(12), 866-872.
Gianfrancesco MA, et al. (2018). "Potential Biases in Machine Learning Algorithms Using Electronic Health Record Data." JAMA Internal Medicine, 178(11), 1544-1547.