IA e triage chi decide davvero chi curare prima?

Nel pronto soccorso l’algoritmo promette efficienza ed equità, ma la priorità clinica resta una scelta carica di responsabilità umana.

Matteo Benevento

2/17/2025

red and white x logo
red and white x logo

Il triage è uno dei luoghi più delicati dell’ospedale, maggiormente interventisti della pratica medica. È il punto in cui il tempo è poco, le informazioni sono incomplete e le decisioni hanno un peso immediato. In pronto soccorso, stabilire chi deve essere curato prima non è solo un atto tecnico, ma un gesto profondamente umano. Significa valutare gravità, rischio, urgenza, gestire l’emergenza, accettare che non tutto è misurabile e che ogni scelta comporta una responsabilità. Nel 2025, sempre più spesso, questi gesti umani e professionali vengono affiancati da sistemi di intelligenza artificiale. Algoritmi capaci di analizzare parametri vitali, anamnesi pregresse, esami di laboratorio e dati demografici promettono di rendere il triage più rapido, più standardizzato, più equo. In teoria, più giusto. Ma è proprio qui che emerge una domanda difficile da evitare. Quando entra in gioco l’IA, chi decide davvero chi curare prima?

Per comprendere la portata del cambiamento, bisogna partire da ciò che il triage è sempre stato. Non una semplice classificazione, ma un equilibrio fragile tra protocolli e giudizio clinico. Le scale di priorità, i codici colore, le linee guida servono a ridurre l’arbitrarietà, ma non eliminano la necessità di interpretare. Il paziente non è mai solo un insieme di parametri. È una persona che arriva con un corpo, una storia, un contesto, e spesso con sintomi vaghi che non si presentano in modo “da manuale”. L’intelligenza artificiale entra in questo spazio con una promessa potente. Analizzando grandi quantità di dati, può individuare segnali di deterioramento clinico prima che diventino evidenti, stimare il rischio di eventi avversi, suggerire una priorità basata su modelli predittivi. Studi pubblicati su Nature Medicine e su The Lancet Digital Health mostrano come alcuni sistemi di IA siano in grado di prevedere il peggioramento di pazienti critici con un’accuratezza superiore ai metodi tradizionali. In contesti di sovraffollamento, come il pronto soccorso, questo può fare la differenza tra intervenire in tempo o arrivare troppo tardi.

Eppure, più il sistema appare efficiente, più cresce il rischio di confondere l’efficacia con la neutralità. Un algoritmo non decide “chi merita” di essere curato prima, ma applica criteri che qualcun altro ha scelto. Quei criteri sono incorporati nei dati di addestramento, nelle variabili selezionate, negli obiettivi ottimizzati. Se un sistema assegna priorità sulla base della probabilità di sopravvivenza, sta implicitamente dicendo che alcune vite valgono più di altre. Se utilizza il consumo di risorse sanitarie come indicatore di gravità, può penalizzare chi storicamente ha avuto meno accesso alle cure. Uno studio pubblicato su Science da Obermeyer e colleghi ha mostrato come algoritmi utilizzati per la gestione delle priorità sanitarie possano riprodurre e amplificare disuguaglianze sociali senza che nessuno se ne accorga. Il problema non è che l’IA “sceglie male”, ma che sceglie coerentemente con dati che riflettono un mondo già diseguale. Nel triage, questo rischio è particolarmente critico, perché le decisioni non sono reversibili e hanno conseguenze immediate.

A complicare ulteriormente il quadro c’è il cosiddetto automation bias. In situazioni di stress, con tempi ridotti e carichi di lavoro elevati, il medico può essere portato a fidarsi eccessivamente del suggerimento algoritmico. Se il sistema assegna una priorità, metterla in discussione richiede tempo, energia e sicurezza professionale. Studi pubblicati su BMJ Quality & Safety mostrano che anche clinici esperti tendono ad accettare le indicazioni dell’IA, soprattutto quando queste sono presentate come oggettive e basate su grandi quantità di dati. Il rischio, allora, non è solo che l’algoritmo sbagli, ma che il medico smetta gradualmente di esercitare il proprio giudizio critico. Il triage diventa così un atto apparentemente neutro, ma in realtà delegato. La decisione resta formalmente umana, ma sostanzialmente automatizzata. È una trasformazione sottile, difficile da riconoscere, ma profondamente rilevante dal punto di vista etico. Esiste poi una dimensione che l’IA fatica strutturalmente a cogliere, ed è quella dell’incertezza. Il triage non riguarda solo ciò che è evidente, ma anche ciò che potrebbe accadere. Un dolore toracico in un giovane può sembrare meno urgente di una dispnea in un anziano, ma il medico sa che dietro un sintomo apparentemente banale può nascondersi un evento grave. Questa capacità di “sentire” l’eccezione, di cogliere ciò che non torna, è legata all’esperienza, all’intuizione clinica, a una forma di attenzione che non si lascia ridurre a una probabilità numerica. L’IA lavora sul passato, sui dati già osservati. Il medico lavora sul presente, su ciò che sta accadendo ora, davanti a lui. Quando le due prospettive si integrano, il sistema può diventare più sicuro. Quando una prende il sopravvento sull’altra, il rischio aumenta. Non è un caso che le principali raccomandazioni etiche internazionali insistano sul principio di human-in-the-loop. Secondo l’Organizzazione Mondiale della Sanità, l’intelligenza artificiale in sanità deve sempre supportare, e mai sostituire, il processo decisionale umano, soprattutto nei contesti ad alta criticità come il triage. Vi è poi l’aspetto simbolico che spesso viene trascurato. Il triage è uno dei primi momenti di contatto tra il paziente e il sistema sanitario. Sentirsi ascoltati, compresi, riconosciuti come persone e non solo come casi clinici influisce sulla fiducia, sull’aderenza alle cure, sulla percezione di giustizia. Un sistema che assegna priorità in modo opaco rischia di incrinare questa fiducia, anche quando funziona bene dal punto di vista statistico.

Nel 2025, la vera domanda non è se l’IA debba essere utilizzata nel triage. In molti casi, è già indispensabile. La domanda è come. Se l’algoritmo diventa uno strumento di supporto, capace di segnalare rischi invisibili e di aiutare il medico a non perdere informazioni cruciali, può salvare vite. Se diventa un’autorità silenziosa, difficilmente contestabile, rischia di trasformare una decisione clinica in un atto burocratico-automatizzato. Chi decide davvero chi curare prima, allora? Formalmente, il medico. Sostanzialmente, dipende da quanto spazio gli resta per decidere. Difendere l’umanità del triage non significa rifiutare la tecnologia, ma presidiare il confine tra supporto e delega. Significa ricordare che ogni priorità assegnata non è solo un numero, ma una scelta che parla di valori, di responsabilità e di giustizia.

Nel flusso incessante dei dati il medico oggi, ancor di più, è chiamato a fare qualcosa che nessun algoritmo può fare mai al suo posto assumersi il peso della decisione. Anche quando è difficile. Anche quando il tempo è poco. Anche quando una macchina suggerisce una risposta diversa. Perché nel triage, più che altrove, la medicina non è solo una scienza applicata. È un atto umano che decide chi ha diritto, adesso, di essere visto.