Chi decide davvero? L’illusione della neutralità algoritmica nella pratica clinica

Nessun algoritmo è neutro. Dietro ogni suggerimento ci sono scelte, valori e priorità che la medicina non può smettere di interrogare.

Matteo Benevento

2/26/2025

blue UTP cord
blue UTP cord

Quando un sistema di intelligenza artificiale (IA) entra nella pratica medica, viene spesso presentato come neutrale. Un supporto oggettivo, basato sui dati, libero da emozioni, interessi o pregiudizi. Questa promessa è rassicurante, soprattutto in un contesto in cui le decisioni sono complesse e cariche di responsabilità. Ma proprio questa apparente neutralità rischia di diventare una delle illusioni più pericolose. In medicina, nessuna decisione è mai completamente neutra. Ogni scelta si colloca dentro un contesto fatto di valori, priorità, risorse, tempi. L’IA non sfugge a questa logica. I suoi suggerimenti riflettono le scelte fatte a monte, quali dati raccogliere, quali obiettivi ottimizzare, quali esiti considerare desiderabili. Anche quando il processo è invisibile, la direzione è già stata tracciata. Dal punto di vista clinico, l’illusione della neutralità emerge quando un suggerimento algoritmico viene percepito come tecnicamente corretto e quindi sottratto alla discussione. Se lo dice il sistema, deve essere giusto. In questo passaggio silenzioso, la decisione cambia statuto. Non è più una proposta da valutare, ma un’indicazione da eseguire. Il giudizio umano non scompare, ma si ritrae. Il problema non è l’uso del dato, ma il modo in cui il dato viene presentato. Un algoritmo non esplicita i valori che incorpora. Non dice quali alternative ha scartato, né perché. Questo rende difficile contestare la decisione senza apparire irrazionali o poco scientifici. In medicina, però, la possibilità di contestare è parte integrante della buona pratica. Senza questa possibilità, la cura diventa esecuzione.

Nel rapporto con il paziente, la neutralità algoritmica può produrre un effetto ambiguo. Da un lato, rafforza la percezione di oggettività. Dall’altro, riduce lo spazio del dialogo. Se la scelta appare inevitabile, diventa più difficile discuterne il senso, adattarla alla persona, valutarne l’impatto sulla vita quotidiana. La decisione resta corretta, ma rischia di non essere condivisa. Per i medici proprio questa dinamica è particolarmente delicata. Imparare a lavorare con sistemi che offrono risposte ottimali può ridurre l’esercizio critico. Non perché il medico smetta di pensare, ma perché alcune domande non vengono più poste. Chi ha deciso che questo è l’esito migliore? Per chi? In base a quali criteri? Senza queste domande, la neutralità diventa una scorciatoia cognitiva. Anche l’aspetto istituzionale è importante. Le scelte incorporate nei sistemi riflettono spesso priorità organizzative, riduzione dei costi, ottimizzazione dei flussi, standardizzazione dei percorsi. Tutti obiettivi legittimi, ma non neutri. Quando l’IA suggerisce una decisione, suggerisce anche un modello di sanità. Riconoscerlo è fondamentale per non confondere l’efficienza con il valore.

L’illusione della neutralità si manifesta anche nel linguaggio. Termini come raccomandazione, best option, scelta ottimale, trasmettono un senso di inevitabilità. In realtà, ogni raccomandazione è situata. Vale in certe condizioni, per certi obiettivi, per certe persone. Restituire questa complessità è un compito umano che l’IA non può svolgere da sola. Tuttavia questo non significa rifiutare l’utilizzo dell’intelligenza artificiale. Significa utilizzarla con consapevolezza. Sapere che dietro ogni output c’è una visione del mondo, anche quando non è dichiarata. In medicina, la trasparenza non riguarda solo il funzionamento tecnico, ma anche le finalità implicite. La vera domanda, allora, non è se l’algoritmo sia neutro, ma se siamo in grado di riconoscere le scelte che incorpora. Chi decide davvero quando un sistema suggerisce una strada? E soprattutto, chi si assume la responsabilità di quella decisione quando viene applicata a una persona concreta?

In un contesto in cui la tecnologia sembra offrire risposte sempre più precise, il compito del medico non è difendere una presunta neutralità umana, ma mantenere aperto lo spazio del giudizio. Ricordare che ogni decisione clinica è sempre anche una decisione di valore. Forse la maturità della medicina nell’era dell’intelligenza artificiale si misurerà proprio qui, nella capacità di usare strumenti potenti senza attribuire loro un’autorità che non possono avere. Perché curare non è applicare ciò che appare neutro, ma assumersi la responsabilità di scegliere, sapendo che nessuna scelta è mai davvero senza valori.