Il futuro del consenso informato nell’era dell’IA clinica
Se una decisione è influenzata da un algoritmo, informare non basta più: il consenso diventa il luogo decisivo della responsabilità condivisa.
Matteo Benevento
4/21/2025
Esiste un momento, nella pratica medica, in cui la tecnologia si ferma e resta solo la parola. È il momento del consenso informato. Un tempo apparentemente semplice, quasi rituale, che si rivela invece come uno dei passaggi più complessi e fragili dell’intera relazione di cura. Perché quando l’intelligenza artificiale (IA) entra nei processi decisionali clinici, la domanda non è più soltanto se il paziente acconsenta a una procedura, ma se comprenda davvero ciò che sta accadendo.
Il consenso informato nasce per proteggere l’autonomia del paziente. Non è un modulo da firmare, ma un processo. È il tentativo di rendere comprensibile una decisione medica, di condividere rischi, benefici, alternative, in modo che la persona possa partecipare attivamente alla scelta che riguarda il proprio corpo. Nell’era dell’IA clinica, questo processo viene messo alla prova come mai prima. Quando una decisione è supportata da un algoritmo, cosa significa informare? Come si spiega a un paziente che una diagnosi, una prognosi o una scelta terapeutica è stata influenzata da un sistema che analizza migliaia di dati, riconosce pattern invisibili e restituisce probabilità? Non si tratta solo di aggiungere una riga al modulo di consenso. Si tratta di ripensare il senso stesso dell’informazione. L’intelligenza artificiale introduce una nuova asimmetria nella relazione medico-paziente. Già la medicina tradizionale è caratterizzata da una differenza di competenze. Il medico conosce, il paziente si affida. L’IA amplifica questa distanza, perché aggiunge un livello di complessità che spesso nemmeno il medico controlla pienamente. Se il professionista fatica a spiegare come un algoritmo è giunto a una determinata conclusione, come può il paziente comprenderla davvero?
Studi pubblicati su The Lancet Digital Health e su JAMA mostrano che uno dei principali rischi dell’IA clinica è la perdita di trasparenza decisionale. Molti sistemi funzionano come scatole nere. Producono output affidabili dal punto di vista statistico, ma difficili da spiegare in termini causali. Questo crea una tensione profonda con l’idea stessa di consenso informato, che presuppone comprensione e possibilità di scelta. Il rischio è che il consenso informato si trasformi in un atto formale, svuotato di significato. Il paziente firma, ma non comprende. Accetta, ma non partecipa. In questo scenario, l’autonomia diventa apparente. Si mantiene la forma, ma si perde la sostanza. È una deriva silenziosa, favorita dalla complessità tecnologica, dalla pressione organizzativa dal linguaggio. L’IA, infatti, parla il linguaggio delle probabilità, dei modelli, delle correlazioni. Il paziente vive nel linguaggio dell’esperienza, della paura, della speranza. Tradurre dall’uno all’altro non è un’operazione neutra. Dire che un algoritmo stima un rischio del trenta per cento non significa la stessa cosa per un epidemiologo e per una persona che deve decidere se sottoporsi a un trattamento invasivo. Come ricorda Gerd Gigerenzer, la comunicazione del rischio è uno dei punti più critici della medicina contemporanea, e l’IA rende questa sfida ancora più complessa. Il medico, allora, in questo contesto, assume un ruolo nuovo. Non è più solo colui che conosce la scienza, ma colui che media tra sistemi complessi e persone reali. Deve comprendere a sufficienza il funzionamento dell’IA per poterla spiegare, ma soprattutto deve saper restituire al paziente il senso della decisione. Non basta dire che lo dice l’algoritmo. Questo non è consenso, è delega.
Le principali istituzioni internazionali sottolineano con forza questo punto. L’uso dell’intelligenza artificiale in sanità deve rafforzare, e non indebolire, l’autonomia del paziente. Il consenso informato deve includere informazioni sull’uso dell’IA, sui suoi limiti, sui margini di incertezza. Ma soprattutto deve preservare lo spazio della scelta. Inoltre è da considerare anche la dimensione etica. Quando una decisione è supportata da un sistema percepito come oggettivo e scientifico, il paziente può sentirsi meno legittimato a dissentire. Rifiutare una proposta terapeutica basata su un algoritmo può apparire irrazionale, irresponsabile, persino colpevole. In questo modo, la tecnologia rischia di esercitare una forma di pressione morale, trasformando il consenso in una accettazione passiva. Questo rischio è particolarmente evidente nella medicina predittiva e personalizzata. Quando un algoritmo stima un rischio futuro, il paziente viene chiamato a decidere oggi sulla base di un domani possibile. Accettare o rifiutare un intervento preventivo non è solo una scelta clinica, ma una scelta esistenziale. In questi casi, il consenso informato non può limitarsi a elencare dati. Deve accompagnare la persona nel confronto con l’incertezza. Il problema non è l’uso dell’IA, ma il modo in cui viene integrata nella relazione. Se il consenso informato diventa un momento burocratico, l’IA lo svuota ulteriormente. Se invece viene vissuto come uno spazio di dialogo, l’IA può diventare un’occasione per rendere la medicina più trasparente. Spiegare perché una macchina suggerisce una certa opzione può aiutare il medico a chiarire anche a se stesso le ragioni della scelta.
Infine non è da sottovalutare la questione di fiducia del paziente che non si basa sulla perfezione della tecnologia, ma sulla percezione di essere ascoltato e rispettato. Se il paziente avverte che la decisione è già stata presa da un sistema, la fiducia si incrina. Se invece percepisce che l’IA è uno strumento al servizio del dialogo, può accettarne il ruolo senza sentirsi espropriato della propria autonomia. Il futuro del consenso informato dipende meno dall’evoluzione degli algoritmi e più dalla capacità dei medici di abitare questo nuovo spazio. Di non nascondersi dietro la complessità tecnica, ma di assumersi la responsabilità di spiegare, di tradurre, di ascoltare. Il consenso informato non è un ostacolo all’innovazione. È il luogo in cui l’innovazione incontra l’umano. Alla fine, la domanda non è se il paziente debba essere informato sull’uso dell’IA. È se la medicina voglia ancora essere una pratica condivisa. In un’epoca in cui le macchine possono suggerire, prevedere, calcolare, il consenso informato resta uno degli ultimi spazi in cui la decisione torna ad essere esplicitamente umana. Un luogo fragile, ma essenziale. Perché nessun algoritmo può firmare al posto del medico, e nessuna firma ha valore se non è accompagnata dalla comprensione e dalla libertà di scegliere.
PixelPost.it è una testata registrata presso il Tribunale di Roma, n°164 del 15 Dicembre 2023