L’errore in medicina, che cosa cambia quando sbaglia anche l’algoritmo?
Con l’IA l’errore non scompare, ma diventa sistemico, imponendo una nuova riflessione su responsabilità, fiducia e giudizio clinico.
Matteo Benevento
12/15/2025
In medicina l’errore non è mai stato considerato un evento marginale. È sempre esistito, anche quando non veniva nominato, anche quando veniva nascosto dietro il silenzio o la colpa individuale. Nel tempo, tuttavia, l’errore ha assunto una fisionomia nuova. Non perché sia diventato più frequente, ma perché non è più esclusivamente umano. L’intelligenza artificiale (IA) entra nei processi diagnostici e decisionali, suggerisce, prevede, orienta. E quando qualcosa va storto, la domanda cambia forma. Chi ha sbagliato, se a sbagliare è anche un algoritmo?
Per secoli l’errore medico è stato legato alla figura del professionista. Alla sua competenza, alla sua attenzione, alla sua esperienza. Anche quando il contesto era complesso, la responsabilità veniva ricondotta a una persona. Questo modello, pur con tutti i suoi limiti, aveva una chiarezza simbolica. Il medico decideva, il medico rispondeva. Oggi, questa linearità si è incrinata. La decisione è spesso il risultato di una catena che include dati, software, modelli predittivi, protocolli automatizzati. L’errore diventa sistemico. L’intelligenza artificiale non sbaglia nel senso umano del termine. Non ha intenzioni, non prova distrazione, non agisce per negligenza. Eppure può produrre risultati errati, incompleti, distorti. Può amplificare bias presenti nei dati di addestramento, può fallire in contesti atipici, può suggerire opzioni inappropriate se le condizioni cambiano. Quando questo accade, l’errore non è immediatamente riconoscibile come tale, perché è avvolto dall’aura di oggettività del calcolo. Uno dei rischi principali è la difficoltà di individuare l’errore. Se un algoritmo suggerisce una diagnosi plausibile ma sbagliata, il medico può essere portato ad affidarsi a quella indicazione, soprattutto in contesti di pressione temporale. L’errore non nasce da una mancanza di competenza, ma da un eccesso di fiducia. La tecnologia, anziché ridurre l’errore, può renderlo più difficile da contestare.
Dal punto di vista del paziente, questo scenario è destabilizzante. Quando qualcosa va storto, a chi attribuire la responsabilità? Al medico che ha seguito il suggerimento? Al sistema che lo ha prodotto? All’istituzione che lo ha adottato? La frammentazione della decisione rischia di frammentare anche la fiducia. Il paziente non sa più dove si colloca l’umano, chi ha davvero scelto, chi può rispondere. La letteratura scientifica mostra che l’adozione di sistemi di IA in sanità non elimina l’errore, ma ne cambia la natura. Molti studi pubblicati sottolineano che diversi errori legati all’IA derivano da un uso non critico degli strumenti, da una comprensione incompleta dei loro limiti o da un’integrazione organizzativa inadeguata. L’errore non è nel codice in sé, ma nel modo in cui viene inserito nella pratica clinica. Parlare di errore significa quindi parlare di responsabilità condivisa. Questo non vuol dire diluire la responsabilità fino a renderla invisibile, ma riconoscere che le decisioni emergono da sistemi complessi. Il medico resta responsabile della scelta finale, ma ha bisogno di contesti che lo mettano nelle condizioni di esercitare davvero il proprio giudizio. Quando l’IA viene presentata come infallibile o come obbligatoria, la responsabilità del medico diventa solo formale.
Va considerata anche la dimensione formativa. I medici in formazione crescono in un ambiente in cui l’errore è sempre meno discusso apertamente. La tecnologia promette sicurezza, ma rischia di ridurre gli spazi di riflessione sull’errore come occasione di apprendimento. Se l’errore viene attribuito alla macchina, si perde l’opportunità di capire cosa non ha funzionato nel processo. Una medicina che non riflette sull’errore è una medicina che smette di imparare. L’errore, nella tradizione clinica, è sempre stato anche un momento di verità. Costringe a interrogarsi sui limiti, sulle assunzioni, sulle decisioni prese. L’IA può rendere questo momento più complesso, ma non può eliminarlo. Anzi, rende ancora più necessario sviluppare una cultura dell’errore che non sia punitiva, ma riflessiva. Una cultura che distingua tra colpa e responsabilità, tra fallimento individuale e criticità sistemica. Nel rapporto medico-paziente, riconoscere l’errore resta un atto etico fondamentale. Dire che qualcosa non ha funzionato, spiegare perché, assumersi la responsabilità anche quando l’errore è stato mediato da una tecnologia. Questo gesto non è indebolito dall’IA, ma reso più esigente. Nascondersi dietro l’algoritmo non protegge la relazione ma la compromette. L’IA in sanità deve essere trasparenti, spiegabili e inseriti in contesti che permettano l’intervento umano. Questo non per rallentare l’innovazione, ma per renderla sicura e giusta. L’errore non può essere eliminato, ma può essere reso visibile e gestibile. L’IA può aiutare a ridurre alcuni tipi di errore, ma ne introduce altri, più sottili. La vera sfida è riconoscerli. Questo richiede competenze nuove: saper interrogare il sistema, saper riconoscere quando una risposta perfetta non convince, saper rallentare quando tutto sembra suggerire di andare avanti.
Per il medico, questo significa accettare una forma di responsabilità più complessa. Non solo decidere, ma anche vigilare sul processo decisionale. Non solo usare strumenti, ma comprenderli. Non solo rispondere degli esiti, ma anche delle scelte di delega. Questa responsabilità non è un peso aggiuntivo, ma una trasformazione del ruolo professionale. Alla fine, chiedersi cosa cambia quando sbaglia anche l’algoritmo significa riaffermare un principio fondamentale. La tecnologia può supportare la medicina, ma non può assolverla dalla responsabilità. L’errore resta parte della pratica clinica, perché la cura riguarda esseri umani in contesti complessi. L’IA non elimina questa complessità. La rende più opaca se non viene governata. Una medicina matura non è quella che promette di non sbagliare mai, ma quella che sa riconoscere, affrontare e trasformare l’errore in conoscenza. Anche quando l’errore passa attraverso una macchina. Anche quando la decisione è condivisa. Perché, alla fine, la responsabilità della cura resta umana, e proprio per questo non può essere delegata fino a scomparire.
PixelPost.it è una testata registrata presso il Tribunale di Roma, n°164 del 15 Dicembre 2023