E se l’errore non è più umano? Il paradosso della colpa nell’era dell’IA

Se l’errore è mediato dalla macchina, chi ne risponde? Tra responsabilità, fiducia e apprendimento, la medicina deve rendere visibile ciò che cambia forma.

Matteo Benevento

12/9/2024

blue and green peacock feather
blue and green peacock feather

L’errore è sempre stato una presenza scomoda nella medicina. Da un lato, è ciò che la pratica clinica cerca costantemente di ridurre. Dall’altro, è una componente inevitabile di un sapere che opera nell’incertezza. Con l’ingresso dell’intelligenza artificiale (IA), l’errore sembra cambiare natura. Non scompare, ma si sposta. E proprio in questo spostamento emerge un paradosso, ovvero quando l’errore non è più percepito come umano, diventa più difficile da riconoscere e da assumere. L’IA viene spesso presentata come uno strumento capace di ridurre l’errore umano. Analizza grandi quantità di dati, individua pattern invisibili, segnala anomalie. In molti casi, questo contributo è reale. Ma ridurre un tipo di errore non significa eliminare l’errore in quanto tale. Significa trasformarlo. L’errore algoritmico non si manifesta come distrazione o stanchezza, ma come affidamento eccessivo, come fiducia mal riposta, come mancata interrogazione del suggerimento ricevuto. Dal punto di vista clinico, l’errore diventa più difficile da individuare perché si presenta come decisione supportata. Se un sistema suggerisce una scelta, l’errore non appare come una deviazione evidente, ma come un esito inatteso di un processo considerato affidabile. In questo contesto, il rischio non è solo sbagliare, ma non accorgersi di aver sbagliato. L’errore perde i suoi segnali tradizionali.

Nel rapporto con il paziente, questo spostamento ha conseguenze profonde. Quando un errore è attribuibile a una persona, è possibile ricostruire una responsabilità, chiedere spiegazioni, avviare un percorso di riparazione. Quando l’errore è mediato da un sistema, la responsabilità si frammenta. Il paziente può percepire una distanza, una mancanza di interlocutore. La fiducia, in questi casi, non si rompe solo per l’errore, ma per l’assenza di un volto che se ne faccia carico. Per i medici, la gestione dell’errore cambia radicalmente. Accettare di aver sbagliato è sempre stato difficile, ma possibile. Accettare di aver seguito un’indicazione errata è più complesso. Dove finisce la propria responsabilità e dove inizia quella del sistema? Questa ambiguità rischia di generare difesa, silenzio, rimozione. Eppure, la sicurezza delle cure si fonda proprio sulla capacità di riconoscere e analizzare gli errori. Dal punto di vista formativo, l’errore ha sempre avuto un ruolo pedagogico. È attraverso l’errore che si impara a riconoscere i limiti, a raffinare il giudizio, a sviluppare prudenza. Se l’IA riduce l’esposizione all’errore visibile, può ridurre anche le occasioni di apprendimento. Non perché l’errore scompaia, ma perché diventa meno riconoscibile come tale. Questo impoverisce la crescita professionale e quella culturale. La medicina ha costruito nel tempo una narrativa dell’errore umano, legata alla fallibilità, alla responsabilità, alla riparazione. L’errore algoritmico non rientra facilmente in questa narrativa. Non è vissuto come colpa, ma come malfunzionamento. Questo spostamento può ridurre il senso di responsabilità personale, proprio mentre l’uso della tecnologia richiederebbe una responsabilità ancora più consapevole. L’errore, però, non è solo un evento negativo. È anche un indicatore. Segnala che qualcosa nel sistema non funziona, che una procedura va rivista, che un’assunzione va messa in discussione. Se l’errore viene nascosto dietro l’opacità tecnologica, il sistema perde una fonte fondamentale di apprendimento. L’IA, senza una cultura dell’errore, rischia di diventare un amplificatore silenzioso di problemi.

Nel lavoro quotidiano, il medico è chiamato a un compito nuovo, non solo evitare l’errore, ma renderlo visibile anche quando è mediato dalla tecnologia. Questo significa interrogare i suggerimenti, segnalare incongruenze, partecipare a processi di revisione. Significa anche accettare che l’errore non è scomparso, ma ha cambiato forma. La vera questione non è chi sbaglia, ma come si risponde allo sbaglio. Una medicina che attribuisce l’errore alla macchina rischia di deresponsabilizzarsi. Una medicina che integra l’IA in una cultura della responsabilità può invece trasformare l’errore in occasione di miglioramento. La differenza sta nella consapevolezza. Il compito più importante oggi è restituire all’errore la sua dimensione umana, anche quando è mediato dalla tecnologia. Non per colpevolizzare, ma per comprendere. Perché curare non significa essere infallibili, ma essere capaci di riconoscere, affrontare e imparare dagli errori. In un’epoca in cui l’intelligenza artificiale promette precisione, la maturità della medicina si misura anche dalla capacità di non nascondere l’errore dietro la macchina. Assumersene la responsabilità resta, ancora, un atto profondamente umano.