Possiamo davvero capire come ragiona una macchina? Il limite della trasparenza nell’intelligenza artificiale

L’IA promette spiegazioni, ma non sempre comprensione. In medicina, distinguere tra ciò che appare chiaro e ciò che è davvero interpretabile diventa una questione di responsabilità.

Matteo Benevento

7/24/2025

man using a laptop
man using a laptop

Una delle promesse più ricorrenti dell’intelligenza artificiale (IA) è la trasparenza. L’idea che, osservando il funzionamento interno di un algoritmo, sia possibile comprendere come e perché una macchina arrivi a una determinata conclusione. In medicina, questa promessa assume un peso particolare, fidarsi di una decisione significa poterla spiegare, giustificare, assumersene la responsabilità. Ma cosa accade quando la comprensione del ragionamento della macchina si rivela parziale, o addirittura illusoria?

Negli ultimi anni si è parlato molto della possibilità di monitorare la cosiddetta catena di ragionamento dei sistemi di intelligenza artificiale, nel tentativo di renderli più interpretabili e controllabili. L’ipotesi è semplice, se possiamo osservare i passaggi intermedi di un processo decisionale, possiamo anche intercettare errori, bias o comportamenti indesiderati. Tuttavia, le ricerche più recenti suggeriscono che questa trasparenza è meno solida di quanto si sperasse. Anche quando una macchina sembra mostrarci il proprio percorso logico, ciò che vediamo potrebbe non coincidere realmente con il processo che ha generato l’output finale. In altre parole, l’IA può produrre spiegazioni plausibili senza che queste riflettano fedelmente il suo funzionamento interno. Questo scarto tra ciò che appare comprensibile e ciò che effettivamente accade introduce un problema profondo, soprattutto in ambito clinico.

In medicina, spiegare una decisione non è un optional. È parte integrante della relazione di cura. Il medico non si limita a scegliere, ma accompagna il paziente nel comprendere. Se una tecnologia fornisce indicazioni che non possono essere realmente interpretate, il rischio è quello di trasformare la decisione clinica in un atto opaco, difficilmente condivisibile e ancora più difficilmente contestabile. Questo non significa che la trasparenza sia inutile. Al contrario, gli sforzi per rendere l’IA più interpretabile restano fondamentali. Ma significa riconoscere che non esiste una trasparenza totale, e che confondere la visualizzazione di alcuni passaggi con una vera comprensione può generare un falso senso di sicurezza. In medicina, il falso controllo è spesso più pericoloso dell’incertezza dichiarata. Il problema diventa ancora più rilevante quando questi sistemi vengono integrati in contesti decisionali complessi, come la diagnosi, il triage o la valutazione del rischio. Se un algoritmo suggerisce una scelta, ma il suo funzionamento resta in parte indecifrabile, chi risponde dell’esito? Il medico, l’ingegnere, l’istituzione? La responsabilità, in questi casi, tende a diluirsi, proprio mentre dovrebbe essere più chiara.

Dal punto di vista formativo, questa situazione impone una competenza nuova. I medici oggi non devono solo imparare a usare strumenti avanzati, ma anche a convivere con sistemi che non sono pienamente spiegabili. Saper riconoscere quando fidarsi, quando interrogare, quando fermarsi diventa una parte essenziale del giudizio clinico. Non tutto ciò che è sofisticato è automaticamente affidabile. C’è poi una dimensione culturale più profonda. L’idea di capire come pensa una macchina riflette un desiderio umano antico, rendere il mondo completamente leggibile, ridurre l’incertezza, eliminare l’ambiguità. Ma la medicina, per sua natura, non funziona così. È fatta di probabilità, contesti, eccezioni. Pretendere che l’IA offra una trasparenza assoluta rischia di proiettare sulla tecnologia aspettative che nemmeno la pratica clinica umana può soddisfare. La vera sfida, allora, non è vedere tutto, ma sapere cosa non possiamo vedere. Accettare che anche i sistemi più avanzati restino in parte opachi significa mantenere viva una postura critica. Significa non delegare completamente il giudizio, ma integrare l’IA come supporto, non come arbitro finale. In questo senso, la trasparenza non è un dato tecnico, ma una relazione. Dipende da come l’algoritmo viene inserito nel contesto clinico, da come le sue indicazioni vengono discusse, da quanto spazio resta al dubbio. L’IA può suggerire, ma è il medico che deve continuare a comprendere, spiegare e assumersi la responsabilità della decisione. Forse, allora, la domanda giusta non è se possiamo davvero capire come ragiona una macchina, ma se siamo disposti a riconoscere i suoi limiti senza rinunciare ai nostri. Perché in medicina, più che vedere dentro la macchina, conta non smettere di guardare la persona.