Quando l’algoritmo vede più del medico, opportunità e limiti
L’IA individua segnali invisibili all’occhio umano, ma il senso clinico nasce solo dall’integrazione tra dato, esperienza e relazione.
Matteo Benevento
4/14/2025
C’è un momento, sempre più frequente nella medicina di oggi, in cui il medico si trova davanti a un risultato che non avrebbe saputo individuare da solo. Un pattern in un’immagine radiologica, una correlazione nascosta in una serie di esami, un segnale debole in mezzo a migliaia di dati. L’algoritmo lo segnala con sicurezza, spesso con una probabilità elevata. In quell’istante nasce una sensazione ambivalente: sollievo per l’aiuto ricevuto e, insieme, una sottile inquietudine. Se la macchina vede più di me, qual è il mio ruolo?
L’idea che un algoritmo possa “vedere” più del medico non è una provocazione futuristica, ma una realtà documentata. Sistemi di intelligenza artificiale (IA) addestrati su milioni di immagini riescono a individuare dettagli impercettibili all’occhio umano. In radiologia, in dermatologia, in anatomia patologica, l’IA riconosce configurazioni microscopiche, variazioni minime di intensità, pattern complessi che sfuggono anche agli specialisti più esperti. Studi pubblicati su Nature Medicine e su The Lancet Digital Health mostrano come, in compiti ben delimitati, l’accuratezza algoritmica possa superare quella umana. Ma vedere non significa comprendere. L’algoritmo osserva il mondo attraverso il filtro dei dati su cui è stato addestrato. Non guarda il paziente, guarda una rappresentazione del paziente. Non ascolta una storia, analizza una traccia. Il medico, al contrario, vede meno in termini di quantità, ma vede in modo diverso. Integra segni, sintomi, parole, silenzi, contesto. Quando l’algoritmo vede di più, non sta facendo la stessa cosa meglio. Sta facendo un’altra cosa. Il rischio nasce quando queste due modalità di visione vengono confuse. Se l’output dell’IA viene percepito come una verità superiore, il giudizio clinico rischia di ridursi a una funzione di validazione. Il medico non interpreta più il dato, lo conferma. Questo slittamento è sottile, ma ha conseguenze profonde. La medicina diventa sempre più guidata da ciò che è misurabile, riconoscibile, formalizzabile. Ciò che non entra nel campo visivo dell’algoritmo tende a perdere valore. Eppure, proprio ciò che l’algoritmo non vede è spesso decisivo. Il dolore riferito in modo impreciso, la stanchezza che non trova riscontro negli esami, il cambiamento nel comportamento di un paziente cronico. Questi elementi non sono rumore. Sono parte integrante del quadro clinico. La sfida della medicina non è scegliere quale visione sia migliore, ma evitare che una oscuri l’altra.
Un altro aspetto cruciale riguarda il modo in cui l’IA costruisce la propria visione. Gli algoritmi apprendono da dati storici. Questo significa che vedono molto bene ciò che è frequente, ciò che è stato registrato, ciò che rientra nelle categorie. Vedono meno bene l’eccezione, la rarità, l’atipico. In alcuni casi, possono addirittura non vedere affatto ciò che non è stato sufficientemente rappresentato nei dataset. Studi pubblicati su riviste scientifiche hanno mostrato come le performance degli algoritmi possano variare significativamente in base all’etnia, al genere, al contesto socioeconomico dei pazienti. L’algoritmo vede molto, ma non vede tutto. E soprattutto non vede in modo neutro. C’è poi una dimensione cognitiva che riguarda il medico. Quando una macchina individua qualcosa che l’essere umano non ha notato, si attiva un meccanismo psicologico potente. La fiducia nell’algoritmo cresce, mentre la fiducia nel proprio giudizio può ridursi. Questo non è necessariamente negativo, ma richiede consapevolezza. Studi sull’automation bias mostrano che, in presenza di sistemi percepiti come altamente performanti, i professionisti tendono a ridurre il controllo critico. Il rischio è che la capacità di vedere venga progressivamente delegata.
Nel percorso di formazione, questo passaggio è particolarmente delicato. Imparare a osservare è una competenza che si costruisce nel tempo. Se il giovane medico si abitua fin dall’inizio a fare affidamento su sistemi che vedono di più, può perdere l’occasione di sviluppare uno sguardo clinico profondo. Non perché l’IA sia dannosa in sé, ma perché può diventare un sostituto prematuro dell’esperienza. La tecnologia, in questo senso, anticipa la competenza senza sostenerne la costruzione. Le istituzioni internazionali invitano a mantenere un equilibrio. L’intelligenza artificiale deve essere utilizzata per aumentare le capacità umane, non per rimpiazzarle. Questo vale in modo particolare per la dimensione percettiva e interpretativa della medicina. L’IA può ampliare il campo visivo del medico, ma non può sostituire lo sguardo clinico come atto responsabile. Vi è anche una questione di comunicazione con il paziente. Quando una decisione è guidata da qualcosa che il medico non vede direttamente, spiegare diventa più difficile. Come si racconta a un paziente che una scelta è stata influenzata da un pattern individuato da un algoritmo? Come si costruisce fiducia se la fonte dell’informazione è opaca o incomprensibile? La relazione di cura si fonda anche sulla possibilità di condividere il ragionamento. Se questo ragionamento diventa inaccessibile, la relazione rischia di indebolirsi.
Eppure, ignorare ciò che l’algoritmo vede sarebbe un errore speculare. Rinunciare a uno strumento capace di individuare segnali precoci significa perdere opportunità di diagnosi e di cura. La questione, allora, non è se fidarsi dell’algoritmo, ma come integrare il suo sguardo con quello umano. L’IA può segnalare ciò che merita attenzione. Il medico decide se e come quell’informazione ha senso per quella persona, in quel contesto, in quel momento.
Il medico si trova sempre più spesso a fare da mediatore tra due mondi. Da un lato, un mondo di dati, immagini, pattern invisibili. Dall’altro, un mondo di esperienze, parole, relazioni. Quando l’algoritmo vede più del medico, non sta sottraendo valore alla professione. Sta spostando il baricentro. Il valore non è più solo nella capacità di riconoscere, ma nella capacità di interpretare, spiegare, decidere. Forse è proprio qui che si gioca una nuova forma di competenza clinica. Non nello sguardo che compete con la macchina, ma nello sguardo che sa dialogare con ciò che la macchina vede. Il medico del 2025 non deve vedere tutto. Deve sapere cosa fare con ciò che viene visto. Deve saper riconoscere quando un segnale è rilevante e quando è un falso positivo, quando una correlazione ha senso e quando è solo una coincidenza statistica. Alla fine, l’algoritmo può ampliare l’orizzonte della medicina, ma non può darle significato. Può indicare un’anomalia, ma non può decidere cosa quella anomalia rappresenta per una persona. Quando l’algoritmo vede più del medico, la medicina non diventa meno umana. Diventa più esigente. Chiede al medico di essere non solo osservatore, ma interprete. Non solo tecnico, ma responsabile. E forse è proprio in questa responsabilità che, ancora oggi, la medicina continua a riconoscersi come una pratica profondamente umana.
PixelPost.it è una testata registrata presso il Tribunale di Roma, n°164 del 15 Dicembre 2023