Il medico del 2025, cosa resta umano quando arriva l’intelligenza artificiale
Tra algoritmi clinici e supporti decisionali automatici, il ruolo del medico cambia: non meno importante, ma più esigente sul piano umano, etico e relazionale.
Matteo Benevento
Diventare medico, nel 2025, significa farlo in un momento di transizione profonda. Non solo per la velocità con cui cambiano le tecnologie, ma per il modo in cui queste tecnologie stanno riscrivendo il senso stesso della pratica clinica. L’intelligenza artificiale (IA) non è più una promessa lontana o un tema da convegno. È presente negli ambulatori, nei reparti, nelle cartelle cliniche, nei sistemi di supporto decisionale. È diventata una presenza ordinaria. Per queste ragioni, la domanda più importante non è più cosa l’IA sappia fare, ma cosa resti umano del medico quando l’IA entra stabilmente nella cura. Per molto tempo la medicina è stata identificata con la conoscenza. Saper riconoscere una malattia, interpretare un segno, scegliere una terapia. Oggi proprio attraverso l’IA, gran parte di questo sapere è accessibile, calcolabile, replicabile. Algoritmi capaci di analizzare immagini, dati clinici e letteratura scientifica in pochi secondi offrono suggerimenti sempre più accurati. Studi pubblicati su Nature Medicine e su The Lancet Digital Health mostrano come, in ambiti ben definiti, l’accuratezza delle informazioni sviluppate dall’IA possa eguagliare o addirittura superare quella umana. Di fronte a questi risultati, tuttavia, il medico non rischia di diventare un semplice esecutore di decisioni prese altrove. L’intelligenza artificiale non entra in medicina per sostituire il medico, bensì per trasformarne il ruolo. La medicina non è mai stata solo applicazione di conoscenze, ma interpretazione di situazioni complesse, spesso ambigue, sempre individuali. L’IA può elaborare enormi quantità di dati in breve tempo, ma non vive l’incertezza clinica o l’empatia col paziente. Non sperimenta il dubbio, né sente il peso di una decisione che riguarda una persona. Oggi, ancor più di prima, ciò che resta umano nella professione medica non è quello che la macchina non sa fare per limiti tecnici contingenti, ma che non può fare per sua stessa natura. La responsabilità è uno di questi elementi. Un algoritmo non risponde delle conseguenze delle sue indicazioni. Non firma un consenso informato, non affronta il dolore di una scelta difficile, non accompagna una persona quando la cura non coincide con la guarigione. La responsabilità resta interamente ed esclusivamente umana al medico, e proprio per questo diventa più visibile, più esigente. Accanto alla responsabilità c’è poi la capacità di decidere nell’incertezza. La medicina reale raramente offre certezze. Offre probabilità, scenari, ipotesi. L’IA eccelle nel calcolo delle probabilità, ma non può decidere cosa fare quando nessuna opzione è chiaramente giusta. Il medico, invece, è chiamato a scegliere anche quando le informazioni sono incomplete, quando il tempo è poco, quando il rischio non è eliminabile. Questa capacità di agire senza garanzie è una competenza profondamente umana, che non si lascia automatizzare. Un altro elemento che resta umano è la relazione di cura che non è un accessorio della medicina, ma una sua componente strutturale. Numerosi studi dimostrano che una buona relazione medico-paziente migliora l’aderenza terapeutica, riduce il contenzioso, influisce sugli esiti clinici. L’IA può simulare empatia, riconoscere pattern emotivi, modulare il linguaggio, ma non può condividere l’esperienza della malattia. Non può stare accanto a qualcuno nel momento in cui una diagnosi cambia il corso di una vita. La relazione non è una funzione, è un incontro. Paradossalmente, proprio l’ingresso dell’IA rende questa dimensione ancora più centrale. Più la medicina diventa tecnologica, più i pazienti cercano umanità. Più le decisioni si basano su sistemi complessi, più cresce il bisogno di qualcuno che le spieghi, le assuma, le renda comprensibili. In questo senso l’IA può restituire valore al medico, spostando l’attenzione dalla mera produzione di risposte alla costruzione di senso. Questo non significa che l’intelligenza artificiale sia neutra o priva di rischi. Al contrario. L’uso acritico dell’IA può favorire nuove forme di deresponsabilizzazione. L’automation bias, ampiamente documentato in letteratura, mostra come i professionisti tendano a fidarsi eccessivamente delle indicazioni automatiche, soprattutto quando sono presentate come oggettive e basate su grandi quantità di dati. In questi casi, il rischio non è che la macchina sbagli, ma che l’umano smetta di interrogare ciò che la macchina produce. Nel 2025, essere medico significa quindi sviluppare una nuova forma di vigilanza. Non una resistenza nostalgica alla tecnologia, ma una capacità critica di integrarla senza esserne assorbiti. Significa saper usare l’IA come strumento, non come autorità. Saper accettare il supporto senza rinunciare al giudizio. Riuscire a dire sì quando l’algoritmo aiuta e no quando semplifica eccessivamente una realtà complessa. Questa trasformazione pone una sfida importante anche alla formazione. Molti corsi di laurea in medicina stanno iniziando a introdurre contenuti legati all’intelligenza artificiale, ma spesso si concentrano sugli aspetti tecnici. Comprendere come funziona un algoritmo è importante, ma non sufficiente. Oggi serve formare medici capaci di riflettere sulle implicazioni etiche, cognitive e relazionali dell’uso dell’IA. Come sottolineato da Wartman e Combs su Academic Medicine, la formazione medica deve passare dall’era dell’informazione all’era dell’intelligenza artificiale senza perdere il suo nucleo umanistico e il suo fondamento umano. L’Organizzazione Mondiale della Sanità ribadisce che l’IA in sanità deve essere sempre inserita in un modello human-in-the-loop, in cui il professionista sanitario mantiene il controllo finale delle decisioni. Non è una prescrizione burocratica, ma un principio antropologico. Serve a ricordare che la medicina non è solo un sistema di ottimizzazione, ma una pratica che riguarda persone, valori, scelte. Alla fine, chiedersi cosa resti umano del medico nel 2025 significa spostare lo sguardo dal confronto con la macchina alla comprensione di sé. L’IA mette in crisi alcune competenze tradizionali, ma ne valorizza altre. Ridimensiona il medico come depositario esclusivo del sapere, ma ne rafforza il ruolo come interprete, garante, responsabile. Chiede meno memoria e più giudizio, meno certezza e più consapevolezza del limite, pensare critico e poi pensiero critico. Forse, allora, la domanda iniziale va riformulata. Non si tratta allora di capire cosa resti umano quando arriva l’intelligenza artificiale, ma capire se siamo disposti a difendere ciò che rende la medicina una pratica umana. La responsabilità, la relazione, la capacità di decidere nell’incertezza non sono residui del passato. Sono le competenze che diventano sempre più necessarie. Perché nessuna macchina può assumersi il peso di una decisione che riguarda la vita di un altro essere umano. E finché questo peso resta antropocentricamente sulle spalle del medico, la medicina continuerà ad avere il volto umano del dottore.
PixelPost.it è una testata registrata presso il Tribunale di Roma, n°164 del 15 Dicembre 2023