Scegliere è curare: perché la medicina del futuro non potrà delegare le decisioni
L’IA può suggerire opzioni, ma la scelta resta un atto umano che implica responsabilità, dialogo e assunzione del limite.
Matteo Benevento
7/16/2025
La medicina è attraversata da una promessa seducente, ridurre l’incertezza. L’intelligenza artificiale (IA) analizza enormi quantità di dati, calcola probabilità, suggerisce opzioni ottimali. In molti contesti, questo supporto migliora l’accuratezza e riduce gli errori. Ma proprio mentre le possibilità di previsione aumentano, la scelta diventa più complessa. Perché avere più opzioni non significa automaticamente sapere quale scegliere. E curare, alla fine, è sempre una scelta. La scelta è ciò che distingue l’atto clinico da una semplice applicazione tecnica. Un algoritmo può indicare ciò che è più probabile, ma non ciò che è più giusto per quella persona, in quel momento. Il rischio non è che la medicina scelga male, ma che smetta di scegliere davvero. Delegare la decisione alla tecnologia può sembrare rassicurante, ma comporta una perdita di responsabilità che la medicina non può permettersi.
Scegliere significa assumere un rischio. Ogni decisione clinica implica una rinuncia, scegliere un percorso significa scartarne altri. L’IA tende a presentare le opzioni come simultaneamente disponibili, sempre riapribili. Questo può creare l’illusione che non esista un momento della decisione, ma solo un continuo aggiustamento. In realtà, la vita dei pazienti è fatta di momenti decisivi. Rimandare indefinitamente la scelta può essere tanto dannoso quanto scegliere male. Nel rapporto medico-paziente, la scelta è un atto relazionale. Non si sceglie mai da soli, anche quando la responsabilità ultima resta al medico. Le preferenze, i valori, le paure del paziente entrano nella decisione. L’IA può facilitare la condivisione delle informazioni, ma non può sostituire il dialogo che trasforma un’opzione in una scelta condivisa. Senza questo dialogo, la decisione resta tecnicamente corretta e umanamente fragile. Scegliere è anche un atto di limite. Non tutto può essere fatto, non tutto deve essere fatto. L’IA amplia il campo del possibile, ma non definisce il campo del desiderabile. Questa distinzione è cruciale. Il desiderabile non è calcolabile. Nasce dall’incontro tra ciò che è tecnicamente fattibile e ciò che ha senso per una vita concreta. Il medico è chiamato a custodire questa soglia.
La scelta riguarda anche il tempo. Quando scegliere? Subito, per non perdere un’opportunità, o più tardi, per permettere una decisione più consapevole? L’IA può segnalare finestre temporali ottimali, ma non può valutare la maturità emotiva di una scelta. Scegliere troppo presto può essere invasivo. Scegliere troppo tardi può essere negligente. Questo equilibrio non è algoritmico. È clinico ed etico. Oggi la scelta è messa alla prova dalla pressione sistemica. Linee guida, protocolli, indicatori di performance orientano le decisioni. Sono strumenti preziosi, ma non possono sostituire il giudizio. Quando la scelta viene percepita come mera conformità a una raccomandazione, la responsabilità si attenua. Scegliere davvero significa anche assumersi la possibilità di spiegare perché, in quel caso, una deviazione è appropriata. Scegliere è anche un atto di trasparenza. Dire abbiamo scelto questa strada e non quell’altra implica la capacità di rendere conto. La spiegabilità delle decisioni diventa centrale. L’IA può rendere più complesso questo compito, soprattutto quando le raccomandazioni derivano da modelli opachi. Il medico deve allora tradurre, interpretare, rendere comprensibile. Senza questa traduzione, la scelta appare arbitraria o imposta.
La letteratura scientifica mostra che il coinvolgimento del paziente nelle decisioni migliora gli esiti. Indica che la decisione condivisa aumenta l’aderenza alle terapie e la soddisfazione, riducendo conflitti e contenziosi. Scegliere insieme non indebolisce la decisione. La rafforza. Nell’era dell’IA, questo principio resta valido, anzi diventa più necessario. Per i medici in formazione, imparare a scegliere è una delle competenze più difficili. Si impara la conoscenza, meno il momento della decisione. L’IA può suggerire, ma non può insegnare il peso della scelta. Questo peso si apprende attraverso l’esperienza, l’errore, la riflessione. Il rischio è che l’abbondanza di suggerimenti riduca l’esercizio del giudizio. Proteggere lo spazio della scelta è proteggere la professionalità. Scegliere è anche una forma di responsabilità morale. Significa accettare che le conseguenze ricadono su persone reali. Delegare completamente la scelta a un sistema significa spostare la responsabilità senza eliminarla. Qualcuno, alla fine, risponderà dell’esito. Mantenere chiaro chi sceglie e perché è essenziale per la fiducia nella medicina. La scelta riguarda anche ciò che non viene fatto. Decidere di non intervenire, di sospendere, di accompagnare invece di trattare è una scelta a pieno titolo. Spesso è la più difficile, perché va contro la logica dell’azione continua. L’IA può continuare a proporre alternative, ma il medico deve saper dire basta quando l’intervento non aggiunge valore. Questa scelta non è resa. È cura. La scelta è influenzata anche dallo spazio pubblico. Narrazioni di successo, promesse tecnologiche, aspettative sociali spingono verso determinate decisioni. Il medico si trova a mediare tra ciò che è atteso e ciò che è appropriato. Scegliere controcorrente richiede solidità professionale e supporto istituzionale. Senza questo supporto, la scelta rischia di diventare isolamento. L’Organizzazione Mondiale della Sanità evidenzia che i sistemi di supporto decisionale devono assistere, non sostituire, il giudizio clinico. Questo principio non è tecnico ma etico. L’uso responsabile dell’IA in sanità richiede il mantenimento del controllo umano nelle decisioni.
Alla fine, scegliere è curare perché significa prendersi carico del senso di ciò che si fa. La medicina del futuro potrà calcolare sempre meglio, ma non potrà evitare il momento della decisione. Quel momento, fatto di responsabilità, dialogo e limite, resterà umano. Scegliere non è un residuo del passato. È la competenza che permette alla tecnologia di essere davvero al servizio della cura. Perché senza scelta, la medicina diventa esecuzione. Con la scelta, resta una pratica di responsabilità. E forse è proprio questo che definisce il medico nell’era dell’intelligenza artificiale: non colui che ha tutte le risposte, ma colui che sa quando e come scegliere.
PixelPost.it è una testata registrata presso il Tribunale di Roma, n°164 del 15 Dicembre 2023