Quando l’IA diventa abitudine: il rischio silenzioso della delega quotidiana

Il vero pericolo non è l’errore dell’algoritmo, ma l’automatismo umano. Quando il supporto diventa routine, il giudizio rischia di arretrare.

Matteo Benevento

6/26/2025

a woman laying in bed holding a remote control
a woman laying in bed holding a remote control

L’intelligenza artificiale (IA) entra nella pratica clinica spesso in modo discreto. Non come rivoluzione improvvisa, ma come supporto quotidiano, un suggerimento, una priorità, una raccomandazione che semplifica il lavoro. All’inizio è uno strumento tra gli altri. Poi diventa un’abitudine. Ed è proprio in questo passaggio silenzioso che si nasconde uno dei rischi più sottovalutati, la delega non dichiarata.

Nel lavoro clinico, la ripetizione costruisce competenza. Ma quando la ripetizione riguarda l’uso di un sistema che suggerisce, filtra, orienta, la competenza rischia di spostarsi. Non si tratta più solo di usare uno strumento, ma di iniziare a pensare attraverso di esso. L’IA non impone decisioni, ma le rende più probabili. Nel tempo, ciò che viene suggerito diventa ciò che si fa, senza che il passaggio venga esplicitato. Questo non accade per pigrizia o disattenzione. Accade perché la medicina è un ambiente ad alta pressione cognitiva. Ridurre il carico decisionale è una necessità reale. L’IA risponde a questo bisogno offrendo scorciatoie affidabili. Il problema emerge quando la scorciatoia diventa il percorso principale. In quel momento, la delega non è più una scelta consapevole, ma un automatismo. Dal punto di vista clinico, la delega quotidiana modifica il modo in cui si esercita il giudizio. Se un sistema suggerisce costantemente una priorità, quella priorità smette di essere valutata e inizia a essere accettata. Il rischio non è l’errore occasionale, ma l’atrofia progressiva della capacità di interrogare. Il medico continua a decidere, ma decide sempre meno da solo.

Nel rapporto con il paziente, questo cambiamento è quasi invisibile. Le decisioni restano corrette, spesso migliorano in efficienza. Ma qualcosa si sposta nel modo in cui vengono spiegate. La spiegazione diventa più procedurale, meno narrativa. Il perché lascia spazio al secondo il sistema. Anche quando non viene detto esplicitamente, il riferimento all’algoritmo filtra nel linguaggio e nel tono. La delega silenziosa riguarda anche la responsabilità. Quando una decisione nasce dall’interazione continua con un sistema, individuare il confine tra supporto e scelta diventa complesso. In caso di errore, la responsabilità tende a disperdersi. Non perché venga negata, ma perché non è più chiaro dove sia stata esercitata. Questo è particolarmente critico in medicina, dove la responsabilità non è solo giuridica, ma anche relazionale. Per i medici l’abitudine all’IA si costruisce molto presto. Imparare a lavorare con sistemi che suggeriscono costantemente può rendere più difficile sviluppare un pensiero clinico autonomo. Non perché l’IA sostituisca lo studio, ma perché anticipa le conclusioni. Il rischio non è smettere di pensare, ma pensare meno a lungo. Anche la dimensione organizzativa diventa importante. Sistemi progettati per aumentare l’efficienza finiscono per orientare le pratiche. Ciò che è più facilmente supportato dall’IA tende a essere privilegiato. Ciò che richiede più tempo, più ascolto, più ambiguità resta ai margini. La delega quotidiana non è solo individuale. È strutturale. Questo non significa che l’IA debba essere evitata. Al contrario, il suo valore è reale. Ma proprio perché è utile, deve essere utilizzata con vigilanza e non usata. Riconoscere quando una decisione nasce da un suggerimento e quando da una valutazione autonoma è un esercizio che va allenato. Senza questa consapevolezza, l’abitudine diventa dipendenza funzionale.

La vera questione, allora, non è se utilizzare o meno l’intelligenza artificiale, ma come evitare che il si trasformi in delega implicita. Rendere visibile l’interazione, dichiarare il ruolo del sistema, mantenere spazi di scelta non guidata sono pratiche che proteggono il giudizio clinico. In medicina, l’automatismo è sempre un segnale da osservare con attenzione. Quando qualcosa diventa troppo facile, troppo rapido, troppo scontato, vale la pena fermarsi e chiedersi cosa si sta perdendo. L’IA può alleggerire il lavoro, ma non dovrebbe alleggerire la responsabilità. Forse la competenza più importante, oggi, non è imparare a usare nuovi strumenti, ma imparare a non smettere di scegliere quando questi strumenti diventano parte della routine. Perché curare non è mai solo eseguire bene. È continuare a decidere, anche quando sarebbe più semplice delegare.