Dalla cartella clinica al prompt clinico come cambia il ragionamento medico

Il dialogo con l’IA trasforma il modo di pensare la clinica: non solo nuovi strumenti, ma nuove forme di ragionamento e di decisione.

Matteo Benevento

3/2/2025

UNKs coffee store during daytime
UNKs coffee store during daytime

Per generazioni di medici, la cartella clinica è stata molto più che un semplice documento, uno spazio mentale prima ancora che burocratico. Un luogo in cui raccogliere segni, sintomi, ipotesi, dubbi, decisioni. Scrivere una cartella significava ordinare il pensiero, costruire una narrazione clinica, dare un senso a dati frammentari. Oggi, però, questo spazio sta cambiando forma. Accanto alla cartella clinica tradizionale compare un nuovo oggetto, meno visibile ma sempre più influente il prompt clinico, che non è una semplice domanda rivolta a un sistema di intelligenza artificiale (IA). È una forma di mediazione tra il medico e l’algoritmo. È il modo in cui il problema clinico viene tradotto in linguaggio computabile. Come ogni traduzione, non è mai neutra. Decide cosa entra e cosa resta fuori, cosa viene enfatizzato e cosa viene taciuto. In questo passaggio apparentemente tecnico si gioca una trasformazione profonda del ragionamento medico.

La cartella clinica nasce per essere letta da altri esseri umani. Anche quando è strutturata, anche quando è standardizzata, conserva una dimensione narrativa. Il medico annota ciò che ritiene rilevante, collega eventi, segnala incertezze, talvolta lascia tracce del proprio dubbio. È un testo imperfetto, ma proprio per questo vivo. Il prompt clinico, invece, nasce per essere interpretato da una macchina. Richiede chiarezza, sintesi, precisione. Chiede di ridurre la complessità a variabili, di esplicitare ciò che spesso nella pratica clinica resta implicito. Questo cambiamento ha conseguenze profonde. Da un lato, costringe il medico a essere più consapevole del proprio ragionamento. Per interrogare un sistema di IA in modo efficace, bisogna sapere cosa si sta cercando, quali dati sono rilevanti, quali ipotesi si vogliono esplorare. In questo senso, il prompt può diventare uno strumento di chiarificazione cognitiva, quasi una nuova forma di anamnesi riflessiva. Dall’altro lato, però, introduce il rischio di adattare il pensiero clinico ai limiti dello strumento, invece che usare lo strumento per ampliare il pensiero.

Nel momento in cui il medico formula un prompt, sta già compiendo una scelta interpretativa. Sta decidendo che cosa conta. Sta delimitando il campo del possibile. Se un’informazione non entra nel prompt, per l’algoritmo semplicemente non esiste. Questo è particolarmente rilevante nei casi complessi, in cui elementi apparentemente marginali possono rivelarsi decisivi. La storia di vita del paziente, il contesto sociale, una sensazione vaga di qualcosa che non torna difficilmente trovano spazio in una richiesta strutturata. Eppure, sono spesso questi elementi a guidare le decisioni più importanti. Studi pubblicati su The Lancet Digital Health sottolineano come i sistemi di supporto decisionale basati su IA tendano a funzionare meglio quando il problema è ben definito e i dati sono standardizzati. Se invece il quadro clinico è ambiguo, il rischio è che l’algoritmo restituisca una risposta apparentemente solida, ma costruita su una rappresentazione impoverita della realtà. Il prompt, in questo senso, non è solo un input tecnico, ma un filtro epistemologico.

Vi è poi un altro aspetto, più sottile, che riguarda il modo in cui il prompt influenza il rapporto tra medico e conoscenza. Tradizionalmente, il ragionamento clinico si sviluppa nel tempo. Le ipotesi vengono formulate, testate, scartate, riprese. Il dubbio è parte integrante del processo. L’interazione con un sistema di IA, invece, tende a produrre risposte rapide, ben formulate, spesso espresse con un linguaggio sicuro. Questo può indurre una falsa sensazione di completezza. Il rischio non è che l’IA sbagli sempre, ma che riduca lo spazio del dubbio, rendendo il ragionamento più lineare di quanto la realtà clinica consenta.

Sempre più spesso, molti giovani medici imparano a studiare e a lavorare affiancati da sistemi intelligenti. Usano l’IA per rivedere un caso, per esplorare diagnosi differenziali, per aggiornarsi rapidamente. Questo può essere un enorme vantaggio, soprattutto in un contesto di sovraccarico informativo. Ma solleva una domanda cruciale: stiamo formando medici capaci di pensare con l’IA o medici che pensano come l’IA? Il modo in cui si costruisce un prompt riflette il modo in cui si concepisce il problema. Se il prompt è troppo chiuso, l’algoritmo restituirà una risposta coerente ma limitata. Se è troppo vago, produrrà suggerimenti generici. Imparare a porre buone domande diventa quindi una competenza clinica a tutti gli effetti. Non si tratta solo di saper usare uno strumento, ma di saper dialogare con esso senza delegargli il senso della decisione.

Un ulteriore nodo riguarda la tracciabilità del ragionamento. La cartella clinica tradizionale, pur con tutti i suoi limiti, permette di ricostruire il percorso decisionale. Il prompt clinico, soprattutto quando è informale o non documentato, rischia di lasciare poche tracce. Quali domande sono state poste all’IA? Quali risposte sono state considerate? Quali scartate? In caso di errore, questa opacità diventa un problema non solo medico, ma anche etico e legale. Le raccomandazioni internazionali insistono proprio su questo punto. Secondo l’Organizzazione Mondiale della Sanità, l’uso dell’intelligenza artificiale in sanità deve essere accompagnato da meccanismi di documentazione, spiegabilità e responsabilità. Il supporto algoritmico non può essere un passaggio invisibile, perché influisce direttamente sulle decisioni di cura. Rendere visibile il ruolo dell’IA significa anche rendere visibile il ruolo del medico nel governarla.

Infine è da considerarsi la questione culturale che attraversa tutto questo cambiamento. La medicina ha sempre oscillato tra arte e scienza, tra standardizzazione e interpretazione. Il prompt clinico spinge verso una medicina sempre più formalizzata, in cui ciò che non è codificabile rischia di essere considerato irrilevante. Difendere lo spazio del ragionamento clinico non significa rifiutare la formalizzazione, ma riconoscerne i limiti. Significa ricordare che non tutto ciò che conta può essere trasformato in dato. Nel passaggio dalla cartella al prompt, il medico oggi si trova a presidiare un confine delicato. Da un lato, può usare l’IA per ampliare la propria capacità di analisi, per esplorare possibilità che da solo non avrebbe considerato, per ridurre il rischio di errore. Dall’altro, deve evitare che il proprio pensiero venga progressivamente modellato sulle aspettative della macchina. Il rischio non è la perdita di competenze tecniche, ma la perdita di profondità interpretativa.

Alla fine, la questione non è se il prompt sostituirà la cartella clinica. È se il medico resterà autore del proprio ragionamento. Scrivere una cartella significava raccontare una storia clinica. Scrivere un prompt significa porre una domanda a un sistema che non conosce il paziente, ma solo la sua rappresentazione. Tenere insieme questi due livelli è la sfida. Perché la medicina non è solo la capacità di ottenere una risposta, ma la responsabilità di decidere che cosa farne. Nel 2025, il buon medico non è quello che rinuncia alla tecnologia, né quello che si affida completamente ad essa. È quello che sa quando interrogare l’algoritmo e quando ascoltare un silenzio, quando fidarsi di una probabilità e quando seguire un dubbio. Tra cartella clinica e prompt clinico, ciò che deve restare intatto è il cuore del ragionamento medico, la capacità di dare senso, non solo di ottenere risposte.