L’intelligenza artificiale come linguaggi e il rischio di una medicina che parla senza dialogare
Numeri e raccomandazioni informano, ma senza traduzione restano opachi. Curare significa anche costruire dialogo.
Matteo Benevento
5/17/2024
Ogni tecnologia introduce un linguaggio. Parole, categorie, metriche che finiscono per orientare il modo in cui si pensa e si comunica. L’intelligenza artificiale (IA) non fa eccezione. In medicina, il suo linguaggio è fatto di probabilità, soglie, punteggi, raccomandazioni. Un linguaggio potente, preciso, apparentemente neutro. Ma quando questo linguaggio diventa dominante, emerge un rischio sottile: quello di una medicina che parla molto, ma dialoga sempre meno. Il linguaggio clinico è sempre stato una mediazione. Tra il sapere scientifico e l’esperienza della persona. Tra ciò che è misurabile e ciò che è vissuto. L’IA tende a rafforzare una lingua orientata al calcolo, che restituisce il mondo in termini di output. Questo può rendere la comunicazione più efficiente, ma non necessariamente più comprensibile. Parlare attraverso il linguaggio dell’algoritmo non significa automaticamente comunicare. Dal punto di vista clinico, il rischio si manifesta quando il linguaggio tecnico prende il posto della spiegazione. Percentuali, curve di rischio, scenari predittivi vengono presentati come se parlassero da soli. Ma nessun numero è autoesplicativo. Senza traduzione, il linguaggio dell’IA resta opaco. Il medico diventa allora un portavoce del sistema più che un interlocutore del paziente. Nel rapporto con il paziente, questa trasformazione può creare distanza. Sentirsi parlare addosso attraverso grafici e stime può generare smarrimento o passività. Il paziente ascolta, ma non partecipa. La comunicazione diventa unidirezionale. La cura, però, nasce dal dialogo, non dalla trasmissione di informazioni.
Per i medici, oggi, imparare a usare il linguaggio dell’IA è necessario. Ma imparare solo quello è insufficiente. La competenza comunicativa non coincide con la correttezza tecnica. Coincide con la capacità di adattare il linguaggio alla persona che si ha davanti. Se il linguaggio dell’algoritmo non viene rielaborato, rischia di sovrastare quello umano. C’è anche una dimensione culturale. Quando un certo linguaggio diventa dominante, ciò che non riesce a esprimersi in quella lingua perde legittimità. Emozioni, intuizioni, narrazioni personali rischiano di essere considerate secondarie perché non traducibili in dati. In medicina, questo impoverisce la comprensione del problema clinico. Il problema non è usare un linguaggio tecnico. È smettere di tradurlo. Il medico ha sempre svolto una funzione di mediazione linguistica: tra scienza e vita quotidiana. L’IA rende questa funzione ancora più necessaria. Più il linguaggio si fa sofisticato, più è importante che qualcuno lo renda abitabile. Nel lavoro quotidiano, questo richiede attenzione. Chiedersi non solo se ciò che si dice è corretto, ma se è comprensibile. Non solo se il dato è preciso, ma se ha senso per chi lo ascolta. L’IA non si pone queste domande. Produce linguaggio. Il dialogo resta un compito umano. La vera sfida non è imparare a parlare come la macchina, ma continuare a parlare con le persone. Usare il linguaggio dell’intelligenza artificiale come strumento, non come sostituto del dialogo. Perché curare non è solo informare, ma costruire significato insieme. In un’epoca in cui la medicina rischia di diventare sempre più eloquente e sempre meno dialogica, proteggere lo spazio del dialogo è una forma di responsabilità clinica. Senza dialogo, anche la comunicazione più avanzata resta vuota.
PixelPost.it è una testata registrata presso il Tribunale di Roma, n°164 del 15 Dicembre 2023