Intelligenza artificiale e relazioni umane, quando l’efficienza rischia di sostituire la cura

L’IA promette efficienza, ma le relazioni non sono ottimizzabili. Quando la cura diventa prestazione, il rischio è una riduzione funzionale dell’umano.

Alfonso Benevento

11/30/2025

man in black jacket sitting on white chair
man in black jacket sitting on white chair

L’intelligenza artificiale (IA) viene spesso raccontata attraverso il lessico dell’efficienza. Velocità, ottimizzazione, automazione, riduzione dell’errore umano. È un linguaggio seducente, perché promette soluzioni rapide a problemi complessi e risponde a un bisogno profondo delle società contemporanee, governare la complessità riducendola. Tuttavia, quando questo paradigma viene applicato alle relazioni umane, emerge una tensione che merita di essere interrogata, cosa accade quando l’efficienza rischia di sostituire la cura? La questione non riguarda soltanto l’uso dell’IA in ambiti specifici come la sanità, l’educazione o il lavoro, ma investe una dimensione più profonda, il modo in cui concepiamo la relazione come valore. Le relazioni non sono processi ottimizzabili senza residui. Sono spazi di reciprocità, di tempo condiviso, di ascolto e di riconoscimento. Ridurle a funzioni significa trasformarle in prestazioni.

Dal punto di vista della psicologia sociale, le relazioni non sono semplici scambi di informazioni. Come mostrano i lavori fondativi dello psicologo Kurt Lewin, il comportamento umano prende forma all’interno di campi relazionali, in cui emozioni, aspettative e significati condivisi giocano un ruolo centrale. L’IA, per sua natura, opera invece attraverso modelli che astraggono, generalizzano, prevedono. Questo scarto epistemologico non è neutro quando l’oggetto dell’intervento è la relazione. Nel contesto contemporaneo, l’intelligenza artificiale entra sempre più spesso come mediatrice delle interazioni, suggerisce risposte, filtra contenuti, classifica priorità, anticipa bisogni. In molti casi lo fa con una precisione sorprendente. Ma la precisione non coincide con la comprensione. Come ha ricordato la filosofa Hannah Arendt, l’agire umano non può essere ridotto alla mera esecuzione efficiente di compiti, perché è sempre intriso di responsabilità e imprevedibilità. La relazione, in quanto forma dell’agire, sfugge a ogni tentativo di piena automatizzazione. Il rischio che si profila non è quello di una sostituzione totale dell’umano, ma di una sua progressiva riduzione funzionale. Quando l’IA viene utilizzata per gestire le relazioni, si tende a privilegiare ciò che è misurabile come tempi di risposta, frequenza delle interazioni, indicatori di soddisfazione. Ciò che non è immediatamente quantificabile – empatia, ascolto, cura – rischia di diventare marginale. La filosofia della tecnica ha da tempo messo in guardia contro questa deriva. Il filosofo Martin Heidegger parlava della tecnica come di un dispositivo che tende a trasformare il mondo in fondo disponibile, riducendo l’essere a risorsa. Applicata alle relazioni, questa logica produce un effetto inquietante, l’altro diventa un caso, un utente, un profilo da gestire in modo efficiente. Anche la sociologia contemporanea ha evidenziato come la razionalità strumentale possa erodere i legami sociali. Il sociologo Zygmunt Bauman ha descritto società in cui le relazioni diventano fragili, reversibili, orientate al consumo più che alla durata. L’IA, inserita in questo contesto, rischia di accelerare processi già in atto, rendendo la relazione sempre più simile a un servizio e sempre meno a un impegno. Nel mondo dell’educazione, questa tensione è particolarmente evidente. L’intelligenza artificiale promette personalizzazione, adattività, supporto continuo allo studente. Tutti elementi potenzialmente preziosi. Ma l’educazione non è solo trasmissione efficiente di contenuti. È relazione educativa, incontro tra soggetti, costruzione di senso. Come ricordava il pedagogista John Dewey, educare significa creare esperienze significative, non ottimizzare percorsi predefiniti.

Se la relazione educativa viene delegata, anche solo in parte, a sistemi intelligenti, la domanda da porsi non è se l’IA funzioni, ma che tipo di relazione stiamo promuovendo. Una relazione che risponde sempre, ma non ascolta? Che suggerisce, ma non comprende? Che accompagna, ma non si espone? Il tema della cura diventa allora centrale. La cura non è inefficienza. È una forma diversa di razionalità, che tiene conto della vulnerabilità, del tempo, dell’asimmetria. La psicologa Carol Gilligan ha mostrato come l’etica della cura si fondi su una logica relazionale, attenta ai contesti e alle persone concrete, piuttosto che su principi astratti e universali. L’IA, invece, opera necessariamente attraverso generalizzazioni. Questo non significa che intelligenza artificiale e cura siano incompatibili. Significa che l’IA deve essere pensata come strumento di supporto, non come sostituto della relazione. Come sottolinea il filosofo Luciano Floridi, l’etica dell’IA non riguarda solo ciò che le macchine possono fare, ma ciò che dovrebbero fare in relazione ai valori umani. In questo senso, la progettazione dei sistemi intelligenti è già una scelta etica.

Dal punto di vista psicologico, la relazione di cura implica riconoscimento reciproco. Il filosofo Axel Honneth ha mostrato come il riconoscimento sia una condizione fondamentale per lo sviluppo dell’identità. Un sistema intelligente può simulare risposte empatiche, ma non può riconoscere l’altro come fine in sé. Questo limite non è tecnico, ma ontologico. Nel lavoro, nella sanità, nei servizi alla persona, l’uso dell’IA pone dunque una questione cruciale, vogliamo relazioni sempre più efficienti o relazioni significative? La risposta non può essere binaria. Ma deve partire dal riconoscimento che la cura non è un costo da ridurre, bensì un valore da proteggere. La sfida è culturale prima ancora che tecnologica. Come ha ricordato il pedagogista Edgar Morin, viviamo in un’epoca che richiede pensiero complesso, capace di tenere insieme elementi apparentemente contraddittori. Efficienza e cura non sono nemici, ma appartengono a logiche diverse che devono essere integrate con attenzione. In questo senso, l’intelligenza artificiale ci costringe a una domanda radicale, che cosa consideriamo essenziale nelle relazioni umane? Se accettiamo che tutto ciò che è lento, fragile, non misurabile sia un ostacolo da eliminare, allora l’efficienza finirà per sostituire la cura. Se invece riconosciamo che proprio in quella fragilità risiede il valore della relazione, allora l’IA potrà diventare uno strumento al servizio dell’umano, e non il suo surrogato. È questo il confine da esplorare, poichè lì si gioca una parte decisiva del nostro futuro. Non nel rifiuto della tecnologia, ma nella capacità di orientarla a partire da una domanda semplice e insieme radicale: che tipo di relazioni vogliamo continuare a chiamare umane?.