Algoritmi e desiderio: chi decide cosa vogliamo davvero?

I nostri desideri sembrano spontanei, ma nell’ecosistema digitale vengono anticipati, orientati e rinforzati dagli algoritmi. La vera sfida non è rinunciare alla tecnologia, ma difendere un’autonomia capace di riconoscere come si formano le nostre preferenze.

Alfonso Benevento

3/1/2026

several assorted-color neon light signage
several assorted-color neon light signage

Ogni giorno compiamo centinaia di scelte apparentemente spontanee: cosa leggere, cosa acquistare, chi seguire, quali contenuti guardare, quale percorso intraprendere. La sensazione dominante è quella dell’autonomia. Eppure, in un ecosistema digitale strutturato da algoritmi di raccomandazione, suggerimento e previsione, questa autonomia si trova immersa in un campo di forze invisibili che orientano, anticipano e talvolta plasmano le nostre preferenze. La questione non è se siamo ancora liberi di desiderare, ma in che misura il desiderio stesso sia diventato oggetto di mediazione algoritmica. La psicologia ha sempre riconosciuto che le preferenze non nascono nel vuoto. Il desiderio è un processo relazionale, influenzato dall’ambiente, dalle norme sociali, dall’imitazione. Albert Bandura ha mostrato come l’apprendimento sociale avvenga per osservazione e modellamento. Oggi, però, l’ambiente osservabile non è più soltanto quello fisico, ma un flusso digitale selezionato e personalizzato. Ciò che vediamo non è neutro, è filtrato da sistemi che hanno appreso, dai nostri comportamenti passati, quali contenuti possano generare maggiore coinvolgimento. La formazione delle preferenze si intreccia così con logiche di ottimizzazione. Gli algoritmi non si limitano a rispondere ai desideri, ma li anticipano e li rinforzano. Il cosiddetto nudging digitale, ispirato alle teorie comportamentali di Richard Thaler, si basa sull’idea che sia possibile orientare le scelte senza eliminarne formalmente la libertà. Nel contesto delle piattaforme, il nudging assume forme pervasive: notifiche, suggerimenti personalizzati, ordini di presentazione dei contenuti. Non ci viene imposto cosa volere, ma ci viene mostrato ciò che probabilmente vorremo.

Dal punto di vista filosofico, questa dinamica interroga il concetto stesso di autonomia. Immanuel Kant definiva l’autonomia come la capacità di darsi da sé la legge dell’azione. Ma cosa significa darsi una legge quando le opzioni tra cui scegliere sono già state pre-selezionate da un sistema che massimizza l’attenzione? L’autonomia non viene annullata, ma si esercita entro confini progettati. La sociologia contemporanea ha evidenziato come il capitalismo digitale trasformi l’attenzione in risorsa economica. Shoshana Zuboff ha parlato di capitalismo della sorveglianza per descrivere un modello in cui i dati comportamentali vengono utilizzati per prevedere e influenzare azioni future. In questo contesto, il desiderio diventa materia prima: qualcosa da osservare, modellare, orientare.

La questione non è soltanto economica, ma antropologica. Il desiderio non è un impulso puramente individuale; è il luogo in cui si intrecciano identità, valori e riconoscimento. Se le piattaforme apprendono dai nostri comportamenti per offrirci ciò che “piace”, rischiano di chiuderci in una circolarità autoreferenziale. Le preferenze vengono rafforzate, le differenze attenuate, le alternative meno visibili. Il risultato è una forma di comfort cognitivo che può ridurre l’esposizione alla complessità. La psicologia cognitiva ha mostrato come l’essere umano tenda a evitare la dissonanza e a preferire conferme. Gli algoritmi, programmati per massimizzare il tempo di permanenza, sfruttano questa tendenza. Non lo fanno con intenzione morale, ma attraverso modelli statistici. Tuttavia, l’effetto è culturale: la costruzione di bolle informative e di desideri prevedibili.

Sul piano etico, la questione centrale riguarda la responsabilità. Luciano Floridi ha sottolineato che l’infosfera è un ambiente morale in cui ogni intervento tecnologico modifica le condizioni dell’azione umana. Se un sistema orienta sistematicamente le preferenze, chi risponde delle conseguenze? L’utente che accetta il suggerimento o il progettista che ha definito i criteri di selezione? La pedagogia offre una prospettiva complementare. John Dewey sosteneva che educare significa sviluppare la capacità di giudizio. Nel digitale, questa capacità include la consapevolezza dei meccanismi di influenza. Non si tratta di demonizzare gli algoritmi, ma di comprendere come funzionano e quali effetti producono sulla formazione delle preferenze.

Il rischio maggiore non è la manipolazione esplicita, ma l’assuefazione. Quando l’algoritmo diventa il principale mediatore del desiderio, si riduce l’esercizio dell’esplorazione autonoma. Le scelte diventano sempre più reattive e meno progettuali. La libertà si trasforma in selezione tra opzioni predefinite. Dal punto di vista della filosofia politica, questo scenario interpella la qualità della democrazia. Se le preferenze collettive sono influenzate da sistemi che privilegiano l’engagement rispetto alla riflessione, il dibattito pubblico rischia di polarizzarsi. La democrazia richiede cittadini capaci di formare giudizi autonomi, non solo di reagire a stimoli. Ciò non significa che l’algoritmo sia un nemico della libertà. Può essere uno strumento di ampliamento delle possibilità, di scoperta, di accesso. La differenza sta nella trasparenza e nella pluralità delle opzioni. Un sistema che esplicita i propri criteri e favorisce l’esposizione alla diversità contribuisce alla crescita. Un sistema che chiude l’utente in percorsi predittivi restringe l’orizzonte e creando tensione, perché il desiderio è al centro delle relazioni umane. Desideriamo riconoscimento, appartenenza, senso. Se la mediazione algoritmica incide su questi processi, incide sulla qualità stessa della vita sociale. Restare consapevoli di questa mediazione è il primo passo per preservare un’autonomia profonda. La domanda iniziale rimane aperta: chi decide cosa vogliamo davvero? La risposta non può essere ridotta a un sì o a un no. Decidiamo ancora noi, ma dentro un ambiente che apprende da noi per orientare le nostre scelte future. L’autonomia non è abolita, ma messa alla prova. Preservarla richiede consapevolezza, educazione e un’etica del design che riconosca il valore del desiderio come spazio di libertà.

Breve bibliografia

Bandura, A. Social Learning Theory.
Dewey, J. Democrazia e educazione.
Floridi, L. The Ethics of Information.
Kant, I. Critica della ragion pratica.
Thaler, R., Sunstein, C. Nudge.
Zuboff, S. The Age of Surveillance Capitalism.