L’Umanetica e i cinque sensi umani nell’epoca dell’intelligenza artificiale
Quando gli algoritmi iniziano a vedere, ascoltare e decidere al posto nostro, la vera questione non è ciò che sentono le macchine, ma ciò che rischiamo di smettere di sentire noi.
Alfonso Benevento
1/11/2026


capacità computazionali delle macchine, sulla loro autonomia decisionale, sui rischi di errore o di bias, sulle ricadute economiche e occupazionali. Molto più raramente ci si interroga su ciò che accade a monte, in una zona più silenziosa ma decisiva, la trasformazione del nostro modo di percepire il mondo. Eppure è proprio qui che si gioca una partita culturale ed etica fondamentale. L’intelligenza artificiale non sta semplicemente imparando a vedere, ascoltare o toccare in modo sempre più sofisticato ma sta progressivamente ridefinendo le condizioni attraverso cui noi, come esseri umani, sentiamo, interpretiamo e attribuiamo senso all’esperienza.
L’Umanetica nasce come risposta culturale ed educativa a una società in cui la percezione è sempre più mediata, accelerata e filtrata dall’intelligenza artificiale. È proprio in questo spazio che prende forma. Non come slogan, né come esercizio terminologico, ma come necessità teorica e pratica. L’Umanetica scaturisce dall’esigenza di ricucire una frattura che la modernità tecnologica ha reso sempre più evidente, quella tra l’azione mediata dai sistemi tecnici e la responsabilità umana che dovrebbe accompagnarla. Ma, prima ancora, tra la percezione e il significato, tra il sentire e il rispondere all’altro. La riflessione sui sensi è, da questo punto di vista, tutt’altro che marginale. La tradizione filosofica ha sempre riconosciuto nella percezione il luogo originario del rapporto con il mondo. In Aristotele, il sensibile è il primo accesso alla conoscenza; nella fenomenologia novecentesca, e in particolare nel pensiero del filosofo francese Maurice Merleau-Ponty, il corpo non è un semplice recettore di stimoli, ma il centro vivo di un’esperienza incarnata, situata, relazionale. Sentire, in questa prospettiva, non significa registrare dati, ma essere esposti al mondo e agli altri, lasciarsi toccare, modificare, interpellare.
L’intelligenza artificiale introduce una discontinuità profonda in questo schema. I sistemi di computer vision, di riconoscimento vocale, di analisi del comportamento, di predizione delle preferenze costruiscono una forma di percezione artificiale che non nasce da un corpo, non è radicata in una storia, non è attraversata da emozioni o vulnerabilità. È una percezione funzionale, orientata all’efficienza e alla decisione. E tuttavia questa percezione non resta confinata alle macchine. Rientra nei nostri dispositivi, nelle piattaforme che utilizziamo quotidianamente, negli ambienti digitali che abitiamo. Il mondo, sempre più spesso, ci viene restituito già filtrato, ordinato, classificato. Qui si colloca il nodo umanetico. Il problema non è che le macchine “sentano” come gli esseri umani. Il problema è che gli esseri umani rischiano di abituarsi a sentire come le macchine. Quando l’attenzione è costantemente guidata da notifiche, suggerimenti, ranking algoritmici, quando l’ascolto è ridotto a flusso accelerato di contenuti, quando la vista è addestrata a riconoscere pattern e non volti, la percezione perde spessore. Non scompare, ma si assottiglia. Diventa più rapida, più reattiva, meno riflessiva.
Le scienze cognitive e la psicologia contemporanea hanno mostrato come l’ambiente influenzi profondamente i processi percettivi e attentivi. Autori come lo psicologo israeliano Daniel Kahneman hanno evidenziato la tendenza del pensiero umano a delegare alle scorciatoie cognitive quando il contesto favorisce velocità e sovraccarico informativo. In un ecosistema digitale dominato dall’intelligenza artificiale, questa delega non riguarda solo il giudizio, ma il sentire stesso. L’algoritmo non si limita a suggerire cosa pensare orienta cosa vedere, cosa ascoltare, cosa ignorare. Dal punto di vista sociologico, questa trasformazione si iscrive pienamente nella dinamica della platform society analizzata dalla sociologa statunitense Shoshana Zuboff, dove l’esperienza umana diventa materia prima per processi di estrazione e previsione. I sensi, in questo quadro, non sono più soltanto strumenti di relazione con il mondo, ma canali di produzione di dati. Ogni sguardo, ogni ascolto, ogni gesto viene tradotto in informazione, misurato, monetizzato. L’Umanetica si oppone a questa riduzione non con un rifiuto della tecnologia, ma con una riaffermazione del valore non quantificabile dell’esperienza umana. In ambito pedagogico, la questione diventa ancora più urgente. Educare nell’epoca dell’intelligenza artificiale non significa solo fornire competenze digitali o alfabetizzazione tecnologica. Significa educare lo sguardo, l’ascolto, l’attenzione. Significa aiutare bambini, adolescenti e adulti a riconoscere la differenza tra percezione mediata e relazione vissuta. Pensatori come il filosofo-pedagogista statunitense John Dewey avevano già sottolineato come l’esperienza sia il cuore di ogni autentico processo educativo. Oggi questa intuizione va ripensata alla luce di ambienti in cui l’esperienza è sempre più spesso pre-strutturata da sistemi intelligenti. L’Umanetica propone, in questo senso, una responsabilità del sentire. Non si limita a interrogare le decisioni automatizzate, ma chiede conto delle condizioni percettive che le precedono. Prima ancora di domandarci se un algoritmo sia giusto, dovremmo chiederci se stiamo ancora vedendo l’altro come persona o solo come profilo, se stiamo ancora ascoltando una voce o solo un pattern, se siamo ancora capaci di tollerare l’ambiguità, la lentezza, il silenzio.
Il contributo della filosofia dell’informazione del filosofo italiano Luciano Floridi è, in questo quadro, particolarmente illuminante. Viviamo nell’infosfera, un ambiente ibrido in cui il confine tra online e offline è sempre più sfumato. Ma abitare l’infosfera non significa rinunciare all’incarnazione. L’Umanetica assume questa sfida abitare consapevolmente l’ambiente digitale senza perdere il radicamento corporeo, relazionale e responsabile dell’esperienza umana. Anche il pensiero critico contemporaneo, dal filosofo sudcoreano Byung-Chul Han in poi, ha messo in guardia contro una società che anestetizza il dolore, l’alterità, la resistenza del reale in nome della performance e della trasparenza. L’intelligenza artificiale, se non interrogata eticamente, rischia di accentuare questa anestesia percettiva, rendendo il mondo sempre più fluido, prevedibile, addomesticato. L’Umanetica si colloca in controtendenza, rivendicando il diritto a un sentire non ottimizzato, non immediatamente traducibile in dato.
In conclusione, parlare di sensi e intelligenza artificiale in chiave umanetica significa spostare il baricentro del discorso. Non chiedere alle macchine di diventare umane, ma chiedere agli esseri umani di non smettere di esserlo. Significa riconoscere che la vera posta in gioco non è la sofisticazione dei sensori artificiali, ma la qualità della nostra presenza nel mondo. In un’epoca in cui tutto tende a essere misurato, previsto e accelerato, l’Umanetica rivendica il valore del sentire come atto responsabile, come apertura all’altro, come fondamento di ogni autentica etica del digitale. Se l’intelligenza artificiale sta ridefinendo i confini del possibile, l’Umanetica ha il compito di ridefinire i confini del desiderabile. E lo fa partendo da ciò che ci rende irriducibilmente umani la capacità di sentire, di attribuire senso, di rispondere. Non contro la tecnologia, ma dentro il nostro tempo.
PixelPost.it è una testata registrata presso il Tribunale di Roma, n°164 del 15 Dicembre 2023