L’educazione predittiva, quando i dati anticipano il futuro degli studenti

Quando i dati iniziano a prevedere il percorso degli studenti, la scuola rischia di confondere l’accompagnamento con la classificazione. La vera sfida educativa non è anticipare il futuro, ma custodire la libertà di chi può ancora diventare altro.

Alfonso Benevento

3/29/2026

view of floating open book from stacked books in library
view of floating open book from stacked books in library

Una delle trasformazioni più rilevanti introdotte dall’intelligenza artificiale (IA) nei sistemi educativi riguarda la capacità di prevedere. Analizzare dati, individuare pattern, anticipare comportamenti, ciò che un tempo apparteneva all’intuizione pedagogica oggi viene sempre più spesso affidato a sistemi algoritmici. Nel contesto scolastico, questa evoluzione apre scenari affascinanti ma anche profondamente problematici. Quando i dati iniziano ad anticipare il futuro degli studenti, la questione non è più soltanto tecnologica, ma educativa, etica e politica. L’educazione, nella sua essenza, è sempre stata orientata al futuro. Insegnare significa accompagnare un processo di sviluppo, sostenere potenzialità, aprire possibilità. Tuttavia, questo orientamento è sempre stato caratterizzato da un elemento di indeterminazione. Nessun educatore può prevedere con certezza il percorso di uno studente. È proprio questa apertura che rende l’educazione uno spazio di libertà.

L’intelligenza artificiale introduce una logica diversa. Attraverso l’analisi di grandi quantità di dati, i sistemi predittivi possono stimare probabilità di successo scolastico, individuare rischi di abbandono, suggerire percorsi personalizzati. Dal punto di vista funzionale, si tratta di strumenti potenti. Possono aiutare a identificare difficoltà precoci, a intervenire in modo mirato, a ottimizzare risorse. Ma questa capacità di previsione solleva una domanda fondamentale: cosa accade alla libertà evolutiva quando il futuro viene anticipato? La psicologia dello sviluppo ha sempre sottolineato il carattere dinamico e non lineare della crescita. Lev Vygotskij ha mostrato come l’apprendimento sia un processo sociale, mediato, aperto a trasformazioni impreviste. La cosiddetta zona di sviluppo prossimale indica proprio lo spazio tra ciò che uno studente sa fare da solo e ciò che può apprendere con il supporto di altri. In questo spazio si colloca la possibilità del cambiamento. I sistemi predittivi, invece, tendono a operare su correlazioni tra dati passati e comportamenti futuri. Se uno studente presenta determinate caratteristiche, è più probabile che segua un certo percorso. Questa logica, pur utile in termini statistici, rischia di trasformare la probabilità in aspettativa. E l’aspettativa, in ambito educativo, ha un peso significativo. Gli studi sul cosiddetto effetto Pigmalione mostrano come le aspettative degli insegnanti possano influenzare le prestazioni degli studenti. Quando l’aspettativa non nasce da una relazione educativa, ma da un algoritmo, il rischio è quello di una cristallizzazione delle possibilità. Lo studente non viene visto per ciò che può diventare, ma per ciò che i dati suggeriscono che diventerà. In questo senso, la profilazione educativa può trasformarsi in una forma di determinismo soft, in cui la libertà non è negata esplicitamente, ma limitata implicitamente. Dal punto di vista filosofico, questa dinamica interroga il concetto di educazione come apertura. John Dewey sosteneva che educare significa creare condizioni per esperienze che favoriscano la crescita. La crescita, tuttavia, non può essere completamente prevista. Se l’educazione diventa un processo di ottimizzazione basato su dati, rischia di perdere la sua dimensione trasformativa. La sociologia dell’educazione ha inoltre evidenziato come i sistemi di valutazione possano contribuire a riprodurre disuguaglianze. Se i dati riflettono condizioni sociali preesistenti, i modelli predittivi rischiano di amplificarle. Uno studente proveniente da un contesto svantaggiato potrebbe essere classificato come a rischio e ricevere percorsi meno ambiziosi, consolidando così le disuguaglianze invece di ridurle. In questo senso, la neutralità dei dati è un’illusione. Come sottolinea Luciano Floridi, ogni sistema informazionale incorpora scelte, valori, priorità. L’educazione predittiva non è un semplice strumento tecnico, ma un dispositivo che orienta decisioni e percorsi. Anche la dimensione psicologica merita attenzione. Essere definiti da un profilo predittivo può influenzare la percezione di sé. Se uno studente interiorizza l’idea di avere un certo destino scolastico, potrebbe ridurre il proprio investimento, limitare le proprie aspirazioni, adattarsi alle aspettative. La previsione, in questo caso, diventa performativa. L’etica pedagogica si trova quindi di fronte a una sfida complessa. Da un lato, l’uso dei dati può migliorare l’efficacia degli interventi educativi. Dall’altro, può ridurre lo spazio dell’imprevedibile, che è essenziale per la crescita. La questione non è rifiutare l’IA nella scuola, ma interrogare le condizioni del suo utilizzo. Un uso eticamente responsabile dei sistemi predittivi dovrebbe mantenere centrale il ruolo dell’educatore. L’algoritmo può offrire indicazioni, ma non può sostituire il giudizio pedagogico. La relazione educativa resta il luogo in cui si costruisce la comprensione dello studente come persona, non come profilo.

Edgar Morin ha insistito sulla necessità di un pensiero complesso capace di integrare conoscenze diverse senza ridurle. Applicata all’educazione, questa prospettiva suggerisce che i dati devono essere interpretati, non semplicemente applicati. La complessità dello sviluppo umano non può essere ridotta a un modello predittivo. La scuola, in questo scenario, ha una responsabilità cruciale. Non solo nell’uso delle tecnologie, ma nella formazione di una consapevolezza critica. Gli studenti devono essere messi in condizione di comprendere come funzionano i sistemi che li analizzano e li classificano. L’educazione alla cittadinanza digitale include anche la capacità di interrogare i modelli predittivi. L’intelligenza artificiale non modifica soltanto gli strumenti, ma le categorie con cui pensiamo l’umano. Se iniziamo a considerare il futuro come qualcosa di calcolabile, rischiamo di perdere la dimensione del possibile. L’educazione, invece, è sempre un atto di fiducia nel non ancora. È scommessa, apertura, accompagnamento. I dati possono supportare questo processo, ma non possono sostituirlo. Preservare la libertà evolutiva degli studenti significa difendere uno spazio in cui il futuro non è già scritto, ma può ancora essere costruito.

Breve bibliografia

Dewey, J. Democrazia e educazione.
Floridi, L. The Ethics of Information.
Morin, E. La testa ben fatta.
Vygotskij, L. Pensiero e linguaggio.