Davide Moreno[1]
Abstract
L’integrazione dell’IA nella scuola non è un semplice aggiornamento tecnico, ma una trasformazione dell’ecosistema educativo che interpella categorie epistemologiche, etiche e relazionali. Muovendo dal dialogo tra la filosofia dell’informazione di Floridi e l’algoretica di Benanti, il contributo propone criteri per una governance educativa dell’IA orientata alla dignità informazionale, alla giustizia relazionale e al discernimento.
Ne deriva una proposta di umanesimo digitale cristiano che subordina la tecnologia alla promozione integrale della persona.
Introduzione
L’irruzione dell’intelligenza artificiale (IA) nel sistema educativo contemporaneo non costituisce un semplice aggiornamento strumentale, ma determina una profonda mutazione di paradigma, toccando in modo radicale le coordinate epistemologiche, relazionali ed etiche del processo formativo. In particolare, l’ambiente scolastico – sempre più immerso in dinamiche reticolari, datificate e automatizzate – si configura oggi come una infosfera educativa in cui convivono soggetti umani e agenti artificiali, in forme di coesistenza ibrida che sollecitano nuovi criteri interpretativi e pratici.[2]
In questo scenario, l’educazione è chiamata non tanto ad adattarsi a un contesto tecnologico in rapida evoluzione, quanto a discernere criticamente il senso e la direzione di tale trasformazione. La posta in gioco è alta: si tratta di stabilire se l’IA debba essere intesa come semplice strumento di efficientamento o come occasione per rilanciare una più profonda riflessione sull’umano, sulla conoscenza e sulla relazione educativa.[3]
Il presente contributo, elaborato a partire da una tesi magistrale in Scienze Religiose,[4] si inserisce in questo dibattito proponendo una riflessione interdisciplinare fondata su due riferimenti teorici di particolare rilievo: da un lato, la filosofia dell’informazione di Luciano Floridi, che definisce l’ontologia dell’infosfera e la nostra condizioneonlife;[5] dall’altro, la algoretica di padre Paolo Benanti, che offre criteri etici per la governance umana dei processi automatizzati.[6] Il confronto tra questi due approcci permette di sviluppare un paradigma educativo ispirato a un umanesimo digitale cristiano, nel quale l’IA venga orientata a servizio della promozione integrale della persona umana.[7]
L’ipotesi di fondo è che l’IA possa rappresentare, se criticamente orientata, un alleato dell’educazione e non un suo antagonista.
Il cuore della riflessione ruota, dunque, attorno ad alcune domande-chiave: come integrare l’IA nei processi didattici in modo eticamente sostenibile? Quali rischi comporta la sua implementazione in termini di riduzionismo, datificazione e sorveglianza? Quali strumenti pedagogici e criteri valoriali possono guidare una progettazione educativa consapevole?
1. Oltre l’innovazione tecnica: cosa cambia con l’IA a scuola
L’ingresso dell’intelligenza artificiale (IA) nei contesti scolastici non può essere ridotto a una semplice questione di aggiornamento strumentale o di modernizzazione didattica. Ciò che si sta profilando è un vero e proprio mutamento epistemologico: la ridefinizione di che cosa significhi apprendere, insegnare e valutare in un’epoca in cui l’accesso all’informazione è istantaneo, mediato da sistemi intelligenti, ma privo – spesso – di un orientamento valoriale e critico.[8]
Secondo analisi recenti, gli investimenti digitali sono un obiettivo strategico per la grande maggioranza delle scuole, mentre una quota molto ampia di studenti italiani (circa il 65% tra i 16–18 anni) dichiara di usare strumenti di IA generativa per compiti, preparazione e stesura di testi.[9] Tali numeri trovano riscontro nel Regno Unito: un’indagine HEPI/Kortext (2025) rileva che il 92% degli studenti universitari utilizza l’IA generativa.[10] A fronte di questa espansione, il report UNESCO AI and Education: Guidance for Policy-makers (2021) invita a riflettere non solo sull’adozione tecnologica, ma sull’equità, sull’etica e sulla formazione delle competenze critiche e sociali che l’IA, da sola, non può garantire.[11]
La rapida diffusione degli strumenti intelligenti rischia infatti di accentuare diseguaglianze educative, di rinforzare bias nei contenuti appresi e di promuovere modelli di apprendimento standardizzati e performativi.
Nel contesto scolastico italiano, l’implementazione dell’IA avviene in modo disomogeneo: le scuole con maggiori risorse tecnologiche e progettuali sono in grado di integrare efficacemente le soluzioni digitali, mentre molti istituti – specie in aree periferiche – faticano a garantire l’accesso equo alle infrastrutture e alla formazione dei docenti.[12] Questo scenario accentua il divario digitale e rischia di produrre una stratificazione educativa basata non sul merito, ma sull’accesso alle tecnologie.
Inoltre, l’automazione crescente nella gestione dei dati scolastici, nella personalizzazione degli apprendimenti e nella valutazione solleva interrogativi antropologici profondi. Che senso ha parlare di educazione come formazione integrale, se le competenze dell’alunno vengono ridotte a un algoritmo predittivo? Quale ruolo conserva il docente, se i contenuti didattici vengono selezionati, adattati e perfino spiegati da sistemi generativi?
La scuola è chiamata a proporre un modello alternativo: non oppositivo, ma riflessivo e creativo, capace di integrare l’IA senza smarrire la centralità della persona, la dignità della coscienza e il primato della relazione. L’educazione non è solo trasmissione di contenuti, ma formazione alla responsabilità e alla libertà. Essa implica la capacità di discernere, di interrogarsi sul bene, di costruire comunità. Nessun algoritmo può sostituire queste dimensioni essenziali del crescere umano.
2. Floridi e Benanti: due paradigmi a confronto
L’elaborazione di un umanesimo digitale cristiano richiede un confronto critico tra visioni teoriche capaci di interpretare in profondità le trasformazioni innescate dall’intelligenza artificiale (IA) nel contesto scolastico. In questo quadro, emergono due modelli paradigmatici: la filosofia dell’informazione proposta da Luciano Floridi e la teologia dell’algoretica di padre Paolo Benanti. Entrambi gli autori, pur provenendo da tradizioni disciplinari differenti, offrono strumenti concettuali cruciali per affrontare la sfida educativa nel tempo dell’IA, convergendo sulla necessità di un’etica della tecnologia ma divergendo su approcci, finalità e presupposti antropologici.
- Floridi: governance dell’infosfera e dignità informazionale
Luciano Floridi, teorico della filosofia dell’informazione, propone una visione fortemente sistemica e ontologica dell’ecosistema digitale. Al centro del suo impianto concettuale vi è la nozione di infosfera, definita come lo spazio di coesistenza tra agenti biologici e artificiali all’interno di un ambiente informazionale condiviso.[13] In tale quadro, ogni essere – umano o artificiale – è considerato un agente informazionale, la cui esistenza è costitutivamente connessa a un flusso di dati, relazioni e significati.
Il suo concetto di onlife descrive l’integrazione ormai irreversibile tra dimensione online e offline, in cui non esiste più una netta separazione tra reale e virtuale.[14] Questo scenario richiede una nuova forma di governance etica dell’infosfera, fondata sulla responsabilità condivisa e sulla tutela della dignità informazionale di ogni agente. Floridi introduce in tal senso la nozione di quasi-diritto alla non disinformazione e sostiene la necessità di un quarto ordine etico, in cui i principi morali si estendano oltre l’umano a tutta l’ecologia informativa.
Tuttavia, questo impianto, per quanto sofisticato, mostra alcune criticità se applicato al contesto educativo. La sua astrazione sistemica, infatti, rischia di trascurare le dinamiche interpersonali, relazionali e corporee dell’apprendimento.
La scuola non è solo infosfera, ma anche spazio simbolico e comunitario, in cui la trasmissione del sapere è legata a emozioni, gesti, silenzi e sguardi. Inoltre, l’universalismo formale della filosofia di Floridi può risultare poco adatto a cogliere le disuguaglianze strutturali che attraversano le esperienze educative concrete.[15]
- Benanti: algoretica e antropologia della fragilità
Dal lato opposto, l’approccio di padre Paolo Benanti si radica in una visione teologico-morale centrata sulla centralità dell’umano e sull’urgenza di uno sviluppo etico delle tecnologie. Con il neologismo “algoretica”, Benanti indica un’etica degli algoritmi che riafferma la responsabilità umana sulle decisioni automatizzate e richiede trasparenza e rendicontabilità dei processi, in vista del bene della persona e della comunità. [16]
L’IA deve essere governata dall’umano e per l’umano, in una logica che preservi la libertà, la dignità e la vocazione relazionale della persona.
Particolarmente rilevante è la sua riflessione sulla fragilità umana nell’era della tecnocrazia: in un mondo governato da logiche algoritmiche, l’uomo rischia di essere ridotto a prestazione o dato. La prospettiva cristiana, al contrario, propone un’antropologia della relazione, del limite e del desiderio, capace di contrastare l’onnipotenza calcolante della macchina. Per questo Benanti sostiene la necessità di una regolazione bioetica e politica che non si limiti a legiferare sull’uso dell’IA, ma la orienti verso il bene comune e la giustizia sociale.[17]
Non mancano però anche in questo caso elementi problematici. L’impianto valoriale di Benanti, profondamente ancorato alla dottrina sociale della Chiesa, potrebbe risultare poco condivisibile in contesti scolastici pluralisti e laici, dove il riferimento a una visione cristiana dell’uomo può incontrare resistenze o malintesi. Inoltre, la sua etica applicata risente talvolta di una certa indeterminatezza operativa, mancando di strumenti sistematici per la valutazione concreta degli impatti tecnologici nelle pratiche scolastiche quotidiane.[18]
- Convergenze e differenze operative
Nonostante le divergenze teoriche, Floridi e Benanti condividono una convinzione centrale: la tecnologia non è mai neutrale, ma porta con sé un’implicita visione dell’uomo, della conoscenza e del potere. In entrambi i casi, l’IA è concepita come un fattore trasformativo che deve essere governato attraverso dispositivi etici, normativi e pedagogici.
Nel contesto scolastico, questa consapevolezza si traduce nella necessità di formare gli educatori a una lettura critica dell’IA, di sviluppare curricoli trasversali che includano la riflessione etica sulla tecnologia, e di promuovere pratiche didattiche che mettano in dialogo l’innovazione digitale con le dimensioni relazionali, simboliche e spirituali dell’apprendimento. Il confronto tra i due modelli può così offrire una sintesi operativa: dalla visione sistemica di Floridi si possono trarre gli strumenti per leggere l’ecosistema digitale, mentre da Benanti si possono ricevere i criteri morali per umanizzarlo.
3. Infosfera educativa e responsabilità formativa
La scuola, nel contesto della trasformazione digitale in corso, si configura sempre più come infosfera educativa: un ambiente in cui dati, contenuti, interazioni e valutazioni sono strutturati e mediati da infrastrutture tecnologiche pervasive. Tale mutazione impone una riconsiderazione del ruolo dell’insegnante, dello studente e del processo formativo nel suo complesso. L’IA non è solo uno strumento a supporto della didattica, ma un ambiente cognitivo e culturale che genera nuove epistemologie, ridefinendo ciò che si apprende e come si apprende.[19]
Floridi ha più volte sottolineato che l’infosfera non è neutrale, bensì modellata da decisioni progettuali che riflettono valori, interessi e visioni del mondo.[20] In ambito scolastico, ciò significa che ogni piattaforma digitale, ogni algoritmo di valutazione o di personalizzazione dell’apprendimento incorpora una “ontologia implicita” dell’alunno e del sapere: chi è lo studente? Un soggetto relazionale o un insieme di performance tracciabili? Cosa vale come conoscenza? L’informazione replicabile o la comprensione profonda?
È in tale cornice che si rende urgente una pedagogia della responsabilità algoritmica, capace di educare non solo alle competenze digitali, ma alla consapevolezza etica e sociale dell’uso delle tecnologie intelligenti. Esperienze condotte in ambito scolastico secondario superiore hanno mostrato come attività didattiche interdisciplinari, articolate in moduli laboratoriali, siano in grado di promuovere una riflessione critica. Tra le più significative si possono citare:
- analisi comparata di chatbot generativi (es. ChatGPT, Copilot, Gemini) con rubriche valutative costruite dagli studenti stessi, atte a misurare la trasparenza, l’accuratezza e la pertinenza dei contenuti, stimolando così lo sviluppo del pensiero critico e della meta-riflessione linguistica;
- studio di casi reali (ad es. sistemi di riconoscimento facciale nelle scuole cinesi, sistemi predittivi di drop-out adottati in vari distretti statunitensi), discussi in classe a partire da documenti ufficiali, articoli scientifici e testimonianze, al fine di esercitare capacità argomentative e di discernimento morale;[21]
- simulazioni deliberative in cui gli studenti, divisi in gruppi, interpretano il ruolo di policy maker, tecnologi, famiglie e studenti, chiamati a scrivere insieme una Carta Etica d’Istituto sull’uso dell’IA a scuola. Questa attività ha permesso di far emergere tensioni tra libertà educativa, innovazione tecnologica e protezione della privacy.
Tali percorsi didattici, ispirati ai principi dell’educazione alla cittadinanza globale e alla metodologia del compito autentico, consentono di superare una visione passiva e consumistica della tecnologia, restituendo allo studente il ruolo di soggetto critico e corresponsabile della cultura digitale.
Inoltre, l’introduzione dell’IA nella scuola solleva questioni normative e deontologiche non eludibili. Il Regolamento UE sull’IA (AI Act), adottato nel 2024, stabilisce criteri rigorosi per l’uso degli algoritmi in contesti ad alto rischio, tra cui l’istruzione, imponendo principi di trasparenza, verificabilità e supervisione umana.[22] L’ambiente scolastico, in quanto spazio formativo primario, deve quindi dotarsi di strumenti interpretativi e protocolli di governance che siano coerenti con questi vincoli giuridici, ma anche capaci di riflettere la vocazione umanistica e relazionale dell’educazione.
La responsabilità formativa oggi non si limita a ciò che si insegna, ma riguarda anche come e con quali strumenti si insegna. Ogni scelta tecnologica diventa una scelta educativa e antropologica: un linguaggio, una semantica, un orizzonte di senso.
4. La dataficazione dell’alunno: pericoli e alternative pedagogiche
Nel contesto dell’educazione digitale contemporanea, uno dei rischi più insidiosi è rappresentato dalla dataficazione dell’alunno, ovvero il processo per cui ogni interazione scolastica viene trasformata in dato, analizzato e interpretato a fini valutativi, predittivi o comportamentali. Tale processo comporta una sottile riduzione ontologica dell’identità dello studente a una somma di parametri misurabili: rendimento, engagement, tracciamento cognitivo, attenzione, abilità linguistiche o logico-matematiche.[23]
Dietro l’apparente neutralità della raccolta dati si cela in realtà una visione implicita dell’educazione, spesso fondata su logiche performative, efficientiste e standardizzanti. La persona umana viene interpretata come “utente” o “profilo di apprendimento”, le cui peculiarità, emozioni, motivazioni e fragilità vengono oscurate da indicatori computabili. L’educazione perde così la sua funzione formativa e trasformativa, per ridursi a una dinamica adattiva misurata da algoritmi.[24]
L’UNESCO, nel documento AI and Education: Guidance for Policy-makers (2021), ha sollevato forti preoccupazioni riguardo a questi sviluppi, richiamando l’attenzione su quattro rischi principali:
- la perdita della centralità della persona;
- la discriminazione algoritmica;
- la compromissione della privacy;
- l’erosione dell’autonomia educativa.[25]
Parallelamente, autori come Ben Williamson hanno denunciato l’emergere di una nuova “governance algoritmica” dell’educazione, in cui il controllo non è più esercitato da docenti o comunità educanti, bensì da sistemi automatizzati che operano attraverso infrastrutture opache e spesso non verificabili.[26]
Un’alternativa credibile alla dataficazione consiste nell’adottare approcci educativi centrati sui deep values, ovvero su quelle dimensioni dell’apprendere che sfuggono alla misurazione algoritmica: la capacità di ascolto, la riflessione personale, la rielaborazione creativa, la coscienza morale. In questo senso, si rivelano particolarmente efficaci le attività didattiche fondate sul diario riflessivo, sul dialogo socratico, sulle pratiche filosofiche e spirituali, che incoraggiano lo studente ad articolare il proprio vissuto in relazione al sapere appreso. Anche l’interiorità, la spiritualità e il silenzio – spesso dimenticati nei modelli educativi digitalizzati – rappresentano spazi di resistenza alla logica della sorveglianza e dell’efficienza.
In ultima istanza, la vera sfida educativa posta dall’IA non è quella di integrare meglio gli algoritmi nei processi formativi, ma di resistere a ogni tentazione riduzionista, riaffermando che l’educazione è sempre – e prima di tutto – incontro, relazione, mistero. [27]
5. La dimensione comunitaria nell’educazione digitale.
L’avvento dell’intelligenza artificiale nel contesto educativo ha reso possibile una sempre più sofisticata personalizzazione dell’apprendimento, fondata sull’analisi dei dati individuali e sull’adattamento in tempo reale dei percorsi didattici. Tale approccio, largamente promosso nei documenti dell’Unione Europea relativi all’educazione digitale,[28] mira a migliorare l’efficacia dell’insegnamento rispondendo alle caratteristiche cognitive, ritmi e stili di apprendimento del singolo studente. Tuttavia, questa evoluzione pone una tensione di fondo con la dimensione comunitaria dell’educazione. Essa, infatti, non è solo un processo di acquisizione di competenze, ma una pratica relazionale che si realizza nel confronto, nella cooperazione e nella condivisione di senso. La personalizzazione algoritmica, se portata all’estremo, rischia di generare forme di apprendimento solipsistico, in cui l’alunno interagisce prevalentemente con sistemi digitali, perdendo l’occasione di misurarsi con la complessità dell’altro e dell’imprevisto.[29]
Il rischio è quello di una iperadattività individuale, in cui il sistema didattico finisce per confermare le preferenze dello studente, riducendo l’educazione a una forma di consumo personalizzato, anziché mantenerla come luogo di sfida e trasformazione.
In tal senso, occorre distinguere tra una personalizzazione tecnocentrica e una personalizzazione relazionale: la prima costruisce percorsi in base a dati comportamentali; la seconda si fonda sul dialogo educativo e sull’accompagnamento del docente.[30]
Una risposta concreta a tale tensione può essere individuata nello sviluppo di strategie didattiche cooperative che integrano l’IA senza escludere la relazione. Ad esempio, è possibile utilizzare chatbot o tutor digitali come strumenti di supporto all’interno di gruppi di lavoro, dove l’interazione tra studenti resta centrale. La tecnologia diventa così facilitatore del confronto, non sostituto del dialogo.
Un caso emblematico è rappresentato dai «laboratori di problem solving collettivo con IA», sperimentati in alcune scuole superiori italiane nell’ambito del progetto AI4T (2022–2023), dove gli studenti, organizzati in piccoli gruppi, utilizzano strumenti di intelligenza artificiale per analizzare casi complessi (ambientali, etici, sociali), producendo una risposta condivisa e riflettendo sulle dinamiche relazionali e cognitive emergenti.[31]
Anche il curricolo può essere ripensato in chiave integrata: da una parte, offrendo percorsi adattivi che tengano conto delle differenze individuali; dall’altra, valorizzando esperienze educative comunitarie, come i circle time digitali, i dibattiti regolamentati, le peer review formative, in cui l’apprendimento avviene attraverso l’altro.
Dal punto di vista teologico-pedagogico, la visione cristiana dell’educazione invita a considerare l’alunno non come un “target formativo”, ma come persona in relazione, la cui crescita autentica si realizza nella reciprocità. Come afferma Papa Francesco nella Laudato sì, «tutto è connesso»: anche nella scuola, il sapere non può mai essere disgiunto dalla relazione, né la tecnica separata dall’etica.[32]
In definitiva, è auspicabile un equilibrio pedagogico che eviti tanto l’omologazione collettiva quanto l’individualismo digitale. La scuola del futuro, in una prospettiva cristiana, dovrà essere capace di coniugare l’unicità della persona con la bellezza del “noi”, offrendo uno spazio in cui la tecnologia potenzi la comunione e la corresponsabilità, anziché erodere il tessuto umano della convivenza scolastica.
6. La profondità contro la superficialità: educare al discernimento.
L’intelligenza artificiale, per sua natura, tende a offrire risposte rapide, coerenti e formalmente corrette. L’accesso immediato alle informazioni, favorito da sistemi di IA generativa, può indurre negli studenti una pericolosa illusione di onniscienza apparente, riducendo la profondità del pensiero e il valore della fatica conoscitiva.
La scuola, in tal senso, è chiamata non solo a fornire contenuti, ma a educare alla complessità, alla lentezza riflessiva, alla capacità di interpretare e valutare criticamente ciò che la macchina propone. Come osserva Edgar Morin, la sfida educativa del XXI secolo consiste proprio nell’“insegnare a vivere” in un mondo dominato da flussi informativi eterogenei, spesso disorientanti.[33]
Un’efficace strategia didattica per contrastare la superficialità consiste nell’integrare laboratori ermeneutici in cui gli studenti siano chiamati a confrontarsi con un output dell’IA, ad esempio un’interpretazione automatica di una parabola evangelica.
A partire da questa base, viene loro chiesto di rielaborare criticamente il messaggio a partire dalla propria esperienza, dalla lettura comunitaria del testo e dalla tradizione esegetica cristiana. Tale attività non solo mette in risalto le differenze tra informazione e sapienza, ma favorisce un approccio dialogico e incarnato al sapere[34].
Ulteriori pratiche educative possono includere dibattiti regolamentati su dilemmi etici mediati da IA. Si presenta un tema eticamente complesso, per esempio eutanasia, giustizia predittiva, IA militare, e si affida all’intelligenza artificiale il compito di sintetizzare le principali posizioni in campo. Gli studenti sono poi invitati a scegliere una posizione, motivarla e confrontarla pubblicamente, sviluppando così pensiero critico, argomentazione morale e capacità di ascolto. Questo tipo di esercizio didattico è stato sperimentato in contesti internazionali, dove l’uso di chatbot argomentativi a supporto di dibattiti regolamentati ha mostrato esiti promettenti sul pensiero critico e sull’argomentazione degli studenti.[35]
Una terza strategia prevede l’uso di scritture riflessive guidate, in cui gli studenti documentano il proprio percorso di interazione con l’IA, esplicitando i criteri adottati per valutare l’affidabilità, la pertinenza e i limiti dell’output ricevuto. In questo modo si passa da una fruizione passiva a una metacognizione attiva, in cui l’IA è vissuta non come oracolo, ma come interlocutore da interrogare e discernere.[36]
Tali pratiche rispondono alla necessità di formare una coscienza vigile, capace di distinguere tra verosimiglianza e verità, tra efficienza e significato. In ambito cristiano, questa formazione si radica nella convinzione che l’essere umano sia chiamato non solo a “conoscere”, ma a “comprendere” e a “rispondere” a una chiamata di senso. Come ricorda Papa Francesco nella Christus Vivit, l’educazione autentica non può prescindere da un cammino di discernimento personale e comunitario che conduce alla verità nella carità.[37]
In ultima analisi, il compito della scuola è resistere alla superficialità algoritmica e coltivare l’inquietudine feconda del domandare, la stessa che anima la ricerca filosofica, la lettura biblica e la fede. Solo così l’intelligenza artificiale potrà divenire alleata di un pensiero veramente umano, non suo sostituto.
7. Umanesimo digitale cristiano: una proposta educativa.
Alla luce delle riflessioni sin qui sviluppate, risulta evidente che la sfida dell’intelligenza artificiale in ambito scolastico non può essere affrontata semplicemente in termini tecnici o gestionali. Si impone una visione educativa capace di integrare in modo critico e creativo la dimensione tecnologica con la profondità antropologica, etica e spirituale della persona umana. In tale prospettiva, il paradigma dell’umanesimo digitale cristiano non rappresenta un’utopia, ma una necessità epistemica e pedagogica.
Un tale umanesimo si fonda su quattro pilastri fondamentali:
- La centralità della persona, concepita non come mero utente o produttore di dati, ma come soggetto irriducibile, dotato di libertà, interiorità e vocazione al bene.[38]
- La relazionalità come luogo costitutivo di senso, che supera ogni deriva solipsistica e afferma il valore comunitario dell’apprendimento, secondo il principio cristiano dell’“essere con” come modalità dell’“essere per”.[39]
- La spiritualità come forma alta di interiorità, intesa non come dimensione marginale ma come motore profondo del discernimento, della responsabilità e della ricerca del vero, del buono e del bello.[40]
- La giustizia come criterio ispiratore della progettazione tecnologica, orientata non al profitto o all’efficienza, ma alla promozione integrale della persona e alla costruzione del bene comune.[41]
Si tratta di promuovere curricoli trasversali che includano l’educazione all’etica digitale, la riflessione sull’uso critico dell’IA, l’analisi dei dilemmi morali legati agli algoritmi e, soprattutto, la coltivazione della dimensione vocazionale dell’apprendere.
Il riferimento a un umanesimo cristiano non va inteso in senso confessionale o escludente, ma come offerta culturale fondata su un’antropologia integrale, capace di dialogare con visioni diverse e di rigenerare il senso dell’educare nell’epoca digitale. Come affermato dal filosofo Charles Taylor, ogni società ha bisogno di “orizzonti forti” entro cui collocare le scelte morali e pedagogiche; l’umanesimo cristiano, in questo senso, può offrire una trama narrativa coerente per affrontare le sfide del post-umano.[42]
L’umanesimo digitale cristiano rappresenta non una nostalgia del passato, ma un impegno per il futuro. È un cammino educativo che riconosce nella persona il fine e non il mezzo, nella tecnologia uno strumento e non un idolo, nell’apprendimento un’esperienza trasformativa e non un’esecuzione meccanica. Come ricordava san Giovanni Paolo II, «la fede non teme la ragione, ma la ricerca, l’interroga, la orienta».[43] Allo stesso modo, l’educazione non teme l’intelligenza artificiale, ma la interroga, discerne e la orienta verso ciò che rende veramente umani.
Conclusione
L’analisi svolta mostra che l’intelligenza artificiale non è un semplice ausilio tecnico, ma un fattore strutturante dell’ecosistema scolastico: riposiziona saperi, pratiche e responsabilità.[44] Ne deriva una cornice normativa capace di orientare decisioni didattiche e scelte istituzionali lungo tre assi complementari: dignità informazionale, giustizia relazionale e discernimento, su cui la recente riflessione teologico-etica ha messo a fuoco criteri fecondi.[45]
L’umanesimo digitale cristiano ordina la tecnologia alla promozione integrale della persona e al bene comune, con speciale attenzione ai più vulnerabili. La giustizia relazionale misura gli effetti distributivi dell’innovazione; il discernimento custodisce la libertà educativa da entusiasmi ingenui e rifiuti pregiudiziali, orientando scelte prudenti e insieme coraggiose.
La questione non è se usare l’IA, ma come abitarla: con istituzioni capaci di governo, docenti competenti e responsabili, studenti educati a giudicare e a scegliere. Solo così l’innovazione si traduce in crescita umana e culturale, e non in un nuovo alfabeto di dipendenze e semplificazioni.
[1] Docente IRC nell’IPSAS “Aldrovandi Rubbiani” – Istituto Professionale Statale per l’Artigianato e i Servizi di Bologna.
[2] Cfr. L. Floridi, The Ethics of Information, Oxford University Press, Oxford 2013, 17-23.
[3] Cfr. S. Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, LUISS University Press, Roma 2023.
[4] Cfr. Tesi discussa all’ISSR “Vitale e Agricola” di Bologna su “Intelligenza artificiale nell’educazione” Sfide, opportunità e dilemmi etici in dialogo con Floridi e Benanti.
[5] Cfr. L. Floridi, The Fourth Revolution: How the Infosphere is Reshaping Human Reality, Oxford University Press, Oxford 2014, 25-32; 59-66.
[6] Cfr. P. Benanti, Algor-etica (intervento alla Conferenza stampa della Pontificia Accademia per la Vita), Città del Vaticano 25 febbraio 2020, 2, disponibile su: https://www.academyforlife.va/content/dam/pav/documenti%20pdf/2020/Assemblea/comunicati%20stam
pa/conferenza%20stampa%2025%20febbraio/02_Padre%20BENANTI_intervento_Algor%20etica.pdf [17 agosto 2025].
[7] Cfr. Pontificio Consiglio della Giustizia e della Pace, Compendio della Dottrina Sociale della Chiesa, Libreria Editrice Vaticana, Città del Vaticano 2004, nn. 164-170; 417-419.
[8] Cfr. M. Prensky, «Digital Natives, Digital Immigrants (Part 1)», in On the Horizon 9 (2001) 5, 1-6.
[9] Cfr. I-Com – Istituto per la Competitività, Gli studenti sognano pecore elettriche? Il futuro della didattica universitaria nell’era dell’intelligenza artificiale (Policy Brief Digitale 3/2024), I-Com, Roma 2024, 6-7, disponibile su: https://www.i-com.it/wp-content/uploads/2024/12/Policy-Brief_I-Com_IA-e-universita_dic-24.pdf [17 agosto 2025].
[10] Cfr. Hepi – Kortext, Student Generative AI Survey 2025, Higher Education Policy Institute, Oxford 26 febbraio 2025, 1, disponibile su: https://www.hepi.ac.uk/wp-content/uploads/2025/02/HEPI-Kortext-Student-Generative-AI-Survey-2025.pdf [17 agosto 2025].
[11] Cfr. Unesco, AI and Education: Guidance for Policy-makers, Paris 2021, 7; 20; 25; 27; 29-30, disponibile su: https://unesdoc.unesco.org/ark:/48223/pf0000376709 [17 agosto 2025].
[12] Cfr. Ministero dell’Istruzione e del Merito, Osservatorio Scuola Digitale. Report 2024 (a.s. 2022/2023), Roma 2024, 10.
[13] Cfr. L. Floridi, The Philosophy of Information, Oxford University Press, Oxford 2011, 70-79.
[14] Cfr. L. Floridi, (a cura di), The Onlife Manifesto. Being Human in a Hyperconnected Era, Springer, Cham 2015, Introduction 1; «The Onlife Manifesto» 7-9.
[15] Cfr. M. A. Peters – P. Jandrić, «Philosophy of Education in the Age of Digital Reason», in Review of Contemporary Philosophy 14 (2015), 162-181.
[16] Cfr. Benanti, Algor-etica (intervento), op.cit., 2.
[17] Cfr. Id., Le macchine sapienti. Intelligenze artificiali e decisioni umane, Marietti 1820, Milano 2018, 127-131.
[18] Cfr. M. Castoldi, «Valutare per competenze», Università di Torino – IRIS/AperTO 2011, 9-10, disponibile su: https://iris.unito.it/retrieve/handle/2318/135411/21292/Castoldi%20-%20Valutare%20per%20competenze.pdf [17 agosto 2025].
[19] Cfr. M. Fullan, The New Meaning of Educational Change (5a ed.), Teachers College Press, New York 2015, 95-206.
[20] Cfr. L. Floridi, The Ethics of Information, op. cit., 17-23.
[21] Cfr. W. Holmes et al., «Ethics of AI in Education: Towards a Community-Wide Framework», in International Journal of Artificial Intelligence in Education 32 (2022), 504-526.
[22] Cfr. Unione Europea, Regolamento (UE) 2024/1689 — Artificial Intelligence Act, in «Gazzetta Ufficiale dell’Unione europea» L 2024/1689 (12 luglio 2024), All. III, 3; artt. 11-14.
[23] Cfr. D. Lupton – B. Williamson, «The Datafied Child: The Dataveillance of Children and Implications for Their Rights», in New Media & Society 19 (2017) 5, 780-794.
[24] Cfr. S. Zuboff, Il capitalismo, op.cit., 3-6; 63-66.
[25] Cfr. Unesco, AI and Education: Guidance for Policy-makers, Paris 2021, 24-27.
[26] Cfr. B. Williamson, «Governing software: networks, databases and algorithmic power in the digital governance of public education», in Learning, Media and Technology 40 (2015) 1, 83-101.
[27] Cfr. Pontificio Consiglio della Giustizia e della Pace, Compendio, op.cit., nn. 131-133.
[28] Cfr. Commissione Europea, Digital Education Action Plan 2021–2027. Resetting education and training for the digital age, Bruxelles 2020, 1-2.
[29] S. Buckingham Shum – R. Ferguson, «Social Learning Analytics», in Educational Technology & Society 15 (2012) 3, 3-26.
[30] Cfr. M. Fullan – J. Quinn – J. Mceachen, Deep Learning: Engage the World Change the World, Corwin Press, Thousand Oaks (CA) 2017.
[31] Cfr. Indire (F. Storai et al.) Artificial Intelligence for and by Teachers. Rapporto nazionale di valutazione – Italia (D3.3, WP3), Firenze 2024, 7.
[32] Cfr. Papa Francesco, Laudato si’, Città del Vaticano 2015, nn. 117; 138; 142.
[33] Cfr. E. Morin, Insegnare a vivere. Manifesto per cambiare l’educazione, Raffaello Cortina, Milano 2015.
[34] Cfr. P. C. Rivoltella, «Verso una didattica del fare», Cremit/Ucsc, s.d., 11-15, disponibile su: https://dipartimenti.unicatt.it/pedagogia-Rivoltella_Verso_una_didattica_del_fare.pdf [17 agosto 2025].
[35] Cfr. Ministero dell’Istruzione e del Merito, Debate e intelligenza artificiale: usare l’IA in modo critico per preparare al confronto (Percorso formativo), Roma 2024.
[36] Cfr. M. Menegale, «Logbook o Diario di bordo: uno strumento per l’apprendimento», in Educazione Linguistica,7(2018) 1, 51-74.
[37] Cfr. Papa Francesco, Christus Vivit (Esortazione Apostolica Post-Sinodale), Città del Vaticano 2019, n. 278.
[38] Cfr. Pontificio Consiglio della Giustizia e della Pace, Compendio, op.cit. nn.106-112.
[39] Cfr. J. Ratzinger, Introduzione al cristianesimo. Lezioni sul simbolo apostolico, Queriniana, Brescia 2003.
[40] Cfr. P. Ricoeur, Soi-même comme un autre, Éditions du Seuil, Paris 1990.
[41] Cfr. Floridi et al., «AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations», in Minds and Machines 28 (2018), 689-707.
[42] Cfr. C. Taylor, L’età secolare, Feltrinelli, Milano 2009.
[43] Cfr. Giovanni Paolo II, Fides et Ratio (Lettera Enciclica), Città del Vaticano 1998, n. 56.
[44] Cfr. L. Floridi, The Fourth Revolution: How the Infosphere Is Reshaping Human Reality, Oxford University Press, Oxford 2014, 106-112.
[45] Cfr. Benanti, Algor-etica, op.cit 1-2.
