verità digitale

Oltre la bolla: educare alla verità digitale nell’epoca dell’intelligenza artificiale

del Prof. Gabriele Ciliberti

Viviamo​‍​‌‍​‍‌ un tempo al limite del paradosso, da una parte disponiamo di più informazioni di quante ne avessero mai potuto sognare i nostri nonni; dall’altra siamo immersi in una fitta rete invisibile di algoritmi che decidono, a nostra insaputa, quali informazioni avranno noi per lettori. Non è più il “censore” di un tempo ad impedircele, ma un semplice calcolo statistico che dirige il nostro sguardo verso ciò che già tendevamo a voler vedere. Ogni volta che scrolliamo un feed, guardiamo un risultato di ricerca, chiediamo a un chatbot una spiegazione, interagiamo con sistemi che sono stati costruiti e addestrati sui dati di miliardi di persone che, per parafrasare, imbrigliano tutte le distorsioni, i pregiudizi, gli errori della specie umana. Sono dati che portano con sé la nostra guerra culturale, i nostri errori del passato, le nostre ipocrisie e quando un algoritmo impara da questi dati impara anche questo: a saper mentire bene; in altre parole impara dal peccato.

Non è retorica, se un sistema viene costruito e addestrato con dati che includono menzogne, violenza, odio, quel sistema imparerà a riprodurre quegli elementi con destrezza: imparerà a farle apparire naturali, inevitabili, giustificate. È come se trasmettessimo ai nostri figli non solo tutto il bene che abbiamo accumulato, ma anche tutto il male in cui siamo incappati, i nostri compromessi, le nostre facilità; e loro, anziché rifiutare la cosa con un gesto deciso, l’assorbissero come una realtà.

E così spesso capita, oggi, di leggere articoli impeccabilmente scritti, supportati da dati solidi, fonti dichiarate e link ben ordinati. Testi che gridano autorevolezza, che citano studi noti, che usano la lingua della scienza e della ragione. Ma molto probabilmente celano suggestivi bias o semplicemente l’amara eredità di un addestramento su dati distorti. La domanda che ogni insegnante, ogni genitore, ogni cittadino responsabile, dovrebbe porsi è: come distinguere ciò che è davvero affidabile, vero, imparziale?

Come posso insegnare a riconoscere le fake news a scuola? Come aiutare i nostri ragazzi a districarsi in questo labirinto senza perdersi, senza finire loro stessi per diventare cittadini digitali di una bolla? Come insegnare loro a scorgere, con gli occhi della mente e del cuore, quel che gli algoritmi tendono (anche inconsapevolmente) a ​‍​‌‍​‍‌nascondere?

Fonte o fake? Quando la fiducia rischia di perdersi

Immaginiamo​‍​‌‍​‍‌ una scena quotidiana: uno studente sta cercando un argomento su Google. L’AI generativa gli suggerisce risultati con una sicurezza disarmante, un algoritmo su un social gli filtra quello che vede mostrandogli storie che confermano le sue convinzioni più profonde, un chatbot gli risponde alle domande con una disarmante sicurezza dovuta a quella pacatezza che viene associata agli esperti. Tutto appare scorrevole, naturale, neutrale e tuttavia, dietro ogni click c’è una scelta, non tanto dell’utente, quanto di quegli algoritmi e quei dati con cui quei sistemi sono stati addestrati.

Perché gli studenti non sanno più a cosa credere

Quando uno studente non sa più se può fidarsi di quello che legge, se la fonte è vera o fake, se quel giornalista ha riportato i fatti o li ha distorti a fini partitici, quella fiducia comincia a incrinarsi; e, insieme ad essa anche la sua capacità di orientarsi nel mondo. Le fake non sono più così pacchiane come un tempo, non troviamo più titoli scritti in un dialetto incomprensibile o immagini sgranate da cui è chiaro l’intento di ingannare. La disinformazione è fatta con più cura e maestria, come un falso dipinto realizzato dal miglior falsario, si veste di informazione credibile, ha il vestito della verità, parla la lingua del fatto.

E quando un Large Language Model, addestrato su testi prelevati da internet che riflettono tutti i pregiudizi, le stupidità, le maldicenze dell’umanità ma anche i suoi insegnamenti, la sua saggezza, la sua letteratura, mette giù una risposta che suona autoritativa, ha la giusta punteggiatura e la giusta motivazione, rientra persino su dati credibili, chi ha il coraggio di dirgli: “ehi, forse stai mentendo”?

Il problema non è nuovo, ma la scala è completamente differente; fino a qualche anno fa la manipolazione dell’informazione era il gioco di pochi, persone che avevano accesso ai mezzi per produrla e diffonderla. Oggi, chiunque può creare contenuti credibili in pochi secondi, ad esempio un ragazzino con un buon prompt, può scrivere in pochi secondi un falso ma credibile articolo di giornale, addirittura una vera e propria campagna di disinformazione può essere approntata in poche ore. Il falso viaggia ad una velocità nettamente superiore di quella che una mente umana può seguire per verificarlo, smascherarlo, ​‍​‌‍​‍‌correggerlo.

Filtri, bolle e stanze dell’eco: una società a misura di algoritmo

In che modo l’IA influenza ciò che vediamo online?

Continuando​‍​‌‍​‍‌ con degli esempi, immaginiamo uno studente interessato a un tema, diciamo la politica, la storia, lo sport, la musica, la scienza.

Come gli algoritmi profilano ogni nostro clic

Fa una ricerca su YouTube, digita qualcosa in Google, condivide un’opinione su TikTok; l’algoritmo nota la ricerca, registra il tempo di permanenza, l’interazione, quanto tempo ha guardato quella miniatura, se ha scritto un commento, a cosa ha dato il suo “like”. Tutto viene catalogato, calcolato, in modo tale che nelle sessioni successive gli vengono proposti contenuti simili. Nel giro di qualche giorno, la sua home è popolata quasi esclusivamente di video, articoli, pubblicità che vanno nella stessa direzione. Se aveva inclinazioni verso una certa visione politica, adesso vede solo quella, se era interessato ad una corrente di pensiero, adesso riceve una valanga di contenuti correlati, se aveva una paura, adesso riceve conferme quotidiane che quella paura è fondata.

Perché le bolle filtro limitano la nostra visione del mondo

Nel giro di qualche settimana, si ritrova in quella che gli esperti chiamano bolla di filtraggio: una stanza dell’eco personalizzata, costruita su misura come un abito da un sarto, una stanza dove tutto quel che sente, legge, vede, condivide, conferma ciò che già pensa. Non è un luogo fisico, ma uno spazio digitale costruito algoritmo dopo algoritmo, click dopo click, secondo dopo secondo, sulla base dei suoi dati di navigazione, dei suoi interessi dichiarati, delle sue permanenze, delle sue esitazioni.

E qui emergono le conseguenze più sottili e pericolose di questa architettura: immaginiamo la virtù umana della compassione, la capacità di sentire con l’altro, di mettersi nei suoi panni, di riconoscere la sua dignità anche quando la pensa diversamente da noi. In una bolla di filtraggio, la compassione non può nascere. Come potremmo riconoscere l’umanità in chi il nostro feed non ci mostra, o ce lo mostra sempre e solo come nemico?

Bias cognitivi: perché il cervello cerca conferme

Non fa male cercare conferme, è umano: il nostro cervello funziona così, tendiamo naturalmente verso le informazioni che confermano le nostre credenze preesistenti. È il bias confermativo, una tendenza cognitiva radicata in noi, originata dai milioni di anni di evoluzione che ci hanno insegnato a notare minacce e rassicurazioni. Questo meccanismo evolutivo ha salvato i nostri antenati dai predatori. Non è una debolezza, è biologia.

Il problema vero, emerge quando quella bolla diventa così fitta, così ermetica, che nulla può penetrare dall’esterno; quando l’algoritmo, nel cercare di accontentarci, di farci restare più tempo sulla piattaforma, di aumentare l’engagement, di trasformarci in produttori di dati e di interesse pubblicitario, ci isola sistematicamente dal pensiero diverso, da chi la pensa diversamente, dalle prove che smentiscono le nostre convinzioni.

Ecco come funziona la profilazione degli utenti: i nostri dati vengono analizzati, categorizzati, etichettati; il sistema sa cosa ci piace, cosa ci fa arrabbiare, cosa ci affascina, cosa ci fa paura. Sa con quale velocità scrolliamo quando un contenuto non ci interessa, sa quanto tempo restiamo su un articolo che ci indigna. E, anche se non è mai dichiarato esplicitamente nei termini di servizio, sa come mantenerci in uno stato di minor conflittualità cognitiva ovvero uno stato in cui tutto ciò che vediamo si allinea con quello che crediamo, perché quell’armonia mentale è anche quello che ci tiene più a lungo davanti allo schermo, consumando contenuti, generando dati, facendo clic, condividendo, commentando.

Lo studente che vive in questa bolla impara una lezione terribile: impara che il mondo è semplice, che le persone si dividono in buoni e cattivi, che le sue convinzioni sono ovvie e naturali, che tutti i “bravi” la pensano come lui, e che chi non è d’accordo è semplicemente ignorante o addirittura malvagio. Non impara a confrontarsi, perché non incontra realmente il confronto, non impara a cambiare idea, perché ogni giorno riceve conferme. Non scopre che il mondo è complesso, sfumato, pieno di paradossi, di persone intelligenti che la pensano diversamente per ragioni valide. Non impara la prudenza, quella virtù che sa distinguere tra opinione e fatto, tra sentimento e ​‍​‌‍​‍‌verità.

Educare al vaglio critico: strumenti, strategie, didattica

Ma​‍​‌‍​‍‌ allora, che fare? Demonizzare l’intelligenza artificiale? Vietare ai ragazzi di andare su internet a scuola? Tornare alle enciclopedie? Togliere telefoni ai ragazzi? No. La strada è completamente un’altra, ed è anche molto più difficile perché richiede una continua, consapevole, umana fatica: insegnare a dubitare, verificare, cercare consapevolmente l’altro punto di vista, ad imparare come funzionano i sistemi che ci circondano, a leggere il codice segreto dietro gli algoritmi.

Come usare ChatGPT, Gemini, Perplexity come “partner critici”

Si può fare ad esempio con gli stessi strumenti: ChatGPT, Perplexity, Gemini, DeepSeek non come oracoli da invocare o a cui chiedere una risposta finale e definitiva, ma come interlocutori con cui discutere, come uno “sparring partner” (compagno di allenamento) con cui esercitarsi al pensiero. Chiedere ad un Large Language Model di valutare l’imparzialità di una fonte, di confrontare tesi opposte, di dirci i limiti del suo database con il quale è stato addestrato, di spiegarci in che modo sta guardando il problema, di dirci dove non sa arrivare, insomma: trasformare il sospetto in metodo, la perplessità in indagine, l’incredulità in curiosità.

Un attento insegnante può mostrare ai propri studenti come dare lo stesso quesito a tre diversi modelli di linguaggio e ricevere tre risposte diverse, non perché uno ha ragione e gli altri no, ma perché il loro database, la temperatura, i vincoli etici presenti nel sistema sono diversi. Un modello addestrato prevalentemente su testi occidentali mi dirà una cosa mentre un modello addestrato con attenzione ai dati non occidentali me ne dirà un’altra. Questo semplice esercizio di fatto insegna una lezione fondamentale: non esiste una risposta neutrale, assoluta, obiettiva, ma ogni risposta è il prodotto di scelte consapevoli o meno.

Quali attività posso fare in classe per insegnare il pensiero critico?

L’importanza del Debate nella didattica

Ma la vera sfida educativa è di riportare in classe il “Debate”, quella pratica antica che viene dall’Antica Grecia e che è sempre attuale, oggi più che necessaria, dove gli studenti si trovano a dover difendere tesi opposte, a dover cercare fonti diverse per supportare argomentazioni che magari non la pensano così e devono imparare a sostenere a gran voce le proprie ragioni, imparando a rispettare l’avversario intellettuale. In un dibattito ben condotto, ben regolato, con un moderatore che garantisce il fair play, con criteri chiari per giudicare la qualità della ricerca, non vince chi urla di più, non vince chi ha più follower, non vince chi ha dietro gli algoritmi dei social, ma vince chi ha studiato di più, chi sa citare fonti affidabili, chi sa addurre i limiti della propria posizione senza venir meno. Vince la rigorosità della forma e della sostanza. E forse, ecco la cosa ancora più importante, s’impara che l’altro, non è un nemico da sconfiggere ma una persona con cui si condivide uno spazio di ricerca della verità.

Inquiry-Based Learning: far ricercare davvero gli studenti

Oppure riportare in classe l’Apprendimento Basato sull’Indagine (ABI), che in inglese si chiama Inquiry-Based Learning: una metodologia in cui il vaglio delle fonti non è un compito noioso, burocratico, scolastico, ma il cuore pulsante della vera, autentica, ricerca che fanno gli scienziati quando cercano di conoscere. Lo studente formula una domanda che lo interessa davvero, fa delle ipotesi, raccoglie dati tutti diversi, articoli scientifici, interviste, rapporti ufficiali, opinioni di chiunque faccia quel mestiere, opinioni di gente qualunque che vive quella realtà. Impara così piano piano a riconoscere che ogni fonte ha una voce, una prospettiva, un limite. Impara che un articolo di un grande quotidiano non è più vero di una testimonianza diretta, ma neanche il contrario. Impara che l’opinione di un esperto è più valida di una qualsiasi altra voce, ma che gli esperti a volte si sbagliano, hanno interessi in gioco, sono anche loro che devono imparare insieme a noi. Impara a triangolare, a cercare convergenze e divergenze, a costruire una mappa della conoscenza piuttosto che trovare una risposta. Impara che cercare la verità è un lavoro di tutti, che richiede umiltà, che non finisce mai.

In questi spazi l’intelligenza artificiale diventa uno strumento tra tanti: utile, anzi prezioso, ma mai risolutivo. Il pensiero critico resta umano, resta in capo a chi legge, a chi pensa (davvero), a chi dovrà convivere con le conseguenze delle decisioni prese a fronte di queste ​‍​‌‍​‍‌informazioni.

Non solo tecnologia: il ruolo umano nell’era della verità digitale

Ecco il punto: nessun software può dirci a chi credere, nessun algoritmo può insegnarci onestà intellettuale, nessun detector può sostituire il nostro giudizio, il nostro essere cittadini coraggiosi, responsabili. Gli strumenti aiutano a filtrare, ordinare, suggerire; ma la verità, la ricerca della verità, la presa di posizione nel mondo alla luce della verità, restano nostre, e pienamente nostre.

Perché nessun algoritmo può insegnare onestà intellettuale

Non possiamo delegarla agli algoritmi. Non possiamo dirgli “tu decidi per me”, perché quando delego la decisione della verità io delego anche la mia libertà, la mia consapevolezza, la mia capacità di “essere” nel mondo. La discussione in classe, il confronto diretto, la lenta e faticosa lettura di un testo difficile che ti costringe a fermarti, riflettere, indietreggiare, la paziente ricerca di libri in una biblioteca polverosa, con le righe sottolineate e schemi scritti da qualche altro studente curioso di scoprire i segreti che contiene, tutto questo non è vecchio, non è antico, non è un ritorno al passato, ma è la base stessa dell’umanesimo. È il luogo dove la verità non viene consumata frettolosamente come un prodotto di marketing per essere gettata nel dimenticatoio dopo ventiquattr’ore, ma viene digerita, metabolizzata, fatta propria, integrata nel nostro sguardo sul mondo.

Il valore del confronto e dell’errore

Nei dibattiti in classe gli studenti imparano a perdere, si formano anche attraverso la sconfitta. Imparano che anche gli altri hanno idee, intuizioni, dubbi che meritano di essere ascoltati, che meritano di cambiar idea. Imparano l’umiltà intellettuale, imparano che la verità non è un bottino, ma è la comune ricerca di qualcosa che appartiene a tutti.

Perché imparare a cercare la verità è, in fondo, una forma di libertà, non quella libertà di fare ciò che vogliamo, di credere a ciò che vogliamo, di vivere in una bolla costruita apposta per saziare il nostro desiderio. È libertà nel senso di consapevole resistenza alla bolla, di scegliere consapevolmente, faticosamente, di ascoltare chi ha idee diverse dalle mie, di lasciar entrare il mondo nelle mie certezze, di riconoscere i miei errori e permettermi di crescere.

Significa utilizzare l’intelligenza, quella vera, quella umana, quella che contempla il dubbio, lo sbaglio, la ricerca, il confronto, l’errore, la comune ricerca della verità, per attraversare il caos del digitale con consapevolezza e dignità. Significa guardare un algoritmo negli occhi (figurativi) e dire: “tu puoi suggerirmi qualcosa, ma decido io; e di quella decisione mi assumo la responsabilità”.

L’orizzonte: una cittadinanza consapevole

Viviamo in un’epoca in cui la democrazia stessa dipende dalla capacità dei cittadini di vagliare le fonti, di riconoscere la manipolazione, di pensare criticamente. Elezioni politiche sono state condizionate da campagne di disinformazione, movimenti sociali sono nati da bolle di filtraggio, persone si sono radicalizzate verso l’estremismo attraverso una serie di algoritmi che le hanno condotte passo dopo passo verso contenuti sempre più violenti, sempre più assoluti.

Disinformazione e democrazia: perché è una questione civile

E qui non si parla più di educazione. È morale. È una questione di bene comune, di quella ricerca del bene che non è solo il mio bene, ma il nostro bene condiviso. Quando la disinformazione dilaga, quando le bolle filtro ci dividono, quando ognuno abita in una propria realtà, il bene comune non c’è. Non possiamo costruire insieme se non concordiamo nemmeno su ciò che accade.

Insegnare ai giovani a navigare in questo mondo non è dunque una questione pedagogica come tante altre: è una questione civile, di sopravvivenza della democrazia stessa; è una questione etica; è una questione che riguarda la nostra capacità collettiva di rimanere socialmente coesi, di dialogare, di costruire insieme un futuro in cui nessuno è lasciato rinchiuso in una bolla.

Una pedagogia che protegge la libertà

Usare strumenti come gli antiplagio, i rilevatori di IA o i motori di ricerca può essere parte del lavoro quotidiano a scuola, così come esplorare insieme, per quanto possibile, il funzionamento degli algoritmi. Ma ciò che davvero fa la differenza sono gli spazi in cui il pensiero critico diventa una pratica abituale: luoghi in cui l’errore non è una colpa, il dubbio ha valore e il dialogo può essere autentico. Spazi in cui trova posto la carità intellettuale, la disponibilità a concedere all’altro il beneficio del dubbio e a comprenderne le ragioni prima di giudicare. Perché quando si incontra lo sguardo di uno studente che ha capito — profondamente capito — che il mondo è più sfaccettato di quanto suggerisca il suo feed personalizzato, e si vede accendersi quella scintilla che dice “allora devo pensare io, sentire io, decidere io”, lì si riconosce il cuore del nostro ruolo. Non è solo questione di trasmettere una disciplina: è contribuire alla crescita di un cittadino, di una persona consapevole della propria dignità e della propria libertà.

Risorsa consigliata: “Intelligenza Artificiale in classe”

Per chi volesse affrontare questi temi in maniera sistematica ed operativa con gli studenti, segnalo il volume Intelligenza Artificiale in classe (Edises, 2025).

Il Capitolo 5, “Il vaglio delle fonti e l’intelligenza artificiale,” è costruito proprio per questa sfida pedagogica che abbiamo raccontato. Offre una trattazione esaustiva e concreta: dalle definizioni rigorose di bufale, fake news e disinformazione alla spiegazione dettagliata dei fenomeni di profilazione e bolle filtro (filter bubble), fino alle strategie per insegnare agli studenti come vagliare la parzialità e l’autorità di una fonte.

Propone numerosi esempi operativi di come usare gli LLM non come fonti di verità ultime, ma come strumento critico per smascherare i bias, per confrontare diversi punti di vista, per comprendere i limiti di ciascuna fonte. Mostra come alimentare il pensiero critico con la tecnica stessa, riconquistando il controllo.

Completa il tutto una ricca collezione di materiali online di supporto: unita di apprendimento costruite ad hoc per affrontare questi temi, prompt, fonti attendibili da cui partire, strumenti digitali suggeriti. Risorse pensate per trasformare il dubbio e la consapevolezza critica da sfida astratta e sfuggente a possibile opportunità didattica.

Conclusione

Perché, in fondo, il vero tesoro non è avere tutte le risposte, quelle le troviamo facilmente digitando su Google, chiedendo a un chatbot, scrollando un feed. Il vero tesoro è saper porre le domande giuste, avere il coraggio di mettere in discussione noi stessi, di ammettere di non sapere, di ascoltare chi non la pensa come noi, di riconoscere l’umanità nell’altro e insegnare ai nostri studenti a fare altrettanto. Perché è da questa capacità di dialogare consapevoli, umili e onesti, che dipende il futuro della nostra democrazia e della nostra umanità.