Corriere della Sera, 23 luglio 2025
Abbiamo sbagliato tutto sulla disinformazione. Ora rischiamo di ripetere l’errore con l’AI: produciamo manifesti etici senza comprendere la meccanica dei modelli. Un appello a un approccio scientifico per affrontare la nuova sfida, imparando a dubitare della forma per cercare il fondamento
Per lungo tempo, la disinformazione è stata trattata come un’anomalia del contenuto: una deviazione dalla verità che, in quanto tale, si pensava correggibile attraverso strumenti di vigilanza epistemica — fact-checking, etichette, interventi normativi pensati più per rassicurare che per incidere. Ma quell’impianto interpretativo, fondato su una visione lineare della comunicazione e su una fiducia eccessiva nella forza persuasiva della verità, si è rivelato inefficace. Non solo perché interveniva tardivamente, ma soprattutto perché confondeva l’effetto con la causa: assumeva che il problema fosse cosa veniva detto, senza interrogarsi perché quei contenuti trovassero risonanza, attenzione, e circolazione.
Il cambiamento di paradigma — ancora oggi metabolizzato solo in parte — è iniziato quando si è iniziato a interrogare non più la veridicità dei messaggi, ma la struttura dei sistemi informativi che li generano, li filtrano e li amplificano. Misurando — e non più solo denunciando — si è compreso che la disinformazione non era una devianza occasionale, ma un esito prevedibile di una dinamica sistemica: l’intersezione tra architetture algoritmiche ottimizzate per massimizzare l’engagement e predisposizioni cognitive che favoriscono la coerenza identitaria rispetto alla complessità.
È in questo contesto che il confirmation bias ha smesso di essere una categoria psicologica astratta per diventare una forza strutturante della visibilità online. La polarizzazione non emerge perché qualcuno mente più di altri, ma perché i contenuti che rinforzano le credenze pregresse hanno una probabilità significativamente maggiore di essere visti, condivisi, commentati. L’economia dell’attenzione non ha bisogno della verità per prosperare — le basta la pertinenza percepita.
Su questa base è stato possibile smontare, con metodo e dati, la retorica delle «bolle informativ» intese come spazi passivamente isolati. Le echo chambers, correttamente intese, non sono ambienti chiusi ma strutture co-evolutive, in cui la domanda e l’offerta informativa si plasmano reciprocamente. Non è l’algoritmo a segregare, né l’individuo a scegliere in autonomia: è il loro incastro a produrre un ecosistema cognitivo dove l’informazione non serve più a esplorare il reale, ma a consolidare l’identità.
Solo a partire da questa consapevolezza è stato possibile sviluppare interventi che non si limitassero a rincorrere l’errore, ma ne anticipassero la traiettoria.
È qui che la scienza dei dati si afferma come strumento epistemico: non per sostituire il pensiero, ma per mapparne i vincoli, misurare gli effetti, e disinnescare le illusioni.
Il prebunking, in questo senso, non rappresenta semplicemente una strategia comunicativa più efficace, ma l’esito di un cambio di postura epistemica: non più correggere ciò che è già passato attraverso i filtri cognitivi e sociali, ma agire a monte, inoculando nei soggetti le competenze necessarie a riconoscere le strutture della manipolazione prima che si attivino. È, in forma operativa, ciò che succede quando un approccio scientifico prende sul serio la complessità senza farsi sedurre dalla semplificazione moralistica.
Se questo cambio di paradigma — dalla falsità al bias, dalla diagnosi normativa alla misurazione sistemica — ha rappresentato un momento di maturazione per il discorso pubblico sulla disinformazione, l’avvento dei modelli linguistici generativi ha aperto una nuova fase, in apparenza opposta ma nella sostanza analoga: una crisi epistemica non più centrata sulla verità, ma sulla forma.
Conosciuti come LLM (Large Language Models), questi modelli non sono agenti razionali né strumenti conoscitivi in senso proprio. Sono macchine statistico-computazionali addestrate a generare sequenze linguistiche coerenti sulla base di enormi quantità di testo. Non hanno comprensione, intenzionalità, referenza. Non conoscono il mondo, ma imitano i suoi discorsi. Operano secondo un principio elementare ma potente: la plausibilità predittiva. Eppure, nella ricezione pubblica e nella narrazione commerciale, questa funzione è stata rapidamente reinterpretata come intelligenza generalizzata, copilota cognitivo, persino consulente epistemico.
È in questo slittamento semantico — da modello predittivo a surrogato cognitivo — che si produce un effetto collaterale tanto sottile quanto pervasivo: l’illusione della conoscenza. Perché un LLM non capisce ciò che dice, ma lo dice bene. A parità di ignoranza, l’output generato da un LLM risulta più fluido, articolato, persuasivo di quello prodotto da un essere umano privo di competenze. Ma è un’efficienza simulativa, non cognitiva. E proprio per questo, più l’utente è inconsapevole dei limiti strutturali del modello, più è esposto al fascino della forma e all’equivoco dell’affidabilità.
Il risultato è una nuova dinamica sistemica, che potremmo chiamare epistemia: non più solo disinformazione (distorsione del contenuto) o infodemia (sovraccarico informativo), ma una condizione in cui la produzione del sapere è colonizzata dalla sua apparenza. Un’epidemia di testi verosimili che simulano razionalità, argomentazione, autorevolezza — senza alcuna garanzia di fondamento. È qui che la retorica dell’accessibilità cognitiva diventa una trappola: ciò che sembra democratizzare il sapere, in realtà lo svuota di struttura.
Questa dinamica, lungi dall’essere neutra, genera due effetti perversi. Il primo è la deresponsabilizzazione epistemica: l’idea che la forma linguistica ben confezionata possa sostituire la fatica della costruzione teorica. Il secondo è la redenzione dei mediocri: in un ambiente in cui l’apparenza dell’intelligenza è sufficiente a garantire legittimità discorsiva, chi un tempo era marginale rispetto alla complessità si trova improvvisamente autorizzato a parlare di tutto — e a farlo con l’aiuto di un sistema che simula profondità senza possederla.
Così, come un tempo si è tentato di normare la disinformazione senza comprendere la meccanica delle echo chambers, oggi si moltiplicano manifesti sull’etica dell’IA redatti da chi ignora i fondamenti statistici, computazionali e cognitivi dei modelli. Si pretende di regolare ciò che non si è nemmeno tentato di comprendere. È come legiferare sulla gravità senza conoscere la fisica, assumendo che sia una proprietà morale e non strutturale.
Questa epistemia latente, che scambia la generazione automatica per comprensione, la somiglianza per verità, la stilistica per conoscenza, è il nuovo fronte critico del rapporto tra tecnologia e società. E richiede una risposta all’altezza: non indignazione, non stupore, non storytelling, ma analisi sistemica, interdisciplinarità rigorosa, e metodo condiviso.
L’eredità più autentica del lavoro sulla disinformazione — quella che ha reso possibile il passaggio dal fact-checking al prebunking, dalla denuncia all’intervento strutturato — sta proprio qui: nell’aver mostrato che i fenomeni complessi si possono capire solo se si smette di raccontarli e si comincia a misurarli. Che il problema non è l’opinione, ma la struttura che la rende visibile. Che la soluzione non è dire la verità, ma costruire le condizioni per riconoscerla.
Ecco perché oggi il punto non è più solo cosa sappiamo dell’IA. È come lo sappiamo. Chi lo verifica. Con quali strumenti. Secondo quali criteri. L’epoca in cui viviamo non è affollata di falsità: è affollata di testi ben scritti che non significano nulla. Il rischio non è essere ingannati, ma non accorgersi più di cosa significhi davvero conoscere. E in quest’epoca di testi perfettamente scritti ma senza significato, la vera intelligenza sarà nell’imparare a dubitare della forma per cercare il fondamento.