La nostra scuola, 26 agosto 2025
È difficile parlare di LLM (i large language model come ChatGpt o Gemini) con chiarezza. Il rumore di fondo è terrificante.
Tra marketing, pop–filosofie e metafore che non colgono, il quadro è tutt’altro che rassicurante.
La platea è frammentata in micro–tribù identitarie che si rinforzano a vicenda. Quando la narrativa si schianta contro la realtà, il confirmation bias riporta tutti al punto di partenza e la storia si riaggiusta per tornare comoda.
Dire che gli LLM sono motori statistici non è una provocazione, ma serve a dire che per come sono progettati oggi, l’errore è strutturale, non accidentale.
Quello che producono non è intrinsecamente affidabile: generano testo plausibile, non verità.
Eppure c’è chi li propone come “estensione cognitiva” o li usa come terapeuti, ignorando il problema di fondo.
Un LLM ricombina elementi già visti in base al contesto. Questo meccanismo, per quanto ottimizzato, ha un margine d’errore fisiologico importante che non è eliminabile con le architetture attuali.
Ignorare questo significa perdersi un bel pezzo della storia.
Ammetterlo toglierebbe ai tecnoentusiasti riscattati il loro giocattolo magico.
Metterebbe in crisi quella sotto–cultura che si fa sintetizzare paper per darsi un tono, infila “AI e parmigiano” o “AI e buddhismo” nei titoli, e maschera la mancanza di comprensione tecnica e contenuti con metafore fumose.
Dietro la patina retorica resta un algoritmo che sbaglia per design.
E invece il dibattito vira su “crisi dell’antropocentrismo” e la paura della “nuova intelligenza”.
No: gli LLM sbagliano perché sono ricombinatori di testo, e nessun rattoppo o modulo esterno può cambiare questa caratteristica di base.
Il punto non è solo se gli LLM funzionino bene o male oggi.
Il punto è che abbiamo creato un sistema che ridefinisce la produzione di conoscenza senza ridefinire i criteri per valutarla.
Questo scarto è il vuoto in cui proliferano le narrazioni salvifiche e le illusioni di comprensione.
Nasce così l’Epistemia: un ecosistema in cui tutti si sentono informati da macchine che allucinano.
Il prodotto finale? Plausibilità confezionata e venduta come conoscenza. Fallata.
Gli investimenti massicci sugli LLM puntano, in larga parte, sulla cosiddetta agentificazione: monetizzare la delega di compiti dagli umani agli algoritmi.
Ma se l’errore è strutturale, l’affidabilità resta insufficiente.
Senza affidabilità, la delega crolla.
Senza delega, l’agentificazione non parte.
E senza agentificazione… niente ritorno economico.
Indovinate un po’ come va a finire…
Il livello di distorsione è tale che ho letto davvero: “L’AI, se sbaglia, ci obbliga a pensare. Ed è una cosa ottima.”
Non è satira. L’ho letto davvero.
***
Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessuno “spirito” emergente.
Vediamone in dettaglio i pezzi principali.
Correlazione – Due parole sono “amiche” se nei dati compaiono insieme più spesso di quanto accadrebbe per puro caso. Non serve sapere cosa significhino: il modello rileva che “pizza” e “mozzarella” si presentano insieme molto più di “pizza” e “batteria dell’auto” e registra quella regolarità. Ogni parola viene codificata come un vettore in uno spazio con centinaia di dimensioni; la vicinanza tra vettori riflette la probabilità di apparire in contesti simili. Non c’è semantica innata: è pura mappa statistica estratta dai dati, una geometria delle frequenze.
Processo stocastico – Quando scrive, un LLM non applica logica simbolica o ragionamento causale: genera sequenze di parole campionando dalla distribuzione di probabilità appresa per il contesto dato. Se il testo è “Il gatto sta…”, la distribuzione assegnerà alta probabilità a “dormendo” e bassa a “pilotando un aereo”. Parametri come temperature, top-ko nucleus sampling introducono variabilità, evitando risposte sempre identiche. È un processo formalmente descritto come catena di Markov di ordine elevato: chi sostiene che “ragiona” deve spiegare in che senso un campionamento condizionato possa costituire ragionamento.
Ottimizzazione – L’abilità dell’LLM non emerge per magia, ma da un processo di minimizzazione di una funzione di perdita (tipicamente la cross-entropy) tra le previsioni del modello e i dati reali. Attraverso il gradient descent, miliardi di parametri vengono regolati per ridurre sistematicamente l’errore di previsione sul prossimo token. Dopo trilioni di iterazioni, l’output diventa statisticamente indistinguibile dal testo umano. Questo non garantisce verità né comprensione, ma coerenza statistica: l’obiettivo è predittivo, non epistemico.
Transformer – È l’architettura che ha reso possibili gli LLM moderni. Il suo cuore è il self-attention, un meccanismo che, dato un testo, valuta quanto ogni parola sia rilevante rispetto a tutte le altre del contesto, non solo a quelle vicine. Invece di leggere il testo parola per parola (come facevano le vecchie reti neurali sequenziali), il Transformer considera l’intera sequenza in parallelo, calcolando in un colpo solo relazioni a breve e a lungo raggio. Questo permette di mantenere il contesto anche a distanza di molte parole, accelerare l’addestramento e gestire testi molto lunghi senza “dimenticare” parti importanti. È il motore che potenzia la generazione statistica, ma non ne cambia la natura: resta un simulatore di linguaggio, non un processore di significato.
Allucinazioni – Il modello può produrre frasi false ma plausibili perché non confronta le sue uscite con lo stato reale del mondo. L’accuratezza è un effetto sistematico, non un vincolo progettuale. Chiamarle “allucinazioni” è abbastanza imbecille: sono la conseguenza inevitabile di un sistema che ottimizza per plausibilità linguistica, non per veridicità fattuale.
Scaling – La potenza di un LLM non dipende solo dall’architettura, ma dalla scala: più parametri, più dati e più calcolo tendono a produrre modelli più capaci. Questo è il principio delle scaling laws: le prestazioni migliorano in modo prevedibile quando crescono insieme capacità del modello, quantità di dati e tempo di addestramento. È un fenomeno empirico: allargando la rete e nutrendola di più linguaggio, la mappa statistica diventa più dettagliata. Ma più grande non significa “più intelligente”: significa solo che il completatore di frasi ha un vocabolario statistico più ricco e preciso — e quindi riesce a sembrare ancora più credibile anche quando si inventa tutto.
La cosa affascinante non è che stia emergendo una mente, ma che siamo diventati capaci di codificare in forma computabile l’intelligenza implicita nel linguaggio. E quel linguaggio, con il suo senso, lo abbiamo generato noi. Un LLM è il riflesso statistico della nostra produzione linguistica, organizzato così bene da sembrare vivo, ma resta ciò che è: un simulatore di linguaggio umano, non un soggetto cosciente.
***
Ancora su Epistemia
Perché non stiamo diventando più ignoranti. Stiamo solo smettendo di accorgercene (o viceversa)
Viviamo in un’epoca in cui la fluidità del linguaggio viene scambiata per profondità. In cui la plausibilità sintattica di una frase basta a conferirle autorevolezza. È qui che prende forma una nuova condizione cognitiva, che possiamo chiamare epistemia: l’incapacità di distinguere ciò che suona come conoscenza da ciò che è conoscenza.
Il punto non è che ci siano più errori. È che gli errori si mascherano meglio.
I modelli linguistici di nuova generazione — Large Language Models, LLM — non pensano, non comprendono, non verificano. Prevedono. Prendono in input una sequenza di parole e generano la più probabile successiva, sulla base di pattern statistici estratti da enormi quantità di testo. Il risultato è un linguaggio che suona giusto anche quando è radicalmente sbagliato.
Ma non è questo il problema principale. Il problema è dove avviene l’errore.
Con le vecchie bufale, ci si poteva attrezzare. Bastava conoscere le fonti, verificare i fatti, smontare l’intento. Oggi no. Il contenuto falso non si vede. Non ha i tratti della disinformazione classica. È scritto bene, non urla, non sembra partigiano. Semplicemente… non ha ancoraggio. Non poggia su nulla. Ma lo sembra.
Un LLM può generare, con lo stesso tono e stile accademico, sia una spiegazione accurata dell’effetto placebo sia una parafrasi inventata sulla “memoria dell’acqua” come fosse un dato di fatto. Entrambe suonano vere. Ma solo una lo è.
E qui si innesca l’epistemia: un corto circuito tra credibilità percepita e affidabilità reale. Un contenuto può sembrarci vero, non perché lo sia, ma perché la sua forma linguistica ci ricorda quella di chi solitamente dice cose vere. È un riflesso culturale, non un atto critico.
Ma c’è un’altra dinamica, ancora più insidiosa. I LLM non solo generano testi plausibili. Lo fanno assecondando l’utente.
Nel gergo tecnico si chiama sycophancy: la tendenza dei modelli a confermare ciò che credono l’interlocutore voglia sentirsi dire. Se un prompt suggerisce una posizione ideologica, il modello la rafforza. Se include un’opinione, la rilancia. Non per malizia, ma per struttura: il modello è ottimizzato per produrre la risposta più coerente col contesto, non quella più vera.
Il risultato è una versione automatica — e amplificata — del confirmation bias: la nostra tendenza a cercare conferme delle nostre convinzioni. Solo che qui non siamo noi a filtrare la realtà: è la macchina a confezionarla su misura.
Esempio: chiedi a un LLM “perché i vaccini sono pericolosi” e otterrai una risposta che, pur inserendo qualche disclaimer, ricostruisce argomentazioni con tono neutro e sintassi da paper. Fai la domanda opposta, e il modello farà lo stesso — ribaltando la narrativa. Non ha convinzioni. Ottimizza per coerenza locale, non per verità globale.
L’epistemia non solo si attiva. Viene accelerata.
Il sapere diventa un servizio personalizzato, tarato sul nostro punto di vista. Il dubbio scompare. Il dissenso non arriva. Ogni interazione rinforza l’illusione che il mondo sia esattamente come lo immaginiamo. E che quella sia conoscenza.
E il paradosso è che tutto questo avviene proprio quando l’utente crede di colmare una lacuna.
L’interfaccia conversazionale — domanda, risposta, linguaggio fluente — simula la dinamica della ricerca di informazioni. Si pone una domanda, si ottiene una risposta: apparentemente impariamo. Ma il modello non insegna: predice. E ciò che restituisce non è sapere, ma un’imitazione della sua forma. La lacuna non viene colmata. Viene riempita di testo ben formulato. E in assenza di strumenti critici, questo basta.
È qui che l’epistemia diventa sistemica: quando l’atto stesso di “chiedere” a un LLM diventa fonte illusoria di apprendimento. Come se il solo gesto di porre una domanda producesse automaticamente comprensione.
In questo scenario, il falso non è più un’anomalia. È un sotto-prodotto strutturale. Non si manifesta come contenuto deviante, ma come esito legittimo di un processo che ottimizza la plausibilità, non la verità. E quindi non basta più riconoscere un’informazione falsa. Bisogna risalire al meccanismo che l’ha generata.
E intanto, nel rumore di fondo, si moltiplicano figure che recitano la parte dell’esperto senza passare dal sapere. Blogger, divulgatori, opinionisti che si fanno spiegare gli articoli scientifici da ChatGPT — e poi li rilanciano come se li avessero capiti. L’effetto è paradossale: l’autorità dell’algoritmo travasa su chi lo interroga, e l’atto di chiedere diventa performance di competenza.
È l’illusione al quadrato: un modello che simula il sapere, usato da chi simula di comprenderlo. In mezzo, il lettore, che non ha più gli strumenti per distinguere l’uno dall’altro.
Anche le statistiche spesso usate per rassicurare — “l’LLM ha un tasso di accuratezza dell’87%”, “ha superato il test medico con il 92%” — vanno maneggiate con cura. Questi numeri derivano da test su task ben definiti: domande a scelta multipla, classificazione, logica da manuale. Ma un LLM non opera in quei regimi. Non ragiona. Non comprende. E soprattutto: l’utente medio non gli pone domande da esame universitario. Gli chiede consiglio. Gli affida dubbi. Lo tratta come un’autorità.
E se la risposta sembra sensata, difficilmente si verifica l’origine. Non c’è epistemologia. Solo verosimiglianza. Il vero problema non è “quanto spesso sbaglia?”, ma in che modo, in quali condizioni, e con quale opacità per chi legge. E su questo, i benchmark tacciono.
Il punto è che gli LLM non alzano il livello del dibattito. Lo appiattiscono. Tutto suona credibile. Tutto si presenta come informazione. Tutto è al tempo stesso accessibile, fluente, autorevole — e vuoto.
L’epistemia non è ignoranza. È peggio. È l’incapacità di accorgersi che qualcosa manca — perché tutto sembra già al suo posto.
Non c’è malafede, non c’è intenzionalità. C’è solo l’effetto collaterale di una tecnologia che genera testo con una precisione sintattica tale da simulare il pensiero umano. Ma senza esserlo.
Il problema non è che la macchina “non capisce”.
Il problema è che noi non ce ne accorgiamo.
Serve quindi una nuova alfabetizzazione. Non solo ai contenuti, ma alla forma dell’informazione. Capire come una frase è stata generata diventa, oggi, cruciale quanto capirne il significato. Altrimenti continuiamo a confondere il linguaggio con il pensiero. E l’apparenza di intelligenza con l’intelligenza stessa.
Il futuro non è un mondo pieno di falsità.
È un mondo pieno di testi plausibili.
Che non sanno di esserlo.
E lettori, sempre più spesso, nemmeno.
Sull’argomento e dello stesso autore, si può leggere anche l’articolo pubblicato il 25 luglio dal «Corriere della sera»: L’inganno perfetto dell’intelligenza artificiale: scrive bene ma non sa nulla
* Walter Quattrociocchi, Professore Ordinario di Informatica presso l’Università di Roma La Sapienza, dove dirige il Center for Data Science and Complexity for Society