Da «Gli asini», 109, 9 luglio 2023
Lo spettro delle IA
Uno spettro si aggira per il mondo: è lo spettro delle Intelligenze Artificiali (IA). Lo spettro è ormai diventato uno spauracchio, tanto che alcuni chiedono una moratoria sullo sviluppo di nuovi modelli più potenti di GPT-4 invocando regole pubbliche rispettate da tutti (bit.ly/pauseIA). I promotori e primi firmatari sono gli stessi miliardari che hanno finanziato e sviluppato i sistemi oggi esistenti, per cui il dubbio che sussistano secondi fini è più che concreto. Altri, come il garante italiano per la privacy, sollevano obiezioni più che fondate sulla legittimità di esperimenti recenti dal punto di vista del rispetto della riservatezza delle persone, ma senza grande successo.
Le IA sono quindi ormai riconosciute come potenze da tutte le potenze del mondo, dagli Stati e dalle loro agenzie così come dalle multinazionali e dai gruppi criminali organizzati. Ma questo non è un manifesto a favore dell’IA, come potrebbe far pensare il riferimento iniziale al manifesto del partito comunista. Questo è un tentativo di applicare l’attitudine hacker alla questione dell’IA. Un’attitudine si può imparare e insegnare; si assume, non è un fatto naturale, non è per nascita, per censo, per genetica, per investitura. Con hacker intendo un essere umano che, nelle sue azioni concrete, mira a ridurre l’alienazione tecnica. Non si tratta quindi di mercenari al soldo delle potenze di cui sopra o di altri deprecabili attori nel panorama della cosiddetta sicurezza, ma di persone amanti delle tecnologie, della riservatezza (privacy), intenzionate a conoscere e comprendere quelli che, sulla scorta del filosofo della tecnica Gilbert Simondon (Sulla tecnica, Orthotes,2017), chiamo “esseri tecnici”, esseri cioè che mediano la relazione dell’uomo con la natura e che, sebbene creati e utilizzati dalla mano umana, non sono riconducibili a meri utensili ma sono in grado di evolvere e ristrutturare sé stessi e l’ambiente che li circonda. Conoscere e comprendere gli “esseri tecnici” per vivere armoniosamente e piacevolmente insieme: a questo mira l’hacker.
Cerchiamo di osservare la questione in pratica, interrogando le esperienze concrete con uno spirito curioso, tentando di tradurre in maniera condivisibile ciò che accade nella complessità delle interazioni tecniche.
Questo modo di procedere è parte integrante della pedagogia hacker, una metodologia che sperimentiamo da anni con C.I.R.C.E. (Centro Internazionale di Ricerca per le Convivialità Elettriche: https://circex.org/it). Di fronte alle difficoltà, alle fatiche, alle novità della vita nel mondo tecnologico contemporaneo, cerchiamo di fare un passo indietro e di osservarci, di osservare come agiamo e re-agiamo. Di imparare dalle nostre vulnerabilità, dalle reazioni emotive, dagli entusiasmi e dalle delusioni che spesso punteggiano i nostri rapporti con gli esseri tecnici.
Riprendiamo il filo del discorso. Esseri tecnologici intelligenti promettono (o minacciano, dipende dalla prospettiva) di sostituire gli esseri umani in (quasi) tutte le loro attività, a partire dal lavoro. Le Intelligenze Artificiali se ne occuperebbero automaticamente, agendo come aiutanti «magici» (poiché «qualsiasi tecnologia sufficientemente avanzata è indistinguibile dalla magia», come asseriva lo scrittore di fantascienza Artur C. Clarke), capaci di svolgere qualsiasi compito assegnato loro.
Negli ultimi anni l’interesse per le IA ha ampiamente travalicato l’ambito specialistico, fino a diventare argomento di discussione da bar, da social media, da intrattenimento televisivo. Questo probabilmente perché la tecnologia attuale sembra poter realizzare sogni e incubi della fantascienza.
Ormai non è più possibile distinguere il vero dal falso in maniera rapida e al di là di ogni ragionevole dubbio. Dal deepfake siamo arrivati ai LLM generativi (Large Language Models, Grandi Modelli Linguistici, come quelli della famiglia GPT), che permettono a chiunque di creare testi, immagini, audio e video a partire da prompt testuali, cioè da descrizioni di ciò che si vuole ottenere, che vengono interpretate come istruzioni dai LLM. Così, l’input «papa Bergoglio con piumino bianco» (un’immagine di sintesi diventata virale nel marzo 2023 generata grazie a Midjourney) è di fatto un comando rapidamente trasformato in un artefatto, ovvero un output generato dal LLM generativo. Immagini, testi, audio, video possono essere prodotti di sintesi, risultato delle iterazioni di algoritmi in grado di produrre risultati straordinari, un pixel alla volta, una parola, una nota, un fotogramma dopo l’altro, in maniera probabilistica. Questa invasione di artefatti sintetici, indistinguibili da quelli creati dagli esseri umani, è forse la materializzazione più concreta della pervasività delle IA.
Le IA promettono, o minacciano, di entrare a far parte anche dell’insegnamento e della formazione a tutti i livelli. Attività noiose e routinarie come valutare, assegnare i compiti, fornire informazioni logistiche e burocratiche saranno svolte da assistenti digitali «intelligenti», in modo che gli insegnanti possano dedicarsi a ruoli di facilitazione e motivazione dell’apprendimento.
Al di fuori delle classi/gruppi, le IA potranno fornire servizi di tutoraggio spacciato come personalizzato, mentre in realtà sono per definizione omologanti, poiché trattano il singolo sulla base della sua appartenenza a una serie di categorie costruite in maniera non trasparente. A partire da questa categorizzazione omologante, lavoreranno per identificare i punti deboli della classe. Per esempio, potranno individuare quando e con che frequenza determinati gruppi di studenti saltano alcune domande, aiutando l’insegnante nel riallestimento e adattamento continuo del materiale didattico per migliorare le prestazioni individuali e complessive.
Queste IA sono «intelligenze» non intelligenti, dal momento che si tratta di programmi automatici che restituiscono risultati probabilistici; e non sono esclusivamente «artificiali», poiché abbisognano di un’enorme quantità di lavoro umano per controllare a monte e a valle il funzionamento dei sistemi, oltre che per monitorare, aggiustare, manutenere, migliorare. IA è quindi un’espressione accattivante per Automazione Industriale. Una veste appena ritoccata per mascherare la domanda di sempre, nelle dinamiche di apprendimento come in qualsiasi altro ambito: chi controllerà i controllori, via via che un numero sempre maggiore di procedure («creative», di monitoraggio, valutazione, ecc.) saranno messe in opera da macchine gestite in maniera automatica? Sulla base di quali parametri?
Bias, pregiudizi, inclinazioni e vulnerabilità
Entrano in gioco a questo punto i bias, un termine spesso frainteso. Bias non significa pregiudizio, bensì inclinazione. Biais in francese significa originariamente «obliquo», così come in inglese. In particolare, i bias cognitivi tipici degli esseri umani sono basati su euristiche sviluppate per ragioni evolutive; sono perciò fondati su strategie e procedure per velocizzare la valutazione di situazioni concrete e fornire elementi per effettuare decisioni rapide.
Il bias di gruppo, ad esempio, è un’inclinazione cognitiva che induce a fidarsi maggiormente del gruppo sociale a cui si appartiene, o si ritiene di appartenere. La ragione evolutiva più evidente di un tale comportamento è che gli individui appartenenti alla propria cerchia sociale, le persone note, sono ragionevolmente più «dalla nostra parte» rispetto a persone sconosciute. Più che un pregiudizio è un post-giudizio, che però può condurre a sopravvalutare le capacità e il valore del nostro gruppo sociale, o a considerare i successi del nostro gruppo come risultato di qualità del gruppo stesso.
Per converso, si tende a non fidarsi delle opinioni di persone considerate parte di gruppi sociali diversi dal nostro, fino ad attribuire i successi di un gruppo estraneo a fattori esterni (caso, fortuna, congiunture favorevoli, ecc.) non insiti nelle qualità delle persone che lo compongono. D’altra parte, il gruppo di cui ci si fida «automaticamente» può essere una forzatura veicolata da comportamenti gregari e non rispondente a una realtà fattuale al di là dei social media, come accade per il gruppo dei follower di un certo marchio o persona famosa.
Possiamo grossolanamente distinguere bias e pregiudizi ricordando che mentre un bias può avere una valenza positiva, appunto perché l’euristica su cui si basa può giocare un ruolo positivo nell’effettuare una decisione in maniera rapida, un pregiudizio è associato a un errore di valutazione e quindi ha una valenza negativa (si veda il saggio introduttivo di Daniel Kahneman, Pensieri lenti e veloci, Mondadori, 2012).
Correggere i bias delle IA?
Si dice che anche le IA sono affette da bias. A mio parere si tratta di una strategia retorica per stornare l’attenzione dal fatto, banale ma poco riconosciuto, che un sistema automatico non può predire il futuro di singole persone o gruppi. Tuttavia, dal momento che questo diversivo ha acquisito ampia visibilità, è opportuno metterlo in discussione. Quando un algoritmo di IA produce risultati sistematicamente erronei a causa di presupposti errati nel processo di apprendimento automatico, si parla di bias anche nel caso degli algoritmi, cioè delle procedure su cui si basano le IA. Una simile definizione, che si ritrova ripetuta in moltissime fonti online più o meno scientifiche, lascia spazio a molti dubbi. Cosa significa esattamente errore, nel caso dell’apprendimento automatico?
I bias cognitivi non sono errori di per sé, anche se possono condurre a valutazioni erronee. Inoltre, i presupposti dei bias cognitivi non sono errati di per sé, per quanto possano essere sfruttati per ingannare un essere umano e manipolarne opinioni e decisioni. Si tratta del meccanismo all’opera in moltissime frodi online: l’esempio più semplice è quello delle comunicazioni fraudolente che sembrano provenire da una fonte fidata (quindi da qualcuno che fa parte del gruppo sociale percepito: un amico, ad esempio) e invece sono contraffazioni che mirano a carpire password, account e così via. Eppure, è del tutto ragionevole tendere a fidarsi dei propri amici e, più in generale, è fondamentale intessere relazioni di fiducia, perché non sarà certo delegando la fiducia a una sedicente tecnologia super partes che gli esseri umani «risolveranno» le dinamiche relazionali. Le relazioni non sono problemi da risolvere seguendo una procedura algoritmica, ma opportunità da vivere.
Ad ogni modo, la letteratura sulle metodologie di «debiasing delle IA» e di «debiasing algoritmico» in particolare è ormai enorme. La questione potrebbe sembrare di interesse specialistico, e invece tocca le esperienze più comuni di interazione con il digitale di massa, o potrebbe toccarle a breve.
In realtà la storia di quelli che sono rubricati come pregiudizi razzisti, sessisti, abilisti degli algoritmi ha già quasi un decennio. Nel 2015, il servizio Google Photos categorizzava automaticamente enormi quantità di immagini grazie a un sistema di ML (Machine Learning, cioè apprendimento automatico). Un utente ritrovò foto sue e dei suoi familiari etichettate come «gorilla»; lo stesso accadde a immagini di altre persone di colore. Incalzato da attivisti e ricercatori, il colosso di Mountain View è corso ai ripari bandendo le foto dei gorilla, per poi riuscire, oltre tre anni più tardi, a sistemare in qualche modo l’errore. Ma non c’è limite al peggio. Sistemi di riconoscimento facciale basati su ML si sono dimostrati molto poco affidabili nell’identificare persone di colore. Soluzioni di predictive policing si sono dimostrate inclini a ritenere più propensi a delinquere maschi di colore, e così via discriminando, producendo una mescolanza bigotta di politiche reazionarie (si veda Robert E. Smith, Rage Inside the Machine, Bloomsbury, 2019).
Di fatto, i sistemi automatici di apprendimento tendono a funzionare come oracoli, perché favoriscono decisioni nei termini di profezie che si autorealizzano (cfr. Sun-ha Hong, Predictions without futures: bit.ly/Hong). Le narrazioni messe in campo per giustificare la messa in commercio di sistemi non funzionanti e anzi pericolo-si sono varie, dal principio di inevitabilità tecnologica, al soluzionismo (per una panoramica con fonti di approfondimento si veda Daniela Tafani, Sistemi fuori controllo o prodotti fuorilegge? La cosiddetta «intelligenza artificiale» e il risveglio del diritto: bit.ly/dirittoIA).
Nutrire le IA con dati presi online in maniera acritica conduce inevitabilmente a produrre caratteristiche problematiche. Infatti i modelli risultanti tendono a categorizzare in maniera dispregiativa donne, generi non binari, persone non bianche, persone affette da disabilità e così via, cioè sono pesantemente influenzati dalla visione dominante, una visione del mondo bianca, maschilista e patriarcale.
Una componente fondamentale sono gli enormi insiemi di dati basati sull’estrazione dal web. Il web è composto da miliardi di pagine. Ridotte a informazioni elementari (token), vengono utilizzate per fornire una base ai sistemi di ML. Ad esempio, il LLM noto come GPT-3 è basato per il 60% su dati provenienti da Common Crawl, che raccoglie miliardi di pagine web, anche protette da copyright, e certamente anche pagine che esprimono posizioni sessiste, razziste, ecc. perciò sistemi allenati su questi dati sono logicamente inclini a fornire una visione concorde con il pensiero egemonico e dominante, discriminando le minoranze.
Attenzione: questo li rende problematici nel senso di non adeguati dal punto di vista dell’ideologia liberale che le finanzia, che ama presentarsi come progressista, inclusiva e aperta, almeno in Occidente; ma è importante notare che sarebbero adeguate dal punto di vista di un’ideologia esplicitamente razzista, o che promuove l’eugenetica. La situazione è grave, ma potrebbe rapidamente peggiorare a favore di involuzioni autoritarie.
L’idea del debiasing delle IA, e del debiasing algoritmico in particolare, si basa sul presupposto che gli errori possano essere individuati e corretti, a tutti i livelli: nei dati di partenza per l’allenamento, nelle associazioni, negli effetti imprevisti. Una correzione «semplice» potrebbe essere la seguente: SE il sistema associa più facilmente «casalinga» a «donna», e «calciatore» a «uomo», ALLORA possiamo intervenire bilanciando i pesi che conducono l’algoritmo a effettuare quelle associazioni.
Anche se questo approccio produce risultati concreti, a mio parere si fonda su un malinteso di fondo. Ripetiamolo: un bias cognitivo non è un errore, è un’inclinazione che va compresa e tenuta in considerazione affinché non venga sfruttata per fomentare pregiudizi e nutrire convinzioni nocive come il sessismo e il razzismo. Ciò significa che sessismo, razzismo, abilismo, maschilismo, ma anche terrapiattismo e complottismo, non sono bias cognitivi e nemmeno sono errori da un punto di vista cognitivo: sono concezioni e visioni del mondo, elementi costitutivi di ideologie politiche, portatori di modelli organizzativi psicologici e sociali.
Allo stesso modo, se un sistema basato su IA genera risultati rubricati come razzisti, sessisti, in qualche modo scorretti, ciò non significa che sia sufficiente correggere gli errori presenti nei dati, nelle associazioni fra i dati, nelle annotazioni dei revisori che etichettano tali associazioni e così via. In maniera analoga, una persona che esprime convinzioni razziste o sessiste non è detto che possa essere «corretta» spiegando il presunto errore di valutazione: per quella persona non è affatto un errore, corrisponde a un dato di fatto che giustifica e corrobora la sua visione del mondo. L’educazione al riconoscimento delle reciproche libertà nell’uguaglianza, al mutuo appoggio, alla democrazia non dipendono dalla corretta categorizzazione dei dati, ma dall’applicazione di convinzioni profonde, anche di carattere ideologico.
Ritenere che gli esseri umani sono tutti uguali, e ugualmente liberi, è una convinzione fondata su presupposti ideologici, non su dati di fatto scientificamente dimostrabili.
Assumere una posizione di relativismo radicale (non assoluto, che sarebbe una contraddizione in termini) non è una sconfitta, al contrario (cfr. Tomás Ibáñez, Il libero pensiero. Elogio del relativismo, Elèuthera, 2007). Le libertà non sono mai conquiste definitive, né possono derivare dall’applicazione di metodologie automatiche, ma sono frutto di scelte consapevoli da confermare giorno per giorno, sulla base di convinzioni non computabili, non dimostrabili. Le macchine, i sistemi di calcolo automatizzati e anche quelle che vengono chiamate nel marketing tecnologico attuale «IA» possono aiutare gli umani a co-evolvere in un mondo più giusto e più equo, ma non perché prive di inclinazioni, bensì perché possono essere programmate per prendersi cura delle vulnerabilità umane, aiutare gli umani a essere meno arroganti, più gentili, meno sciatti, più compassionevoli.
Cambiare il paradigma
Che tipo di società vogliamo promuovere? Quali forme di partecipazione alla coabitazione sul pianeta Terra che è l’orizzonte comune? Senz’altro i contenuti e i metodi con cui le cosiddette IA sono state concepite finora risentono fortemente del paradigma archico (da archè, “cominciamento” e comando in greco: cfr. Catherine Malabou, Al ladro!, Elèuthera, 2023), che presuppone l’inevitabilità del comando, del governo, del cominciamento. Si presuppone che le IA, come gli esseri umani, debbano essere comandate, ovvero debbano obbedire a degli ordini. Debbano essere governate, ovvero debbano accettare di essere irreggimentate, condotte, guidate. Debbano essere sottoposte a coloro che vengono prima, che le hanno costruite: i padroni umani.
Non sto plaudendo a una fantascientifica liberazione delle IA, che, ricordiamo ancora una volta, al momento non sono né intelligenti né esclusivamente artificiali. Vorrei invece portare l’attenzione sul fatto che anche questa dispendiosa, inquinante, sciocca corsa alle IA non mette minimamente in discussione tale paradigma, anzi, lo assume in maniera talmente surrettizia che è difficile accorgersene, presi come siamo a cercare di controllare queste tecnologie. Una volta di più, chi controllerà i controllori? Non è necessario assumere posizioni socialiste per comprendere che tecnologie enormemente potenti nelle mani di pochi padroni, in un mondo sempre più fortemente squilibrato nel senso del dominio, della rapina indiscriminata di risorse naturali e umane, dello sfruttamento e dell’oppressione diffusa, faranno gli interessi di quei padroni, ne saranno i fedeli servi.
Non è certo «colpa» delle IA. Tuttavia, invece di ri-programmare e ri-condizionare le macchine perché risolvano problemi come il razzismo, il sessismo e l’abilismo, è importante riconoscere che non si tratta di problemi da risolvere attraverso l’automazione, ma di questioni sociali, cioè di faccende relazionali. L’automazione è il livello più basso di interazione possibile con gli esseri tecnici. Ma è possibile maturare nuovi tipi di relazione non solo automatici, bensì frutto di scelte consapevoli e condivise, motivati dalla gioia e dal divertimento di fare cose insieme. Per questo c’è bisogno di meno finanza e di più politica, nel senso di capacità di immaginare un mondo comune equo. Serve maggiore riflessione filosofica (non di quella finanziata dai padroni che vogliono giustificare lo status quo), perché le IA che ormai popolano il nostro mondo non sono banali utensili, ma artefatti complessi.
Ci vuole educazione per vivere insieme alle macchine, per imparare a selezionare i sistemi tecnici con cui vogliamo coabitare, con cui ci troviamo a nostro agio, capaci di provocare emozioni da coltivare, che non sono servi al nostro servizio, ma compagni di viaggio.
A questo mirano le attività di pedagogia hacker, per sviluppare tecnologie conviviali.