CARLO MILANI Nuove intelligenze, vecchi pregiudizi

Da «Gli asini», 109, 9 luglio 2023

Lo spettro delle IA

Uno  spettro  si  aggira  per  il  mondo:  è  lo  spettro  delle Intelligenze  Artificiali  (IA).  Lo  spettro  è  ormai  diventato uno  spauracchio,  tanto  che  alcuni  chiedono  una  moratoria  sullo  sviluppo  di  nuovi  modelli  più  potenti  di  GPT-4  invocando  regole  pubbliche  rispettate  da  tutti  (bit.ly/pauseIA). I promotori e primi firmatari sono gli stessi miliardari  che  hanno  finanziato  e  sviluppato  i  sistemi  oggi esistenti,  per  cui  il  dubbio  che  sussistano  secondi  fini  è più che concreto. Altri, come il garante italiano per la privacy, sollevano obiezioni più che fondate sulla legittimità di esperimenti recenti dal punto di vista del rispetto della riservatezza delle persone, ma senza grande successo.

Le  IA  sono  quindi  ormai  riconosciute  come  potenze da  tutte  le  potenze  del  mondo,  dagli  Stati  e  dalle  loro agenzie così come dalle multinazionali e dai gruppi criminali  organizzati.  Ma  questo  non  è  un  manifesto  a  favore dell’IA, come potrebbe far pensare il riferimento iniziale al manifesto del partito comunista. Questo è un tentativo di applicare l’attitudine hacker alla questione dell’IA. Un’attitudine si può imparare e insegnare; si assume, non è un fatto  naturale,  non  è  per  nascita,  per  censo,  per  genetica, per investitura. Con hacker intendo un essere umano che, nelle sue azioni concrete, mira a ridurre l’alienazione tecnica.  Non  si  tratta  quindi  di  mercenari  al  soldo  delle potenze di cui sopra o di altri deprecabili attori nel panorama della cosiddetta sicurezza, ma di persone amanti delle tecnologie, della riservatezza (privacy), intenzionate a conoscere e comprendere quelli che, sulla scorta del filosofo della tecnica Gilbert Simondon (Sulla tecnica, Orthotes,2017),  chiamo  “esseri  tecnici”,  esseri  cioè  che  mediano la relazione dell’uomo con la natura e che, sebbene creati e  utilizzati  dalla  mano  umana,  non  sono  riconducibili  a meri utensili ma sono in grado di evolvere e ristrutturare sé stessi e l’ambiente che li circonda. Conoscere e comprendere gli “esseri tecnici” per vivere armoniosamente e piacevolmente insieme: a questo mira l’hacker.

Cerchiamo di osservare la questione in pratica, interrogando  le  esperienze  concrete  con  uno  spirito  curioso, tentando di tradurre in maniera condivisibile ciò che accade nella complessità delle interazioni tecniche.

Questo  modo  di  procedere  è  parte  integrante  della pedagogia  hacker,  una  metodologia  che  sperimentiamo da  anni  con  C.I.R.C.E.  (Centro  Internazionale  di  Ricerca per  le  Convivialità  Elettriche:  https://circex.org/it).  Di fronte alle difficoltà, alle fatiche, alle novità della vita nel mondo tecnologico contemporaneo, cerchiamo di fare un passo indietro e di osservarci, di osservare come agiamo e  re-agiamo.  Di  imparare  dalle  nostre  vulnerabilità,  dalle reazioni  emotive,  dagli  entusiasmi  e  dalle  delusioni  che spesso punteggiano i nostri rapporti con gli esseri tecnici.

Riprendiamo  il  filo  del  discorso.  Esseri  tecnologici intelligenti promettono (o minacciano, dipende dalla prospettiva)  di  sostituire  gli  esseri  umani  in  (quasi)  tutte  le loro  attività,  a  partire  dal  lavoro.  Le  Intelligenze  Artificiali  se  ne  occuperebbero  automaticamente,  agendo  come aiutanti  «magici»  (poiché  «qualsiasi  tecnologia  sufficientemente avanzata è indistinguibile dalla magia», come asseriva lo scrittore di fantascienza Artur C. Clarke), capaci di svolgere qualsiasi compito assegnato loro.

Negli  ultimi  anni  l’interesse  per  le  IA  ha  ampiamente  travalicato  l’ambito  specialistico,  fino  a  diventare  argomento  di  discussione  da  bar,  da  social  media,  da  intrattenimento  televisivo.  Questo  probabilmente  perché  la tecnologia attuale sembra poter realizzare sogni e incubi della fantascienza.

Ormai non è più possibile distinguere il vero dal falso in maniera rapida e al di là di ogni ragionevole dubbio. Dal deepfake siamo arrivati ai LLM generativi (Large Language  Models,  Grandi  Modelli  Linguistici,  come  quelli  della famiglia  GPT),  che  permettono  a  chiunque  di  creare  testi, immagini, audio e video a partire da prompt testuali, cioè  da  descrizioni  di  ciò  che  si  vuole  ottenere,  che  vengono  interpretate  come  istruzioni  dai  LLM.  Così,  l’input «papa  Bergoglio  con  piumino  bianco»  (un’immagine  di sintesi  diventata  virale  nel  marzo  2023  generata  grazie a Midjourney) è di fatto un comando rapidamente trasformato in un artefatto, ovvero un output generato dal LLM generativo.  Immagini,  testi,  audio,  video  possono  essere prodotti di sintesi, risultato delle iterazioni di algoritmi in grado di produrre risultati straordinari, un pixel alla volta, una parola, una nota, un fotogramma dopo l’altro, in maniera probabilistica. Questa invasione di artefatti sintetici, indistinguibili da quelli creati dagli esseri umani, è forse la materializzazione più concreta della pervasività delle IA.

Le IA promettono, o minacciano, di entrare a far parte anche dell’insegnamento e della formazione a tutti i livelli.  Attività  noiose  e  routinarie  come  valutare,  assegnare i  compiti,  fornire  informazioni  logistiche  e  burocratiche saranno svolte da assistenti digitali «intelligenti», in modo che gli insegnanti possano dedicarsi a ruoli di facilitazione e motivazione dell’apprendimento.

Al  di  fuori  delle  classi/gruppi,  le  IA  potranno  fornire servizi di tutoraggio spacciato come personalizzato, mentre in realtà sono per definizione omologanti, poiché trattano  il  singolo  sulla  base  della  sua  appartenenza  a  una serie di categorie costruite in maniera non trasparente. A partire da questa categorizzazione omologante, lavoreranno  per  identificare  i  punti  deboli  della  classe.  Per  esempio,  potranno  individuare  quando  e  con  che  frequenza determinati  gruppi  di  studenti  saltano  alcune  domande, aiutando  l’insegnante  nel  riallestimento  e  adattamento continuo  del  materiale  didattico  per  migliorare  le  prestazioni individuali e complessive.

Queste IA sono «intelligenze» non intelligenti, dal momento  che  si  tratta  di  programmi  automatici  che  restituiscono risultati probabilistici; e non sono esclusivamente «artificiali», poiché abbisognano di un’enorme quantità di lavoro umano per controllare a monte e a valle il funzionamento  dei  sistemi,  oltre  che  per  monitorare,  aggiustare, manutenere,  migliorare.  IA  è  quindi  un’espressione  accattivante per Automazione Industriale. Una veste appena ritoccata  per  mascherare  la  domanda  di  sempre,  nelle dinamiche di apprendimento come in qualsiasi altro ambito:  chi  controllerà  i  controllori,  via  via  che  un  numero sempre maggiore di procedure («creative», di monitoraggio,  valutazione,  ecc.)  saranno  messe  in  opera  da  macchine  gestite  in  maniera  automatica?  Sulla  base  di  quali parametri?

Bias, pregiudizi, inclinazioni e vulnerabilità

Entrano  in  gioco  a  questo  punto  i bias,  un  termine spesso  frainteso. Bias non  significa  pregiudizio,  bensì inclinazione.  Biais  in  francese  significa  originariamente «obliquo», così come in inglese. In particolare, i bias cognitivi  tipici  degli  esseri  umani  sono  basati  su  euristiche sviluppate  per  ragioni  evolutive;  sono  perciò  fondati  su strategie e procedure per velocizzare la valutazione di situazioni  concrete  e  fornire  elementi  per  effettuare  decisioni rapide.

Il bias di gruppo, ad esempio, è un’inclinazione cognitiva che induce a fidarsi maggiormente del gruppo sociale a cui si appartiene, o si ritiene di appartenere. La ragione evolutiva più evidente di un tale comportamento è che gli individui appartenenti alla propria cerchia sociale, le persone note, sono ragionevolmente più «dalla nostra parte» rispetto  a  persone  sconosciute.  Più  che  un  pregiudizio  è un post-giudizio, che però può condurre a sopravvalutare le capacità e il valore del nostro gruppo sociale, o a considerare  i  successi  del  nostro  gruppo  come  risultato  di qualità del gruppo stesso.

Per  converso,  si  tende  a  non  fidarsi  delle  opinioni  di persone considerate parte di gruppi sociali diversi dal nostro, fino ad attribuire i successi di un gruppo estraneo a fattori esterni (caso, fortuna, congiunture favorevoli, ecc.) non insiti nelle qualità delle persone che lo compongono. D’altra  parte, il  gruppo di cui ci si fida  «automaticamente» può essere una forzatura veicolata da comportamenti gregari e non rispondente a una realtà fattuale al di là dei social media, come accade per il gruppo dei follower di un certo marchio o persona famosa.

Possiamo grossolanamente distinguere bias e pregiudizi ricordando che mentre un bias può avere una valenza positiva,  appunto  perché  l’euristica  su  cui  si  basa  può giocare  un  ruolo  positivo  nell’effettuare  una  decisione  in maniera rapida, un pregiudizio è associato a un errore di valutazione  e  quindi  ha  una  valenza  negativa  (si  veda  il saggio  introduttivo  di  Daniel  Kahneman, Pensieri  lenti  e veloci, Mondadori, 2012).

Correggere i bias delle IA?

Si  dice  che  anche  le  IA  sono  affette  da bias.  A  mio parere si tratta di una strategia retorica per stornare l’attenzione  dal  fatto,  banale  ma  poco  riconosciuto,  che  un sistema  automatico  non  può  predire  il  futuro  di  singole persone o gruppi. Tuttavia, dal momento che questo diversivo ha acquisito ampia visibilità, è opportuno metterlo in discussione.  Quando  un  algoritmo  di  IA  produce  risultati sistematicamente erronei a causa di presupposti errati nel processo  di  apprendimento  automatico,  si  parla  di bias anche  nel  caso  degli  algoritmi,  cioè  delle  procedure  su cui si basano le IA. Una simile definizione, che si ritrova ripetuta in moltissime fonti online più o meno scientifiche, lascia  spazio  a  molti  dubbi.  Cosa  significa  esattamente errore, nel caso dell’apprendimento automatico?

I bias cognitivi  non  sono  errori  di  per  sé,  anche  se possono  condurre  a  valutazioni  erronee.  Inoltre,  i  presupposti  dei bias cognitivi  non  sono  errati  di  per  sé,  per quanto possano essere sfruttati per ingannare un essere umano  e  manipolarne  opinioni  e  decisioni.  Si  tratta  del meccanismo all’opera in moltissime frodi online: l’esempio  più  semplice  è  quello  delle  comunicazioni  fraudolente  che  sembrano  provenire  da  una  fonte  fidata  (quindi da  qualcuno  che  fa  parte  del  gruppo  sociale  percepito: un  amico,  ad  esempio)  e  invece  sono  contraffazioni  che mirano  a  carpire  password,  account  e  così  via.  Eppure, è  del  tutto  ragionevole  tendere  a  fidarsi  dei  propri  amici e,  più  in  generale,  è  fondamentale  intessere  relazioni  di fiducia, perché non sarà certo delegando la fiducia a una sedicente  tecnologia  super  partes  che  gli  esseri  umani «risolveranno»  le  dinamiche  relazionali.  Le  relazioni  non sono problemi da risolvere seguendo una procedura algoritmica, ma opportunità da vivere.

Ad  ogni  modo,  la  letteratura  sulle  metodologie  di  «debiasing delle IA» e di «debiasing algoritmico» in particolare è  ormai  enorme.  La  questione  potrebbe  sembrare  di  interesse specialistico, e invece tocca le esperienze più comuni di interazione con il digitale di massa, o potrebbe toccarle a breve.

In  realtà  la  storia  di  quelli  che sono  rubricati  come  pregiudizi  razzisti, sessisti, abilisti degli algoritmi ha già  quasi  un  decennio.  Nel  2015,  il servizio Google Photos categorizzava automaticamente  enormi  quantità  di immagini  grazie  a  un  sistema  di  ML (Machine   Learning,   cioè   apprendimento automatico). Un utente ritrovò foto sue e dei suoi familiari etichettate come «gorilla»; lo stesso accadde a immagini di altre persone di colore. Incalzato  da  attivisti  e  ricercatori,  il colosso  di  Mountain  View  è  corso  ai  ripari  bandendo  le foto dei gorilla, per poi riuscire, oltre tre anni più tardi, a sistemare in qualche modo l’errore. Ma non c’è limite al peggio.  Sistemi  di  riconoscimento  facciale  basati  su  ML si  sono  dimostrati  molto  poco  affidabili  nell’identificare persone  di  colore.  Soluzioni  di predictive  policing  si  sono dimostrate inclini a ritenere più propensi a delinquere maschi  di  colore,  e  così  via  discriminando,  producendo  una mescolanza bigotta di politiche reazionarie (si veda Robert E. Smith, Rage Inside the Machine, Bloomsbury, 2019).

Di  fatto,  i  sistemi  automatici  di  apprendimento  tendono  a  funzionare  come  oracoli,  perché  favoriscono  decisioni  nei  termini  di  profezie  che  si  autorealizzano  (cfr. Sun-ha  Hong, Predictions  without  futures:  bit.ly/Hong). Le  narrazioni  messe  in  campo  per  giustificare  la  messa in  commercio  di  sistemi  non  funzionanti  e  anzi  pericolo-si  sono  varie,  dal  principio  di  inevitabilità  tecnologica,  al soluzionismo (per una panoramica con fonti di approfondimento  si  veda  Daniela  Tafani, Sistemi  fuori  controllo  o prodotti fuorilegge? La cosiddetta «intelligenza artificiale» e il risveglio del diritto: bit.ly/dirittoIA).

Nutrire  le  IA  con  dati  presi  online  in  maniera  acritica conduce inevitabilmente a produrre caratteristiche problematiche. Infatti i modelli risultanti tendono a categorizzare in maniera dispregiativa donne, generi non binari, persone non bianche, persone affette da disabilità e così via, cioè sono  pesantemente  influenzati  dalla  visione  dominante, una visione del mondo bianca, maschilista e patriarcale.

Una componente fondamentale sono gli enormi insiemi  di  dati  basati  sull’estrazione  dal  web.  Il  web  è  composto  da  miliardi  di  pagine.  Ridotte  a  informazioni  elementari  (token),  vengono  utilizzate  per  fornire  una  base ai sistemi di ML. Ad esempio, il LLM noto come GPT-3 è basato per il 60% su dati provenienti da Common Crawl, che raccoglie miliardi di pagine web, anche  protette  da  copyright,  e  certamente  anche  pagine  che  esprimono  posizioni  sessiste,  razziste,  ecc. perciò sistemi allenati su questi dati sono  logicamente  inclini  a  fornire una visione concorde con il pensiero egemonico   e   dominante,   discriminando le minoranze.

Attenzione:  questo  li  rende  problematici  nel  senso  di  non  adeguati dal  punto  di  vista  dell’ideologia  liberale che le finanzia, che ama presentarsi  come  progressista,  inclusiva  e aperta,  almeno  in  Occidente;  ma  è importante  notare  che  sarebbero  adeguate  dal  punto  di vista  di  un’ideologia  esplicitamente  razzista,  o  che  promuove  l’eugenetica.  La  situazione  è  grave,  ma  potrebbe rapidamente peggiorare a favore di involuzioni autoritarie.

L’idea  del debiasing delle  IA,  e  del debiasing algoritmico in particolare, si basa sul presupposto che gli errori possano  essere  individuati  e  corretti,  a  tutti  i  livelli:  nei dati di partenza per l’allenamento, nelle associazioni, negli effetti imprevisti. Una correzione «semplice» potrebbe essere  la  seguente:  SE  il  sistema  associa  più  facilmente «casalinga» a «donna», e «calciatore» a «uomo», ALLORA possiamo  intervenire  bilanciando  i  pesi  che  conducono l’algoritmo a effettuare quelle associazioni.

Anche se questo approccio produce risultati concreti, a  mio  parere  si  fonda  su  un  malinteso  di  fondo.  Ripetiamolo: un bias cognitivo non è un errore, è un’inclinazione che va compresa e tenuta in considerazione affinché non venga sfruttata per fomentare pregiudizi e nutrire convinzioni nocive come il sessismo e il razzismo. Ciò significa che  sessismo,  razzismo,  abilismo,  maschilismo,  ma  anche terrapiattismo e complottismo, non sono bias cognitivi e nemmeno sono errori da un punto di vista cognitivo: sono  concezioni  e  visioni del  mondo,  elementi  costitutivi di ideologie politiche, portatori di modelli organizzativi psicologici e sociali.

Allo stesso modo, se un sistema basato su IA genera risultati rubricati come razzisti, sessisti, in qualche modo scorretti,  ciò  non  significa  che  sia  sufficiente  correggere gli  errori  presenti  nei  dati,  nelle  associazioni  fra  i  dati, nelle annotazioni dei revisori che etichettano tali associazioni  e  così  via.  In  maniera  analoga,  una  persona  che esprime  convinzioni  razziste  o  sessiste  non  è  detto  che possa  essere  «corretta»  spiegando  il  presunto  errore  di valutazione:  per  quella  persona  non  è  affatto  un  errore, corrisponde  a  un  dato  di  fatto  che  giustifica  e  corrobora la sua visione del mondo. L’educazione al riconoscimento delle reciproche libertà nell’uguaglianza, al mutuo appoggio,  alla  democrazia  non  dipendono  dalla  corretta  categorizzazione dei dati, ma dall’applicazione di convinzioni profonde, anche di carattere ideologico.

Ritenere  che  gli  esseri  umani  sono  tutti  uguali,  e ugualmente  liberi,  è  una  convinzione  fondata  su  presupposti  ideologici,  non  su  dati  di  fatto  scientificamente  dimostrabili.

Assumere  una  posizione  di  relativismo  radicale  (non assoluto, che sarebbe una contraddizione in termini) non è  una  sconfitta,  al  contrario  (cfr.  Tomás  Ibáñez, Il  libero pensiero.  Elogio  del  relativismo,  Elèuthera,  2007).  Le  libertà  non  sono  mai  conquiste  definitive,  né  possono  derivare  dall’applicazione  di  metodologie  automatiche,  ma sono  frutto  di  scelte  consapevoli  da  confermare  giorno per giorno, sulla base di convinzioni non computabili, non dimostrabili.  Le  macchine,  i  sistemi  di  calcolo  automatizzati  e  anche  quelle  che  vengono  chiamate  nel  marketing tecnologico attuale «IA» possono aiutare gli umani a co-evolvere  in  un  mondo  più  giusto  e  più  equo,  ma  non perché prive di inclinazioni, bensì perché possono essere programmate per prendersi cura delle vulnerabilità umane, aiutare gli umani a essere meno arroganti, più gentili, meno sciatti, più compassionevoli.

Cambiare il paradigma

Che tipo di società vogliamo promuovere? Quali forme di partecipazione alla coabitazione sul pianeta Terra che è l’orizzonte comune? Senz’altro i contenuti e i metodi con cui le cosiddette IA sono state concepite finora risentono fortemente  del  paradigma  archico  (da archè,  “cominciamento”  e  comando  in  greco:  cfr.  Catherine  Malabou, Al ladro!,  Elèuthera,  2023),  che  presuppone  l’inevitabilità del comando, del governo, del cominciamento. Si presuppone  che  le  IA,  come  gli  esseri  umani,  debbano  essere  comandate,  ovvero  debbano  obbedire  a  degli  ordini. Debbano  essere  governate,  ovvero  debbano  accettare  di essere irreggimentate, condotte, guidate. Debbano essere sottoposte a coloro che vengono prima, che le hanno costruite: i padroni umani.

Non  sto  plaudendo  a  una  fantascientifica  liberazione delle  IA,  che,  ricordiamo  ancora  una  volta,  al  momento non sono né intelligenti né esclusivamente artificiali. Vorrei invece portare l’attenzione sul fatto che anche questa dispendiosa, inquinante, sciocca corsa alle IA non mette minimamente in discussione tale paradigma, anzi, lo assume in maniera talmente surrettizia che è difficile accorgersene, presi come siamo a cercare di controllare queste tecnologie.  Una  volta  di  più,  chi  controllerà  i  controllori? Non è necessario assumere posizioni socialiste per comprendere che tecnologie enormemente potenti nelle mani di pochi  padroni,  in  un  mondo  sempre  più  fortemente squilibrato  nel  senso  del  dominio,  della  rapina  indiscriminata  di  risorse  naturali  e  umane,  dello  sfruttamento  e dell’oppressione  diffusa,  faranno  gli  interessi  di  quei  padroni, ne saranno i fedeli servi.

Non  è  certo  «colpa»  delle  IA.  Tuttavia,  invece  di  ri-programmare e ri-condizionare le macchine perché risolvano problemi come il razzismo, il sessismo e l’abilismo, è importante riconoscere che non si tratta di problemi da risolvere attraverso l’automazione, ma di questioni sociali, cioè di faccende relazionali. L’automazione è il livello più basso di interazione possibile con gli esseri tecnici. Ma è possibile  maturare  nuovi  tipi  di  relazione  non  solo  automatici, bensì frutto di scelte consapevoli e condivise, motivati  dalla  gioia  e  dal  divertimento  di  fare  cose  insieme. Per questo c’è bisogno di meno finanza e di più politica, nel  senso  di  capacità  di  immaginare  un  mondo  comune equo. Serve maggiore riflessione filosofica (non di quella finanziata  dai  padroni  che  vogliono  giustificare  lo  status quo),  perché  le  IA  che  ormai  popolano  il  nostro  mondo non sono banali utensili, ma artefatti complessi.

Ci vuole educazione per vivere insieme alle macchine, per imparare a selezionare i sistemi tecnici con cui vogliamo  coabitare,  con  cui  ci  troviamo  a  nostro  agio,  capaci di provocare emozioni da coltivare, che non sono servi al nostro servizio, ma compagni di viaggio.

A  questo  mirano  le  attività  di  pedagogia  hacker,  per sviluppare tecnologie conviviali.