Skip to content Skip to footer

L’AI non è un Paese per pochi

Per anni, agli occhi del grande pubblico e dei media, il termine intelligenza artificiale (IA o all’inglese AI, Artificial Intelligence) ha avuto lo stesso fascino e la medesima concretezza dell’espressione Big Data. Un guscio utile per convegni e paper, con pochi effetti visibili sul quotidiano o la società. Poi nell’autunno 2022 sono arrivati ChatGPT, la corsa al lancio di prodotti basati su AI generativa, la possibilità di giocare o sperimentare con una miriade di strumenti – spuntati come funghi giorno dopo giorno – e la competizione fra le grandi aziende tech per rilanciare i propri servizi all’insegna di questa tecnologia.

È così iniziato un ciclo industriale e mediatico, fatto di annunci, investimenti, hype e dichiarazioni di ricercatori, che ha alzato una cortina fumogena su quel che è nuovo e quel che esiste da tempo; su quel che è rivoluzionario e quello che invece è reazionario; sui rischi effettivi e quelli presunti; su chi fa progredire il settore e chi è pronto a speculare; su chi trarrà vantaggio e chi verrà sfruttato.

Siccome le cortine fumogene non fanno mai bene all’informazione occorre ripartire dunque da alcuni elementi fondamentali. Quali sono le aziende in gioco e quale il ruolo di multinazionali consolidate come Microsoft, Google, Facebook? Quali elementi sono di novità e quali rischiano di essere gonfiati dalla grancassa che si è sviluppata attorno al settore? Che ruolo hanno la società civile, la politica, gli Stati di fronte a un panorama fatto di aziende private, concentrazione geografica, nonché di ricercatori in netto contrasto fra di loro sulla capacità, l’impatto e i rischi conseguenti a questa rivoluzione, sempre che si possa definire in tal modo?

Procediamo con ordine e partiamo dall’aspetto materiale. Facendo prima una premessa: studiosi di diversa natura riconoscono come il termine AI sia vago e ambiguo fin dalla sua nascita. Alcuni di questi, come Yarden Katz, professore al Department of American Culture and Digital Studies Institute della University of Michigan, ritengono addirittura questa vaghezza e ambiguità funzionali a un uso ideologico di tale tecnologia. Ovvero, la nebulosità del concetto permette di reinterpretarlo continuamente sulla base di determinati interessi (che si tratti di aziende che promettano nuovi mercati agli investitori, di Stati che vogliano rafforzare la sorveglianza o di apparati militari che cerchino di legittimare armi “intelligenti”).

Ciò premesso, le basi di questa tecnologia (estremamente materiale, radicata nello sfruttamento di risorse, energia, dati e forza lavoro umana come sviscerato più volte da Kate Crawford, professoressa, ricercatrice e autrice del libro Atlas of AI) sono al momento concentrate in un manipolo di grandi aziende, Stati e aree geografiche.

Fino al 2014, la maggior parte dei più importanti modelli di machine learning (apprendimento automatico) sono stati rilasciati dal mondo accademico. Ma da allora, secondo il report AI Index della Stanford University, l’industria ha preso il sopravvento. Perché “la costruzione di sistemi di AI all’avanguardia richiede sempre più spesso grandi quantità di dati, calcoli e soldi, risorse che gli operatori del settore possiedono intrinsecamente in quantità maggiore rispetto alle organizzazioni non profit e al mondo accademico”.

Per l’Institute for Human-Centered Artificial Intelligence dell’università americana l’AI è “sempre più definita dalle azioni di un piccolo gruppo di soggetti del settore privato, invece che da una più ampia gamma di rappresentanti della società”.

Negli stessi Stati Uniti, la maggior parte degli investimenti sono concentrati attorno ad alcuni hub e centri specifici. Nel 2021, secondo un report dell’istituto Brookings, le città di San Francisco e San Jose, in California, esprimevano da sole circa un quarto degli articoli di conferenze, dei brevetti e delle aziende di AI a livello nazionale.

Certo, molte speranze sono riposte nei modelli aperti, open source, di AI. Fondamentali anche per garantire processi trasparenti, un fattore che a cascata ha ricadute in molti ambiti diversi. Ma, come evidenzia il rapporto di Stanford, se è vero che l’open source e la concessione di licenze diffuse di modelli linguistici di grandi dimensioni possono decentralizzare l’industria, nello stesso tempo bisogna ricordare che l’ampia distribuzione di una tecnologia digitale non implica automaticamente un’equa distribuzione dell’innovazione, della creazione di posti di lavoro e della leadership esecutiva. Insomma, nulla per ora può darsi per scontato, se non che partiamo da una polarizzazione di potere in alcune aziende e accademie.

Ma non si tratta solo di ricerca e di industria, questo accentramento riguarda anche il dibattito ideologico e politico sull’AI. Nel corso degli ultimi mesi, i media hanno dato grande spazio ai sostenitori dell’esistenza di un rischio esistenziale per l’umanità derivante da una AI superintelligente che possa superarci e addirittura sfuggire al nostro controllo (va detto che questo scenario è sempre presentato in modo estremamente vago e non è affatto chiaro come ciò possa davvero avvenire).

Il Center for AI Safety parla addirittura di un rischio estinzione derivante dalla AI, per cui il rafforzamento della governance di questa tecnologia dovrebbe essere una priorità globale al pari della prevenzione delle pandemie e delle guerre nucleari. Uno scenario rafforzato dalle dichiarazioni di ricercatori che hanno fatto la storia del deep learning, come Geoffrey Hinton e Yoshua Bengio, oltre che del CEO di OpenAI Sam Altman (ne avevo scritto in vari numeri della newsletter Guerre di Rete).

Ma come scrivono una serie di accademici e studiosi del settore, “concentrarsi sulla possibilità che una superintelligenza fuori controllo uccida la specie umana può essere dannoso di per sé. Potrebbe distrarre le autorità di regolamentazione, l’opinione pubblica e gli altri ricercatori di AI dal lavoro per mitigare rischi più urgenti, come la sorveglianza di massa, la disinformazione e la manipolazione, l’uso improprio dell’AI in campo militare e l’inadeguatezza del nostro attuale paradigma economico in un mondo in cui l’AI svolga un ruolo sempre più importante”.

Inoltre, la discussione esistenziale rischia di oscurare una serie di questioni spinose e attuali che riguardano lo sfruttamento, senza consenso o retribuzioni, di dati, contenuti e opere prodotte da umani per addestrare i modelli di AI (che poi producono contenuti e opere che rischiano di togliere ossigeno e lavoro a quegli stessi umani, come dimostrato dalle preoccupazioni, le cause legali e le proteste di artisti e autori).

O ancora, la perpetuazione e la legittimazione scientifica di bias, pregiudizi e ingiustizie strutturali sicuramente precedenti alla AI ma che la sua applicazione miope rischia di cristallizzare (pregiudizi e sperequazioni di potere che si abbattono addirittura sulle stesse ricercatrici di AI che per prime ne hanno scritto, anche quando si parla di normazione ed etica del settore).

O l’impatto sul mondo del lavoro, dove per alcuni lo scenario, più che di robot ultraintelligenti che sostituiscano in tutto gli umani, è quello di un’amplificazione del lavoro precario e parcellizzato. Così come di una turbo-burocrazia che potrebbe rendere ancora più iniqua l’attuale distribuzione di risorse e potere (pensiamo agli scandali che hanno riguardato sistemi algoritmici per regolare la gestione di welfare e benefit dentro la stessa Europa).

Si parla anche di come l’AI ambisca, fin dai suoi esordi e ancor più nell’attuale dibattito sulla superintelligenza, a una ridefinizione non tanto delle macchine, ma dell’umano.

Ne hanno scritto e parlato in tanti, più o meno direttamente, da Erik J. Larson (in The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do), alla professoressa di linguistica e direttrice del laboratorio di linguistica computazionale dell’università di Washington Emily Bender (in più luoghi, come qua) ma anche il professore del MIT Joseph Weizenbaum, l’inventore negli anni ‘60 del primo chatbot ELIZA, di cui parliamo anche in questo speciale. Eppure, ammoniva quest’ultimo nel suo libro Computer Power and Human Reason: From Judgement to Calculation, “c’è una differenza tra l’essere umano e la macchina e ci sono certi compiti che non si dovrebbe far fare ai computer, indipendentemente dal fatto che possano essere eseguiti dai computer”. Questione densa, che meriterebbe uno speciale a parte, e lascio qui solo come spunto di riflessione.

“Qualunque cosa sia l’AI, non è neutrale, e nemmeno noi possiamo esserlo”, scrive Dan McQuillan nel libro Resisting AI, forse il più critico e radicale di tutti, ma non c’è bisogno di sposarne interamente la visione per cogliere una buona parte della sua brillante analisi. “L’AI è politica perché agisce nel mondo attraverso dinamiche che influenzano la distribuzione del potere, e le sue tendenze politiche si rivelano nel modo in cui stabilisce confini e separazioni”.

Negli ultimi mesi il parallelismo tra la ricerca sull’AI e quella sul nucleare è stato fatto più volte da molteplici soggetti. Non importa, in questa sede, che si tratti di un paragone corretto o meno (personalmente ritengo che ci siano più diversità che somiglianze e il solo fatto di avanzare questo parallelismo tende a legittimare la visione dei rischio-esistenzialisti), perché una riflessione in questo senso può comunque avere una sua utilità. Tra tutti i libri o i film citati, quello che a mio avviso andrebbe riletto è quel saggio storico fenomenale di Robert Jungk, tradotto in italiano con il titolo Gli apprendisti stregoni. Storia degli scienziati atomici (Einaudi 1958), dove vengono esplorati i rapporti fra i fisici nucleari, la società e la politica.

“Quasi in ogni epoca c’è un campo del pensiero e dell’attività umana che attira con forza particolare gli spiriti dotati”, scrive Jungk, “così in certe epoche gli spiriti inquieti, tutti protesi al nuovo, sono portati particolarmente all’architettura; in altre alla pittura o alla musica, alla teologia o alla filosofia. Improvvisamente – e nessuno potrebbe dire come – i più aperti avvertono in che punto esattamente si è dischiusa una breccia, e si spingono là dove possono sperare di non restare semplici discepoli, ma di divenire anch’essi fondatori e maestri. Proprio una siffatta forza di attrazione ebbe la fisica atomica negli anni che seguirono alla Prima Guerra Mondiale”.

Vale oggi lo stesso per l’AI? Ci troviamo davvero di fronte a una breccia intellettuale? E se è così, davvero “viviamo su un’isola di fulmicotone… per accendere il quale, grazie a Dio, non abbiamo ancora trovato il fiammifero”, come scriveva nel 1921 il fisico tedesco Walter Nerst?

Se anche così mai fosse, dalla storia, come quella splendidamente raccontata da Jungk, un insegnamento possiamo trarlo: di fronte a una tecnologia davvero dirompente, non possiamo lasciare le decisioni né ai generali né ai soli scienziati. Politica, società civile, esperti di altre discipline e cittadini devono influenzare le scelte su come questa breccia trasformerà le loro vite.

“Ogni persona deve agire come se l’intero futuro del mondo dipendesse da lei”, scriveva ancora Weizenbaum, “qualsiasi cosa di meno è un restringimento della responsabilità e forza disumanizzante, perché qualsiasi cosa di meno incoraggia gli individui a vedersi come un mero attore in un dramma scritto da agenti anonimi, come meno di una persona, e ciò è l’inizio della passività e dell’assenza di scopo”.