Immagine in evidenza: Sam Altman da Village Global su Flickr – Creative Commons 2.0
Che cosa pensereste di una startup da cui se ne sono andati quasi tutti i principali dirigenti e cofondatori, che ha chiuso il 2024 con un rosso di 5 miliardi di dollari e che deve fare fronte a una marea di cause legali? La stessa startup i cui costi operativi hanno raggiunto cifre colossali non ha ancora dimostrato di avere un modello di business sostenibile e i cui progressi tecnologici stanno già dando segnali di rallentamento?
Probabilmente, pensereste che la startup in questione è una delle tante (circa due terzi, secondo la Harvard Business Review) che non riescono a ripagare gli investitori e chiudono bottega, nella maggior parte dei casi entro i cinque anni di vita. E avreste ragione a pensarla così, a meno che la startup in questione non sia OpenAI: la società che sviluppa ChatGPT, DALL-E e altri strumenti basati su intelligenza artificiale generativa.
La fiducia degli investitori
Pur se afflitta da tutti i problemi descritti in apertura, OpenAI continua infatti a godere di un’enorme fiducia, le sue prospettive future non vengono mai messe in discussione ed è stata perfino in grado di imporre le sue condizioni agli investitori, decidendo per esempio quali finanziamenti accettare, a partire da quale cifra e chiedendo che i partner non investissero nelle principali cinque società rivali (Anthropic, xAI, Superintelligence, Perplexity e Glean).
Nonostante questa – e altre – particolarità dell’ultimo round di finanziamento, OpenAI è riuscita lo scorso ottobre a raccogliere 6,6 miliardi di dollari da investitori come Thrive Capital, Nvidia, Microsoft, SoftBank e altri, per una valutazione da 157 miliardi di dollari. Partiamo proprio da questo aspetto: i finanziamenti. Per quanto i vari round in cui le startup riescono a raccogliere enormi quantità di denaro da investitori privati vengano solitamente celebrati – soprattutto a livello mediatico – come un segno delle loro enormi potenzialità, in alcuni casi è anche utile porsi una domanda: perché la startup in questione, ovvero OpenAI, ha bisogno di raccogliere una tale mole di denaro?
Già nel gennaio 2023, OpenAI aveva ricevuto 13 miliardi di dollari da parte di Microsoft: se si aggiungono i 6,6 miliardi di ottobre, il totale dei finanziamenti raccolti raggiunge quasi 20 miliardi in meno di due anni. Per mettere questi 20 miliardi in prospettiva, basta segnalare che un colosso a lungo in perdita come Amazon ha dovuto raccogliere, secondo i dati di Crunchbase, otto miliardi di dollari prima di raggiungere la profittabilità. Meno della metà.
Sono pochissime le startup che hanno invece raccolto cifre simili a quelle di OpenAI. Tra queste, spiccano nomi tutt’altro che incoraggianti: WeWork ha raccolto 22 miliardi di dollari prima di (sostanzialmente) fallire, mentre Uber ha dovuto spendere tutti i 25 miliardi raccolti in 28 round di finanziamenti per riuscire a conquistare, l’anno passato, i suoi primi guadagni.
In tutti i casi citati, inoltre, i tempi necessari per raccogliere cifre simili sono stati molto più lunghi: WeWork ci ha impiegato circa dieci anni, Uber otto anni e Amazon un tempo ancora più lungo (considerando che il primo round si è verificato nel 1995 e l’ultimo, anche se i dati sono contrastanti, dovrebbe essere avvenuto nel 2013).
Gli altissimi costi di OpenAI
Perché OpenAI ha avuto bisogno di raccogliere in 2 anni cifre che altrove sono state sufficienti per restare in piedi anche dieci o vent’anni? La ragione è tutta negli enormi costi sostenuti dalla società guidata da Sam Altman per sviluppare, addestrare e operare i Large Language Model (i vari GPT: Generative Pre-Trained Transformer) alla base di ChatGPT.
Secondo alcune stime, la gestione di ChatGPT costa 700mila dollari al giorno, mentre l’addestramento di GPT-4 ha richiesto 100 milioni di dollari: 20 volte più della versione precedente. A fare i conti in tasca a OpenAI in maniera dettagliata è stata la prestigiosa testata The Information, secondo cui, nel solo 2023, OpenAI ha dovuto fronteggiare spese pari a 9 miliardi di dollari.
Sostenere enormi costi di questo tipo non sarebbe un problema se i ricavi fossero sufficienti. Ma è proprio qui che giungono altre note dolenti: nel 2024, OpenAI dovrebbe incassare circa 4 miliardi di dollari (+150% rispetto al 2023). Significa che, in un solo anno, la società di Sam Altman ha bruciato circa 5 miliardi di dollari. Il che spiegherebbe la necessità di raccogliere in tempi così brevi ulteriori e miliardari finanziamenti.
Come ci ha però insegnato proprio Amazon (che solo dal 2015 ha iniziato a essere costantemente in attivo), essere in perdita – anche a lungo e di molto – non è un problema, se ciò può spianare la strada a futuri e immensi guadagni. Il problema è che, almeno per il momento, questa rotta verso la sostenibilità non si vede.
Prima di tutto, le spese per l’addestramento e la gestione dei Large Language Model continuano ad aumentare in maniera esponenziale, al punto che – secondo Dario Amodei, CEO di Anthropic (altra società di intelligenza artificiale dalle finanze traballanti) – a breve potrebbe essere necessario spendere 1 miliardo di dollari per l’addestramento di algoritmi di intelligenza artificiale generativa più grandi e potenti, con la prospettiva – sempre secondo Amodei – di arrivare all’impressionante costo di 100 miliardi di dollari entro la fine del decennio.
Un quadro complicato
Non è necessario che si avverino queste funeste previsioni per mettere in dubbio il modello di business dell’intelligenza artificiale generativa, che a fronte di immense spese – e immensi consumi energetici – non ha ancora dimostrato di poter offrire un rivoluzionario valore aggiunto, al punto che perfino una realtà come Goldman Sachs, solitamente molto ottimista sulle prospettive delle nuove tecnologie, ha iniziato a sollevare dubbi sulla sostenibilità economica di questi sistemi, intitolando il suo ultimo report sul tema: “AI generativa: troppi costi per troppi pochi benefici?”.
Per tutte queste ragioni, l’analista Ed Zitron, dopo aver indovinato sia le tempistiche sia le cifre del più recente round di finanziamenti, prevede adesso che OpenAI dovrà continuare a raccogliere enormi cifre di denaro per il tempo a venire, sperando prima o poi di generare ricavi tali da diventare economicamente sostenibile e poter ripagare gli investitori. A complicare ulteriormente il quadro c’è la causa intentata dal New York Times per violazione del copyright (visto che OpenAI ha usato migliaia di articoli per addestrare i vari GPT, che a loro volta hanno in più occasioni attinto massicciamente da essi per generare i loro contenuti). Una causa che potrebbe, in caso di vittoria del NYT, costare a OpenAI svariati miliardi di dollari.
Nulla di tutto ciò significa che OpenAI sia destinata alla bancarotta (anche se alcuni analisti lo temono esplicitamente) o che l’intelligenza artificiale generativa si rivelerà un flop dal punto di vista economico. Quel che invece è strano è che nessuno metta in discussione la situazione della società di Sam Altman, dal punto di vista finanziario e non solo (come vedremo): “C’è qualcosa che potrebbe anche solo leggermente rovinargli la festa?”, si è chiesto retoricamente Brian Merchant in un suo recente approfondimento su Blood in the Machine. “Oppure l’idea di OpenAI e di ciò che rappresenta è diventata troppo importante per un settore tecnologico che, fino al 2022, aveva sofferto una serie di flop e per un mondo degli affari che non vede l’ora di tagliare i costi, aumentare l’efficienza e restare all’avanguardia?”.
In poche parole, OpenAI è diventata too big to fail? Ci siamo aggrappati talmente tanto alla narrazione secondo cui l’intelligenza artificiale generativa (visto che quella predittiva ha enorme successo da oltre dieci anni) cambierà ancora una volta il mondo, che è diventato impossibile anche solo immaginare che la startup simbolo di questa auspicata rivoluzione possa deludere le aspettative?
L’allontanamento degli altri cofondatori e primi manager
Eppure, i segnali preoccupanti non si limitano a una situazione finanziaria da “o la va o la spacca”, ma riguardano anche le dinamiche interne. A parte Sam Altman, quasi nessun esponente del gruppo che ha portato OpenAI al successo fa ancora parte della squadra. Il co-fondatore e mente scientifica Ilya Sutskever (tra gli autori del paper che nel 2012 ha inaugurato la rivoluzione del deep learning) ha abbandonato dopo aver partecipato alla tentata rivolta del consiglio d’amministrazione contro Sam Altman del novembre 2023. Il volto più noto di OpenAI dopo Altman – la responsabile tecnologica Mira Murati – ha annunciato il suo addio nel settembre scorso assieme al responsabile della ricerca Bob McGrew, e parecchie altre figure di primo piano hanno abbandonato la nave (fa eccezione l’altro cofondatore Greg Brockman, che ha annunciato il suo ritorno come presidente dopo un periodo di pausa).
Da tutto ciò, il ruolo di Sam Altman è uscito enormemente rafforzato, al punto da aver annunciato in un memo interno che adesso si occuperà anche degli aspetti più tecnici e che gli sviluppatori di OpenAI risponderanno direttamente a lui. Ma perché una startup apparentemente di enorme successo ha subìto un tale esodo di talenti?
Un’interpretazione molto in voga, la stessa che è stata fornita dopo il già citato “colpo di stato” interno, è che Sutskever e gli altri esponenti della fazione più responsabile (nel senso di attenta ai potenziali rischi posti dall’intelligenza artificiale) fossero preoccupati dalla velocità con cui OpenAI si sta avvicinando a conquistare la superintelligenza artificiale e volessero imporre un rallentamento.
È una lettura che sicuramente fa piacere a Sam Altman, che si avvantaggia – a livello mediatico e finanziario – di tutto ciò che fa pensare a un imminente avvento della tanto chiacchierata AGI (artificial general intelligence, ovvero una AI in grado di competere con l’essere umano in una vasta gamma di ambiti cognitivi).
La competizione coi motori di ricerca
Probabilmente, però, è vero il contrario. E cioè che Sutskever & co. fossero preoccupati dalla spregiudicatezza con cui Altman si ostinava (e si ostina tuttora) a introdurre sul mercato dei prodotti che non sono all’altezza dei compiti richiesti. E che proprio per questo, non per la loro eccessiva potenza, rappresentano un pericolo. Un esempio di questa condotta potrebbe essere il neonato ChatGPT Search: il motore di ricerca – in realtà più una “macchina delle risposte” – in grado di offrire una risposta univoca alle nostre domande, grazie alla capacità di rielaborare il materiale presente in rete.
Un’innovazione potenzialmente cruciale (anche per motivi economici che vedremo tra pochissimo) e che conferisce un enorme potere alle aziende che riusciranno a perfezionare questo strumento, ma che per il momento rischia di fare più danni che altro, vista la propensione di questi sistemi alle “allucinazioni” (quando cioè un Large Language Model presenta come se fossero dei fatti delle affermazioni o ricostruzioni errate o completamente inventate) e la delicatezza dell’ambito informativo in cui ChatGPT Search vuole entrare sfondando la porta.
E allora perché tutta questa fretta di introdurre la versione generativa di un motore di ricerca? Probabilmente, ritornando alla questione economica, perché integrare con successo l’intelligenza artificiale generativa nei motori di ricerca potrebbe finalmente generare i ricavi di cui OpenAI ha assolutamente bisogno, permettendogli di entrare in un settore che già oggi vale qualcosa come 225 miliardi di dollari.
La legge di scala sta rallentando?
Se anche ChatGPT Search si rivelasse una soluzione ai problemi economici di OpenAI, ci sono altri problemi, questa volta di natura tecnologica, che stanno iniziando ad affacciarsi. Nel mondo dell’intelligenza artificiale generativa nulla suscita infatti più timore della possibilità che la cosiddetta “legge di scala” (scaling law) dell’intelligenza artificiale stia rallentando. La legge di scala fa riferimento alla previsione secondo cui gli LLM migliorano in maniera proporzionale all’aumentare delle dimensioni del modello, della quantità di dati che vengono dati in pasto al sistema in fase di addestramento e del potere computazionale di cui sono dotati.
Fino a questo momento, la legge di scala che regola il mondo dell’intelligenza artificiale generativa – un po’ come la legge di Moore regola quello dei chip – si è rivelata corretta: se la rete neurale alla base di GPT-3 aveva 175 miliardi di parametri, quella di GPT-4 si stima che ne abbia fino a dieci volte tanto (OpenAI non ha diffuso dati ufficiali). Anche i progressi tra i due modelli – almeno secondo le analisi di OpenAI – si sono rivelati essere proporzionali all’aumento delle dimensioni.
Adesso, però, il timore è che l’intelligenza artificiale generativa stia per entrare nell’era dei “ritorni decrescenti”, vale a dire che all’aumento esponenziale delle dimensioni dei modelli ne derivano soltanto progressi marginali. A lanciare l’allarme è stato anche un recentissimo paper pubblicato su Nature, secondo cui all’aumentare delle dimensioni dei modelli linguistici non necessariamente corrisponde una maggiore precisione o affidabilità. Se non bastasse, si teme che non ci siano abbastanza nuovi dati da dare in pasto a queste macchine (alcuni ritengono che potrebbero esaurirsi entro il 2028), senza che nel frattempo la frontiera dei “dati sintetici” – ovvero creati dai modelli linguistici stessi – abbia dato risultati soddisfacenti.
E poi c’è la questione del potere computazionale, che deve crescere a sufficienza da alimentare modelli sempre più grandi e in grado di macinare sempre più dati, ma che proprio per questo richiede una tale quantità di energia che lo stesso Sam Altman – come anche Google, Amazon e Microsoft – ritiene che non ci sia altra possibilità che affidarsi all’energia nucleare.
Come fare se, a fronte di tutto ciò, i nuovi modelli di intelligenza artificiale generativa non mantenessero le promesse? È una spinosa questione con cui proprio Altman sta iniziando a fare i conti. Come si legge su Business Insider, “il nuovo modello di intelligenza artificiale di OpenAI, Orion, non sta mostrando gli enormi progressi di cui hanno goduto le precedenti versioni. Alcuni impiegati di OpenAI che hanno testato Orion hanno spiegato che i suoi progressi sono solo moderati e inferiori rispetto a quelli che gli utenti hanno visto passando da GPT-3 a GPT-4”.
È possibile giustificare le colossali spese di OpenAI se i progressi dei suoi sistemi – che, al momento, vengono usati più che altro per creare bozze di testo di vario tipo, per aiutare i programmatori a scrivere codice e per fare concorrenza a motori di ricerca che hanno consumi enormemente inferiori (e sono anche più affidabili) – potrebbero già essere in fase di rallentamento? Che fine farebbero i sogni di Sam Altman se – e al momento è solo un sospetto – al posto di un’inarrestabile legge di scala che condurrà alla AGI ci fossero davvero dei ritorni decrescenti?
Il dibattito fra studiosi
D’altra parte, l’idea che il progresso della tecnologia debba necessariamente essere esponenziale è già stata smentita da più parti (si veda questo saggio di Luciano Floridi), evidenziando come invece potrebbe essere logaritmico (ovvero crescere rapidamente all’inizio per poi rallentare).
Eppure, è proprio su questo dogma di kurzweilliana memoria che OpenAI, e ancor di più i suoi investitori, hanno puntato tutto. E se invece, come sostiene per esempio lo scienziato informatico Gary Marcus, il deep learning (ovvero gli algoritmi alla base di tutto ciò che oggi definiamo intelligenza artificiale) da solo non fosse in grado di portarci alla AGI? Se la sua corsa stesse rallentando fino a trovarsi di fronte a un muro?
I timori dei ritorni decrescenti si sono diffusi a sufficienza da convincere Sam Altman a intervenire, anche se limitandosi a postare su X la sibillina frase “non c’è alcun muro”. Nel dibattito è intervenuto anche il già citato Dario Amodei – CEO di Anthropic e coautore, quando lavorava a OpenAI, del primo articolo sulla legge di scala – che intervistato da Lex Friedman ha affermato: “Non abbiamo altro che la nostra esperienza a dirci che i prossimi due anni saranno simili agli ultimi dieci. Ma ho visto questo film abbastanza volte da credere davvero che probabilmente la scalabilità continuerà. E che ci sia qualcosa di magico in essa, che non abbiamo ancora spiegato del tutto a livello teorico”.
Insomma, non sappiamo perché la legge di scala dovrebbe continuare a oltranza se non che in essa “c’è qualcosa di magico”. Ma possiamo davvero dare credito a queste previsioni (tra l’altro economicamente interessate)? Possiamo realmente affidarci alla magia, nel tentativo di prevedere quale direzione prenderà la tecnologia più importante del nostro secolo?