Immagine in evidenza: Boston University
Alle porte di Zurigo, quattro piani sotto una pesante struttura in cemento armato costruita a metà anni Novanta da Zürich Insurance e capace di resistere a un EMP (un impulso elettromagnetico) causato da un’esplosione termonucleare, il product manager dell’azienda svizzera Green, Hanspeter Gehrig, ci mostra il primo dei due livelli sotterranei del centro di calcolo.
In 3.200 metri quadri in totale si trovano circa mille armadi, ciascuno con un massimo di 48 unità e un consumo di 6 Kilowatt-ora. L’impianto di massima sicurezza, controllato 24 ore al giorno, con accesso limitato e connessioni ridondanti, impiega tre differenti sistemi di alimentazione e ha un consumo energetico di 25 megawatt che diventeranno circa 100 in due anni.
“Questo – dice Gehrig – è uno dei primi datacenter non solo alimentati ad energie rinnovabili ma anche capace di riutilizzare il calore”. Gli scambiatori che raffreddano i server trasportano aria calda nei quartieri vicini e fanno da teleriscaldamento per 3.500 appartamenti e centinaia di uffici.
“La Svizzera – spiega Gehrig durante la nostra visita al centro di calcolo di Green, rebranding dell’azienda nata negli anni Novanta come agri.ch, all’epoca di proprietà dell’Unione svizzera degli agricoltori – è il secondo Paese in Europa per densità di centri di calcolo dopo l’Irlanda, con un consumo elettrico del comparto pari al 3,6 per cento del totale nazionale. La media europea è di poco superiore al 2 per cento. C’è un margine complessivo di miglioramento enorme: una riduzione dei consumi sino al 46 per cento per i centri di calcolo non ottimizzati”.
La crescita del volume di dati trattati e della potenza di calcolo necessaria per le aziende è diventata esponenziale in tutto il mondo. Nel centro di calcolo di Zurigo (uno dei sei di proprietà di Green più altri tre che sono in corso di costruzione per un investimento di mezzo miliardi di franchi svizzeri) hanno sede sia i servizi cloud per 400 grandi aziende e centomila clienti più piccoli, sia le strutture di calcolo ad alte prestazioni (HPC o High Performance Computing) usate per simulazioni di ricerca e sviluppo di prototipi aziendali, addestramento di sistemi di machine learning ed intelligenza artificiale e altri tipi di sperimentazioni, incluse quelle per la simulazione di qubit di computer quantistici.
La struttura architettonica di Zurigo-Centro (progettata dall’architetto svizzero Theo Hotz) è imponente, con quattro grandi coni di dissipazione del calore nel retro e un impianto raffreddamento sul tetto del palazzo in cemento armato e tre enormi motori Mercedes MTU da 16 cilindri l’uno nei sotterranei, pronti a intervenire in meno di 40 secondi in caso di interruzione di tutte le altre fonti di energia. Ma è solo uno delle migliaia di impianti analoghi presenti in Europa e delle decine di migliaia presenti in tutto il mondo.
Il ruolo dei centri di calcolo ibridi e privati
A differenza dei centri di calcolo dedicati ai grandi supercomputer ad alte prestazioni, usati da governi e centri universitari per ricerca scientifica e simulazioni meteorologiche, classificati dall’ente internazionale top500org che registra i più potenti supercomputer per HPC (l’Italia è presente nella classifica con 7 sistemi, Stati Uniti e Cina guidano con 150 e 134 sistemi), la maggior parte dei centri di calcolo privati in Europa e nel resto del mondo contiene un mix di server usati dalle diverse aziende ospitate per scopi diversi. Una parte viene utilizzata per gestire servizi di networking, di archiviazione e gestione di dati, e per l’erogazione dei servizi cloud. Un’altra parte invece è dedicata ai servizi di calcolo ad alte prestazioni.
È impossibile una stima di quanti siano in effetti i server dedicati a uno scopo piuttosto che all’altro, vista anche la quantità degli impianti. I grandi centri di calcolo “ibridi” sono 81 in Svizzera, 88 in Italia e 1.349 solo in Europa occidentale.
IA, simulazioni scientifiche e quantum computing
Nell’ultimo anno non c’è stata solo una crescita molto rapida della ricerca applicata e dei prodotti legati al machine learning, uno dei settori dell’intelligenza artificiale diventati estremamente popolari dopo il lancio di ChatGPT. Anche la ricerca nel settore del quantum computing sembra aver accelerato in maniera significativa.
Il quantum computing (QC), o calcolo quantistico, è una nuova tecnologia che sfrutta le leggi della meccanica quantistica per risolvere problemi troppo complessi per i computer classici, che sono basati su bit a due stati (1, 0). Invece, i QC sono basati su bit quantistici, o qubit, che possono esistere in più stati contemporaneamente; un fenomeno conosciuto come “entanglement” o “sovrapposizione” in italiano.
Quando un problema è troppo complesso per essere risolto in tempi ragionevoli da un supercomputer classico (o anche solo essere risolto), in teoria è possibile che possa venir risolto da un computer quantistico. Tuttavia, il calcolo quantistico è ancora agli esordi, lo studio degli algoritmi e l’implementazione delle macchine è ancora sperimentale e per questo è spesso necessario fare ricorso a supercomputer classici per simulare il calcolo di un computer quantistico oppure per semplificare il lavoro dei primi prototipi di QC, risolvendo più facilmente (anche se in termini molto onerosi dal punto di vista della computazione classica) parte dei calcoli di un problema.
E, insieme al settore della ricerca sul quantum computing, ha accelerato anche la corsa alla realizzazione dei grandi sistemi di calcolo dedicati che giocano un ruolo chiave nelle simulazioni scientifiche. Un settore da 351,5 miliardi di dollari nel 2030 con un impatto ambientale enorme, superiore a quello del trasporto aereo civile.
Uno stesso “ecosistema digitale” e una “risorsa strategica”
La spinta maggiore alla crescita dei sistemi HPC deriva dalle simulazioni scientifiche, dall’addestramento dei sistemi di intelligenza artificiale, dalla ricerca in campo biomedico (soprattutto genomica) e da altri settori simili. In parte, però, deriva anche dallo sviluppo del quantum computing, che continua ad attrarre finanziamenti statali ed super-nazionali consistenti. In generale, il rapporto tra HPC e le altre tecnologie digitali (dal cloud all’intelligenza artificiale ai big data fino al quantum computing) viene visto come “singole componenti diverse dello stesso ecosistema digitale” con interazioni che rendono possibile il progresso scientifico e tecnologico, come scrive Antonio Perrucci nell’introduzione al volume “Il calcolo ad alte prestazioni” che raccoglie gli atti del convegno organizzato dall’associazione Astrid a Bologna e che considera le infrastrutture di HPC italiane una “risorsa strategica” grazie soprattutto “agli investimenti fatti a partire dagli anni ’60”.
I finanziamenti all’HPC e al quantum
Oggi, accanto all’HPC, i finanziamenti a progetti di quantum computing a livello mondiale sono in continuo aumento, con un giro d’affari di finanziamenti pubblici che nel 2021 era stimato attorno ai 25 miliardi di dollari.
In Italia, per esempio, sfruttando i fondi del PNRR, il Piano Nazionale di Ripresa e Resilienza, alla fine del 2022 il Garr (il consorzio italiana a banda ultralarga dedicato alla comunità dell’istruzione, della ricerca e della cultura) ha avviato lo sviluppo a Bologna del Centro Nazionale HPC, Big Data e Quantum Computing con un finanziamento di 320 milioni di euro. Era stato annunciato a metà luglio dell’anno scorso come uno dei cinque Centri Nazionali previsti dal PNRR nel tecnopolo di Bologna, in quella che è diventata la cittadella italiana del supercalcolo, accanto al supercalcolatore Leonardo gestito da CINECA, e il Centro di Calcolo dell’Infn, l’Istituto nazionale di fisica nucleare. I finanziamenti sono della regione Emilia Romagna, del governo e dell’Unione europea.
Le iniziative europee sono numerose. Ad esempio, la EuroHPC JU, un’iniziativa congiunta tra l’Ue, Paesi europei e partner privati per sviluppare un ecosistema di supercalcolo di livello mondiale in Europa.
L’uso di sistemi HPC per simulare computer quantistici
L’obiettivo è non solo lo sviluppo del quantum computing ma anche il suo sviluppo tramite sistemi di calcolo ad alte prestazioni. Il rapporto tra questi ultimi supercomputer e i computer quantistici è molto stretto, perché molto spesso i sistemi HPC vengono utilizzati per simulare il comportamento dei computer quantistici. È uno dei settori più promettenti della ricerca, sulla carta, e riceve consistenti finanziamenti pubblici.
I computer quantistici utilizzano un approccio completamente diverso rispetto ai computer tradizionali (che gli scienziati chiamano “computer classici”) e sfruttano le proprietà della meccanica quantistica per svolgere l’attività del calcolo in maniera molto più rapida. Il quantum computing promette di offrire una accelerazione sostanziale rispetto alla sua controparte classica ma solo per alcuni tipi di problemi.
Tuttavia, il più grande ostacolo alla realizzazione del potenziale dei computer quantistici è il “rumore” intrinseco a questi sistemi: per processare le informazioni i computer quantistici utilizzano un tipo particolare di bit (chiamati “qubits”) il cui stato fisico è estremamente difficile da registrare e prono a errori di lettura. I sistemi di correzione degli errori, che non permettono di distinguere il risultato delle operazioni svolte, sono stati finora molto difficili da implementare e hanno creato una delle principali limitazioni alla realizzazione dei computer quantistici. Tanto che i ricercatori, oltre a sviluppare approcci diversi alla realizzazione degli elaboratori di questo tipo, hanno anche fatto ricorso alla simulazione del calcolo su computer classici ad alta performance (i sistemi HPC, High Performance Computing) o a sistemi ibridi in cui il computer quantistico è progettato per eseguire solo alcune delle operazioni dopo che i dati vengono processati preliminarmente da un computer tradizionale.
Le ultime ricerche e l’obiettivo della supremazia quantistica
Tuttavia, nelle ultime settimane i ricercatori di Ibm hanno pubblicato un articolo sulla rivista Nature in cui sostengono che i computer quantistici potranno superare quelli tradizionali “in due anni” basandosi su una serie di test svolti con Eagle, uno dei computer quantistici sviluppati dall’azienda. Questo indicherebbe la possibilità, dopo un periodo di intensa ricerca, di raggiungere quella che viene definita la vera “quantum supremacy” o “quantum advantage”, cioè la capacità di un computer quantistico di eseguire un tipo di computazione che è impossibile per un computer tradizionale, almeno in un arco di tempo ragionevole.
L’azienda ha realizzato anche un nuovo processore quantistico da 127 Qubit, detiene il record con un sistema che utilizza 433 qubits e progetta di costruirne uno da 100mila qubits entro dieci anni. Secondo Ibm, questi sistemi lavoreranno a fianco dei supercomputer “classici” per ottimizzare la sintesi di nuovi farmaci, la produzione di fertilizzanti, l’ottimizzazione delle prestazioni delle batterie e in una serie di altre applicazioni. “Lo chiamo supercomputing quantistico”, ha detto in una intervista Jay Gambetta, vicepresidente di IBM per il settore quantistico, per disegnare una veste di marketing all’ibrido HPC-Quantum computer, che viene testato come possibile soluzione commerciale da aziende nel settore finanziario, farmaceutico e automobilistico come Visa, JPMorgan Chase, Roche e Volkswagen, secondo il Wall Street Journal.
La società di consulenza McKinsey aveva precedentemente stimato che la supremazia quantistica avrebbe potuto essere raggiunta entro il 2030, soprattutto grazie agli sforzi di sviluppo di soluzioni di quantum computing nel cloud, portati avanti da aziende come Alibaba, Amazon, Google, Intel, Honeywell, Microsoft e la stessa Ibm, oltre ad alcune decine di piccole startup (come la canadese Xanadu Quantum Technologies e le americane PsiQuantum e IonQ) finanziate come spin-off universitari o di centri di ricerca pubblici.
Sempre in queste settimane Microsoft ha affermato di aver trovato un nuovo tipo di particella che permette di migliorare la prestazione dei computer quantistici in maniera radicale. La scoperta, per quanto accolta con parziale scetticismo dalla comunità dei ricercatori, rappresenta solo uno degli avanzamenti tecnici che sono stati registrati negli ultimi mesi. Intanto anche Intel ha presentato il suo primo chip quantistico, Tunnel Falls, con 12 Qubit, con un ritardo notevole rispetto alle altre aziende del settore ma dimostrando di voler partecipare a quello che ritiene essere un mercato strategico.
Le critiche all’uso dei grandi centri di calcolo
Tuttavia, il principale problema, rispetto agli investimenti e allo sviluppo dei grandi centri di calcolo di HPC e al loro impatto ambientale, è la valutazione se effettivamente questi siano necessari per lo sviluppo dei sistemi di quantum computing. Mentre per molti ricercatori i centri di supercalcolo sono utili per eseguire alcuni tipi di simulazione di qubit o calcoli complementari al lavoro dei computer quantistici, costruire un numero crescente di grandi centri di calcolo dedicati non è sempre sempre necessario: alcune parti della ricerca possono essere portate avanti senza bisogno di sfruttare le piattaforme cloud e i sistemi HPC, altamente inquinanti. Come spiega a Guerre di Rete Alessandro Luongo, ricercatore presso il Centre for Quantum Technologies di Singapore, “in alcuni casi è possibile ottenere risultati scientificamente rilevanti senza ricorrere ad uso di HPC, che però rimane necessario per simulazioni di sistemi quantistici molto complessi”.
La supremazia quantistica, secondo il World Economic Forum, è uno sviluppo auspicabile in quanto porterà alla creazione di una “quantum economy”. “Questo modo fondamentalmente nuovo di fare informatica – scrive Derek O’Halloran, responsabile delle strategie digitali per il World Economic Forum – non è solo un computer classico più potente, ma ha il potenziale per cambiare radicalmente la nostra capacità di affrontare i cambiamenti climatici, la fame e le malattie”. La panacea quantistica per tutti i mali presenta però anche i classici problemi di tutte le soluzioni radicalmente innovative: il desiderio di essere controllate dai governi dei più grandi paesi del mondo.
L’Europa punta sul quantum e la ricerca pubblica
In Europa la supremazia quantistica è perseguita principalmente dai centri di ricerca pubblici o finanziati con denaro pubblico mentre negli Usa agli investimenti pubblici si sono aggiunti anche quelli molto forti del settore privato. Nel resto del mondo è al centro degli obiettivi di sviluppo strategico soprattutto di Corea del Sud, Giappone, Taiwan, Singapore, Israele, India, Australia, Canada e Cina. Quest’ultima deve affrontare lo stesso problema degli europei, cioè una mancanza strutturale di risorse di calcolo rispetto a quelle presenti tra gli attori privati americani. Nonostante questo, la Cina vede gli investimenti di alcune aziende private (ad esempio, Alibaba e Baidu) e finanziamenti pubblici per almeno 15 miliardi di dollari, secondo il World Economic Forum, con una serie di investimenti che non sono stati resi pubblici. Sempre secondo questi dati, la seconda area geopolitica per finanziamenti alla ricerca sul quantum computing è l’Europa, con un totale di 7,2 miliardi di dollari stanziati, la maggior parte dei quali da parte di Germania (41,9%), Francia (28%) e Olanda (14%). I governi del Giappone e del Regno Unito spendono poco meno di Washington (rispettivamente 1,8 e 1,3 miliardi contro gli 1,9 miliardi del governo americano), ma Londra ha annunciato che sta progettando di quasi raddoppiare gli investimenti portandoli a 2,5 miliardi di sterline (3,18 miliardi di dollari).
Nonostante alcuni timori di sicurezza per lo sviluppo di computer quantistici da parte della Cina (con la possibilità di violare i sistemi di crittografia tradizionale, tanto che le agenzie federali americane dovranno utilizzare sistemi crittografici a prova di quantum computer entro il 2035) in realtà la maggior parte delle preoccupazioni americane sono di tipo commerciale e di vantaggi economici. Tanto che alla fine del 2022 l’amministrazione Biden ha espresso la preoccupazione che fosse necessario “proteggere il vantaggio sulla Cina” istituendo nuovi controlli sulle esportazioni verso Pechino di tecnologie chiave per lo sviluppo del quantum computing. I soldi per lo sviluppo dei sistemi quantistici però vengono dal settore privato, con Ibm e Google che stanno finanziando il lavoro delle università di Chicago e Tokyo.
La questione ambientale
Rimane irrisolto però il problema principale: l’enorme impatto ambientale dei centri di calcolo commerciali: attualmente nel mondo è pari a 17 Gigawatt-ora ma che crescerà fino a 35 Gigawatt nel 2030, mentre un datacenter per HPC consuma all’incirca la stessa energia di 80mila abitazioni. Nonostante i tentativi di renderli più “verdi”, come nel caso del castello di cemento armato da 25 Megawatt-ora alle porte di Zurigo di Green, è proprio necessario continuare a sviluppare una strategia ibrida HPC-Quantum computing oppure è solo una scusa per giustificare ulteriori investimenti speculativi in questo settore?