L’ANALISI DEI BIG DATA

Corsa al supercervellone Stati Uniti e Cina ai vertici, l’Europa all’inseguimento
Il nodo dei consumi energetici

Elena Comelli
MILANO

C’ERA UNA VOLTA Deep Blue, il cervellone che riuscì per la prima volta nella storia a battere un campione del mondo di scacchi, Garry Kasparov, nel ‘97. Vent’anni dopo il fuoriclasse di Ibm, con la sua capacità di valutare 200 milioni di posizioni al secondo, occupa un posto d’onore nel Computer History Museum di Mountain View, in California, ma ci sembra un bambino dell’asilo in confronto ai colossi di oggi. Summit, il nuovo numero uno dei supercomputer globali, operativo da poche settimane nell’Oak Ridge National Laboratory, al centro dell’Innovation Valley del Tennessee, è progettato per funzionare a una velocità di picco di 200 petaflop, quindi è in grado di effettuare fino a 200 milioni di miliardi di «operazioni a virgola mobile » – un tipo di aritmetica computazionale – ogni secondo. Questo rende Summit più veloce del 60% rispetto al precedente primatista mondiale cinese, scivolato al secondo posto. Ma per molti informatici il completamento di Summit è solo una fase di un processo molto più grande. In tutto il mondo, gruppi di ingegneri e scienziati puntano al prossimo salto nella capacità di elaborazione: i computer a ‘esascala’, in grado di raggiungere velocità di calcolo di 1.000 petaflop o più. Già 4 gruppi nazionali o internazionali, in collaborazione con le industrie informatiche, stanno lavorando per raggiungere questo ambizioso obiettivo.

LA CINA PREVEDE di far funzionare la sua prima macchina a esascala entro il 2020. Gli Stati Uniti, con l’Exascale computing project del Department of energy, puntano a costruirne almeno una entro il 2021. La Svizzera, oggi al sesto posto in graduatoria con il suo Piz Daint di Lugano, ci sta lavorando. E ci si aspetta che l’Unione Europea, oggi appena al tredicesimo posto con l’HPC4 dell’Eni, segua a ruota. I ricercatori ritengono che i computer a esascala consentiranno di risolvere problemi che oggi non è possibile affrontare in campi diversi come la climatologia, le energie rinnovabili, la genomica, la geofisica e l’intelligenza artificiale. Si potranno associare tra loro modelli dettagliati di chimica dei materiali, per potenziare le batterie e ridurre le emissioni di gas serra. Si potrà simulare il clima globale con una risoluzione spaziale molto più dettagliata di oggi. Con il software giusto in mano, si potrà fare molta più scienza di oggi, rappresentare meglio l’universo o il reticolo delle sinapsi che consente al nostro cervello di funzionare. Ma raggiungere il regime dell’esascala è una sfida tecnologica molto ardua.

GLI AUMENTI esponenziali delle prestazioni di calcolo e di efficienza energetica che in passato accompagnavano la legge di Moore non sono più garantiti e quindi la crescita dei consumi non ha più limiti. Inoltre, un supercomputer che si comporta bene in un test di velocità non necessariamente eccelle nelle applicazioni scientifiche. Lo sforzo per portare le capacità di calcolo al livello successivo sta obbligando a trasformare il modo in cui sono progettati i supercomputer e si misurano le loro prestazioni. Via via che queste macchine diventano più grandi, però, la gestione dei dati diventa più difficile. Immettere ed estrarre i dati e perfino spostarli all’interno richiede molta più energia dei calcoli stessi. Fino al 90% del consumo di energia di un computer ad alte prestazioni è dovuto al trasporto dati. In base a un rapporto della Defense advanced research projects agency degli Stati Uniti, guidato dall’informatico Peter Kogge, un computer a esascala costruito con le tecnologie attualmente prevedibili avrà bisogno di almeno 400 megawatt di potenza e quindi gli servirà una centrale elettrica tutta per sé. Siamo disposti a dargliela?

Di |2018-07-09T14:16:31+00:0009/07/2018|Primo piano|