L'infrastruttura HPC è composta da alcuni supercalcolatori, in particolare l'ultimo arrivato MARCONI100 che si è classificato nel giugno 2020 al 9° posto della Top500 e MARCONI, che si è classificato nel 2016 al 12° posto della Top500, mantenendosi fra i primi venti fino a Novembre 2019. 

MARCONI100

È il nuovo sistema accelerato disponibile per la ricerca italiana da aprile 2020. Si tratta di un sistema IBM dotato di NVIDIA Volta V100GPU, che apre la strada al supercomputer accelerato pre-esascale Leonardo.

MARCONI

E' il sistema Tier-0 che ha sostituito FERMI a luglio 2016. È basato sulla piattaforma LENOVO NeXtScale e sulla prossima generazione della famiglia di prodotti Intel Xeon Phi. È stato gradualmente completato dal 2016 in circa 12 mesi e oggi è composto dalla partizione Marconi-A3 con SkyLake, aggiornato a gennaio 2018 e a novembre 2018. Le altre due partizioni Marconi-A1 con Intel Broadwell, in produzione da luglio 2016 a settembre 2018 e Marconi-A2 con Intel KnightsLanding in produzione da gennaio 2017 a dicembre 2019 sono chiuse alla produzione.

GALILEO

E' stato rinnovato ad agosto 2019 con i nodi Intel Xeon E5-2697 v4 (Broadwell) ed a partire da marzo 2021 verrà spento e  rinnovato nella nuova più performante infrastruttura Galileo100 che sarà in piena produzione dal luglio 2021. 

DGX

È il sistema accelerato NVIDIA A100 disponibile da gennaio 2021, particolarmente adatto ai framework di Deep Learning. Si tratta di un sistema AMD a 3 nodi dotato di 8 GPU NVIDIA A100 Tensor Core per nodo.
 

  CPU (mhz,core, ...) Total cores / Total Nodes Memory  per node Accelerator Notes
MARCONI-A3

Intel SkyLake
2x Intel Xeon 8160 
@2.1GHz 
24 cores each

1791552 / 3188 192 GB -  
MARCONI100

IBM Power9 AC922
@3.1GHz
32 cores HT 4 each

31360 / 980 256 GB 4x NVIDIA Volta
V100 GPUs,
NVlink 2.0 16 GB
 
DGX AMD 2x Rome 7742
@2.6GHz
32 cores HT 2 each
384/3     980 GB 8x NVIDIA A100
Tensor Core GPUs,
NVlink 3.0 80 GB
 
GALILEO100

Intel CascadeLake 8260
@2.4GHz
24 cores each.

528+36 384GB 2x NVIDIA GPU V100  

Archiviazione dei dati

Lo spazio dedicato all'archiviazione dei dati è gestita in diversi modi a seconda delle richieste degli utenti:

- area di scratch: ogni sistema ha la propria area scratch locale (indicata dalla variabile ambientale $CINECA_SCRATCH)
- area di lavoro: una memoria di lavoro è montata sui tre sistemi (indicato dalla variabile ambientale $WORK)
- area DRes (Data Resources): un'area di archiviazione condivisa è montata su tutti i nodi di accesso delle macchine (indicato dalla variabile ambientale $DRES)
- area Tape: una libreria di nastri (12 PB, espandibile a 16PB) è collegata all'area di archiviazione DRes come archivio multi-livello (tramite LTFS)

  Scratch (local) Work (local) DRes (shared) Tape (shared)
MARCONI 2.5 PB 7.5 PB 6.5 PB 20 PB
GALILEO 300 TB 1500 TB

  

Tour virtuale della sala macchine Cineca