Calculateurs et centres de calcul

 

Les moyens nationaux de calcul, mis à disposition des communautés scientifiques par GENCI, sont installés et exploités dans trois centres : le CINES, Centre Informatique National de l’Enseignement Supérieur à Montpellier, l’Institut du développement et des ressources en informatique scientifique du CNRS (IDRIS) à Orsay et le Très Grand Centre de Calcul du CEA (TGCC) à Bruyères-le-Châtel.


Centre Informatique National de l’Enseignement Supérieur (CINES)

Basé à Montpellier, le CINES a trois missions stratégiques nationales, dans les domaines du calcul intensif (mise à disposition des moyens de calcul de GENCI, support utilisateurs, formation), de l’archivage pérenne (conservation à long terme du patrimoine numérique) et de l’hébergement.


    • Supercalculateur de production OCCIGEN

Supercalculateur Occigen installé et exploité au sein du Centre Informatique National de l’Enseignement Supérieur (CINES) à Montpellier.


Supercalculateur Bull Bullx de 3,5 pétaflop/s


Nombre de nœuds :

• 2106 de 2 processeurs Intel Haswell (E5-2690V3 à 2.6 GHz de 12 cœurs) dont la moitié à 64 Go de mémoire et l’autre moitié à 128 Go
• 1260 de 2 processeurs Intel Broadwell (E5-2690V4 à 2.6 GHz de 14 cœurs) à 64 Go de mémoire
Nombre total de processeurs : 6 732
Nombre total de cœurs : 85 824
Mémoire distribuée totale : 270 To
Réseau d’interconnexion : Infiniband FDR
Espace disque de 1er niveau : 5 Po à 100 Go/s sous Lustre


  • Prototype FRIOUL

Le supercalculateur Frioul est installé et exploité au sein du Centre Informatique National de l’Enseignement Supérieur (CINES) à Montpellier.


Supercalculateur Atos
Puissance crête : 164 Tflop/s
Nombre de processeurs : 54 (Intel KNL 7250, 68 cœurs, 1,4 GHz)
Nombre de cœurs de calcul total : 3672
Mémoire distribuée totale : 10,3 Téraoctets (192 Go/nœud) (2,8 Go/cœur)
Nombre de nœuds disponibles : 54
Réseau d’interconnexion : Infiniband EDR
Espace disque de 1er niveau : 100 To NVME BeeGFS



Institut du Développement et des Ressources en Informatique Scientifique (IDRIS)

L'IDRIS est le centre majeur du CNRS pour le calcul numérique intensif de très haute performance. À la fois centre de ressources informatiques et pôle de compétences en calcul intensif, l’IDRIS est une Unité Propre de Service du CNRS (UPS 851), à vocation pluridisciplinaire, placée sous la tutelle de l'INS2I (INstitut des Sciences de l'Information et de leurs Interactions). Les modalités de fonctionnement de l’IDRIS sont proches de celles des très grands équipements scientifiques.

Plus d’infos : cliquez ici IDRIS


  • Supercalculateur de production JEAN ZAY


JeanZay

Supercalculateur Jean Zay installé et exploité au sein de l’Institut du Développement et des Ressources en Informatique Scientifique du CNRS (IDRIS) à Orsay.

Supercalculateur HPE de 14 pétaflop/s doté d'une architecture scalaire et convergée, composé de 2 partitions

Partition scalaire :
Puissance crête 4,9 pétaflop/s
Nombre de nœuds de calcul : 1 528 nœuds biprocesseurs (Intel Cascade Lake à 20 cœurs à 2,5 GHz)
Nombre de cœurs de calcul : 61 120
Mémoire par nœud : 192 Go mémoire DDR4-2667 (4,8 Go/cœur)

Partition convergée :
Puissance crête 9,02 pétaflop/s
Nombre de nœuds de calcul : 261 nœuds composés de 2 processeurs (Intel Cascade Lake à 20 cœurs à 2,5 GHz) et de 4 GPU (nVIDIA V100 de 32 Go mémoire chacun)
Nombre de GPU : 1 044 v100

Éléments communs
Réseau d’interconnexion : Intel OPA100 (1 lien CPU et 4 liens GPU)
Espace disque de 1er niveau : 1 Po à 300 Go/s sous GPFS



  • Prototype OUESSANT

Le supercalculateur Ouessant est installé et exploité au sein de l’Institut du développement et des ressources en informatique scientifique du CNRS (IDRIS) à Orsay.


Supercalculateur IBM
Puissance crête : 260 Tflop/s
Nombre de nœuds de calcul : 12 nœuds composés de 2 processeurs (OpenPOWER « Minsky » Power8 à 20 cœurs à 2,8 GHz) et de 4 GPU (nVIDIA P100 de 16 Go mémoire chacun couplés via Nvlink
Nombre de GPU : 48 P100
Réseau d’interconnexion : Infiniband EDR

 

 Très Grand Centre de Calcul du CEA (TGCC)

 

Le TGCC est une infrastructure pour le calcul scientifique très haute performance et le traitement de données massives, capable d'héberger des supercalculateurs d'échelle pétaflopique. Ce centre de calcul a été conçu pour accueillir la première machine pétaflopique française Curie, financée par GENCI, pour l'infrastructure de recherche européenne PRACE, ainsi que la nouvelle génération du Centre de Calcul Recherche et Technologie (CCRT).

Plus d’infos : cliquez ici TGCC/CEA


  • Supercalculateur JOLIOT-CURIE

Joliot-Curie

Le supercalculateur Joliot-Curie est installé et exploité au sein du Très Grand Centre de Calcul du CEA (TGCC) à Bruyères-le-Châtel.

 

Supercalculateur BULL Sequana de 9,4 pétaflop/s doté d'une architecture équilibrée, composé de 2 partitions

Partition à nœuds fins SKL :
Puissance crête : 6,9 petaflop/s
Nombre de processeurs : 3 312 (Intel Skylake 8168, 24 cœurs, 2,7 GHz)
Nombre de cœurs de calcul total : 79 488 cœurs
Mémoire distribuée totale : 318 Téraoctets (4 Go/cœur)

Réseau d’interconnexion : Infiniband EDR


Partition à nœuds manycores KNL

Puissance crête : 2,5 petaflop/s
Nombre de processeurs : 828 (Intel KNL 7250, 68 cœurs, 1,4 GHz)
Nombre de cœurs de calcul total : 56 304 à 96 Go de mémoire
Mémoire distribuée totale : 64 Téraoctets (1,4 Go/cœur)
Réseau d’interconnexion : Bull eXascale Interconnect BXI

Éléments communs
Pré et post traitement : 5 nœuds à grosse mémoire de 112 cœurs, 3 To de mémoire, 1 GPU NVIDIA P100 et 1 SSD NVMe de 1,6 To chacun
Visualisation distante : 20 nœuds de 48 cœurs, 192 Go de mémoire, 1 GPU NVIDIA P100 et 1 SSD NVMe de 800 Go chacun

Espace disque de 1er niveau : 4,62 Po à 300 Go/s sous Lustre 


Extension début 2020 de partitions de calcul & post-traitement/IA

Partition à nœuds manycores AMD :
Puissance crête : 12,2 petaflop/s
Nombre de nœuds de calcul : 2292 nœuds de calcul biprocesseurs AMD Rome Epyc à 2.6 GHz avec 64 cœurs par processeur
Nombre de cœurs de calcul total : 293 376
Mémoire distribuée totale : 
586 To mémoire DDR4 (256 Go/nœud) (2 Go/cœur)

Disque rapide et local 19,2 To (NVMeOF)
Réseau d’interconnexion Infiniband HDR100

Post-traitement / IA :
Puissance crête : 1.13 PFlop/s
Nombre de nœuds de calcul : 32 nœuds convergés de 2 processeurs Intel Cascade Lake à 20 cœurs de 2.1 GHz et 4 GPU nVIDIA V100 chacun
Nombre de GPU : 128 v100







 Voir aussi :