User Tools

Site Tools


hpc_hardware

Au 19/04/2021, les ressources de calcul disponibles pour la communauté sont composées de 2,8 Po de stockage, de 14792 cœurs de calcul, 73 To de mémoire vive, le tout réparti sur 697 nœuds de calcul :

  • 10 nœuds AMD Epyc Rome Zen2 7002 (2×24 cœurs, 128 ou 256 Go)
  • 31 nœuds Intel Cascade Lake (2×16 cœurs, 128 ou 384 Go)
  • 265 nœuds Intel Skylake (2×12 cœurs, 96 ou 192 Go)
  • 73 nœuds Intel Broadwell (2×14 cœurs, 128 ou 256 Go)
  • 35 nœuds Intel Haswell (2×8 cœurs, 64 ou 128 Go)
  • 95 nœuds Intel Ivy Bridge (2×8 cœurs, 64 ou 128 Go)
  • 166 nœuds Intel Sandy Bridge (2×8 cœurs, 64 Go)
  • 4 nœuds Intel Sandy Bridge (2×6, 32 Go)
  • 16 nœuds Intel Xeon Nehalem (2×6 cœurs, 24 Go)

Ces noeuds hébergent près de 250 accélérateurs GPU, financés par Equipex et par mutualisation :

  • 12 Tesla A100 (40,5 Go)
  • 26 Quadro RTX 6000 (22,7 Go)
  • 2 Quadro RTX 5000 (16,1 Go)
  • 12 Tesla V100 SXM2 (NVLink - 32,5 Go)
  • 14 Tesla V100 PCIe (32,5 Go)
  • 64 Tesla P100 (16,2)
  • 100 GTX 1080Ti (11,1 Go)
  • 20 Tesla K80 (11,4 Go)
  • 10 Tesla K40 (11,4 Go)
  • 20 Tesla K20 (4,7 Go)

Tous les processeurs sont d'architecture x86_64. Chaque coeur de calcul est associé à 2, 4 ou 8 GO de mémoire vive.

Les nœuds de calcul sont interconnectés par des réseaux à haute-débit et faible latence pour les communications entre processus de calcul (par exemple MPI) :

  • 8 Switch Intel Omni-Path 100 Gbps ;
  • 12 Switch Mellanox InfiniBand 40 Gbps ou 100 Gbps ;

et connectés au cœur du réseau Ethernet du Data Center à 10 et 25 Gbps.

Le système mis à votre disposition est Scientific Linux 7.5 (équivalent RedHat même version).

Afin de permettre à tous l'accès équitable aux ressources de calcul, vous devez utiliser un système de files d'attente pour y soumettre vos travaux. Avantage : une fois que les ressources de calcul sont mises votre disposition, elles vous sont exclusivement réservées. Le système de files d'attente en place au Centre de Calcul de l'université s'appelle Slurm.

Pour le développement et l'expérimentation de vos applications, nous mettons à votre disposition un serveur frontal équipé de 28 cœurs et de 256 Go de RAM, qui vous permet d'avancer rapidement dans votre cycle de développement. Ainsi, vous n'utilisez le système de files d'attente que pour les codes stabilisés.

Les applications pré-installées sur le centre de calcul sont référencées ici.

MUTUALISATION

Le Centre de Calcul propose une offre de mutualisation des ressources qui permet aux laboratoires de l'Université d'acheter des nœuds de calcul, mais de les héberger au sein du cluster de calcul. Toute l'installation, la configuration et la maintenance des nœuds de calcul est ainsi assurée par l'équipe du CCUS. Les laboratoires ont alors un accès prioritaire aux nœuds qu'ils ont acheté, mais ces derniers restent en mode non prioritaire à la disposition de la communauté quand ils ne les utilisent pas. Les opérations de mutualisation ont permis l'acquisition d'une partie des ressources présentées ci-dessus :

  • 244 nœuds CPU ;
  • 94 GPUs dans 26 nœuds mutualisés ;
  • 40 GPUs dans des nœuds GPU appartenant au CCUS.

Pour toute demande de mutualisation, vous pouvez contacter les membres de l'équipe ou ouvrir un ticket au support informatique, via le formulaire de contact ou par mail direct (support@unistra.fr) en précisant que la demande s'adresse au centre de calcul.

hpc_hardware.txt · Last modified: by 127.0.0.1