Projet

Général

Profil

Wiki » Historique » Version 13

Argus Rusard, 10/03/2025 15:31

1 1 Argus Rusard
# Wiki
2
3
# Présentation de la machine Poudlard
4
5 3 Argus Rusard
6
Le cluster Poudlard est composé de plusieurs groupes de machines accessibles:
7
8 13 Argus Rusard
- Les nœuds interactifs **frontaux** (x2): machines sur lesquelles l'utilisateur se connecte pour mettre au point et lancer ses travaux, manipuler ses données et ses résultats
9
- Les nœuds de **calcul** [[Processeurs#Nœuds-standards|compute]] Apollo2000 (x32): ce sont les machines sur lesquelles les travaux sont exécutés (par l'intermédiaire du [[Slurm|Gestionnaire de Travaux]])
10 3 Argus Rusard
  - 2 processeurs hexadécacœurs (32 cœurs par nœud) [AMD® EPYC™ 7313](https://www.amd.com/fr/products/cpu/amd-epyc-7313) @ 3 GHz
11 1 Argus Rusard
  - 250 Go de mémoire RAM
12
  - machines c001 à c032
13 13 Argus Rusard
- des nœuds **visu** (x2): des nœuds pourvus de cartes graphiques permettant du calcul GPU et de l'affichage graphique 3D
14
  - gpu01:
15
      - 2 processeurs octocœurs (16 cœurs par nœud) [Intel® Xeon® CPU E5-2609 v4 @ 1.70GHz](https://www.intel.fr/content/www/fr/fr/products/sku/92990/intel-xeon-processor-e52609-v4-20m-cache-1-70-ghz/specifications.html)
16
      - 60 Go de mémoire RAM
17
      - 1 carte graphique NVidia® [GTX Titan X](https://www.nvidia.com/en-us/geforce/graphics-cards/geforce-gtx-titan-x/)
18
  - gpu02:
19
      - 2 processeurs quadricœurs (8 cœurs par nœud) [Intel® Xeon® CPU E5-2603 0 @ 1.80GHz](https://www.intel.fr/content/www/fr/fr/products/sku/64592/intel-xeon-processor-e52603-10m-cache-1-80-ghz-6-40-gts-intel-qpi/specifications.html)
20
      - 60 Go de mémoire RAM
21
      - 1 carte graphique NVidia® [GTX Titan X](https://www.nvidia.com/en-us/geforce/graphics-cards/geforce-gtx-titan-x/)
22
23 1 Argus Rusard
24 11 Argus Rusard
# Utilisation du Cluster
25
26
L'utilisation du cluster poudlard est soumise au respect du règlement intérieur: [[Règlement intérieur]]
27
28
On peut utiliser le cluster de différentes manières
29
30
- en mode ligne de commande [[Guide de l'utilisateur]]
31
- avec une [[Chemins de traverse|Interface Web]]
32
33 1 Argus Rusard
# Environnement Logiciel
34
35 5 Argus Rusard
Les nœuds du cluster fournissent un environnement [Rocky Linux 8](https://rockylinux.org/)
36
37
On y trouve notamment:
38
- des [[Compilateurs]]
39
- des [[Profilers]]
40
- des [[Debuggers]]
41
- des [[Librairies]]
42
- des [[Editeurs de texte]]
43
- des systèmes de [[Conteneurs]]
44
- un environnement de [[Modules]]
45
- un environnement de logiciels [[Spack]]
46 7 Argus Rusard
47
# Espaces disque
48
49
- [[FS_tmp]]: espace temporaire local aux nœuds de calcul
50 1 Argus Rusard
- [[FS_home]]: espace pour les données des comptes utilisateurs
51 8 Argus Rusard
- [[FS_scratch]]: système de fichiers parallèle pour les données des jobs. **NB: Cet espace n'est pas destiné à l'archivage! les fichiers y sont nettoyés régulièrement par un système automatique!**
52 7 Argus Rusard
53
# Gestionnaire de travaux
54
55
Les ressources de calcul proprement dites sont accessibles par un gestionnaire de travaux. Il permet à l'utilisateur de réserver les ressources nécessaires à un calcul décrit dans un script de soumission. Ce script est en général un script shell (mais il peut être en Python, etc...) qui contient éventuellement des directives propres au gestionnaire de travaux.
56
57
Le Gestionnaire de Travaux de Curta est [[Slurm]]
58
59
Une explication de la configuration du gestionnaire de travaux: [[Configuration Scheduler]]