Projet

Général

Profil

Wiki » Historique » Version 14

Argus Rusard, 10/03/2025 15:35

1 1 Argus Rusard
# Wiki
2
3
# Présentation de la machine Poudlard
4
5 3 Argus Rusard
6
Le cluster Poudlard est composé de plusieurs groupes de machines accessibles:
7
8 13 Argus Rusard
- Les nœuds interactifs **frontaux** (x2): machines sur lesquelles l'utilisateur se connecte pour mettre au point et lancer ses travaux, manipuler ses données et ses résultats
9
- Les nœuds de **calcul** [[Processeurs#Nœuds-standards|compute]] Apollo2000 (x32): ce sont les machines sur lesquelles les travaux sont exécutés (par l'intermédiaire du [[Slurm|Gestionnaire de Travaux]])
10 3 Argus Rusard
  - 2 processeurs hexadécacœurs (32 cœurs par nœud) [AMD® EPYC™ 7313](https://www.amd.com/fr/products/cpu/amd-epyc-7313) @ 3 GHz
11 1 Argus Rusard
  - 250 Go de mémoire RAM
12
  - machines c001 à c032
13 13 Argus Rusard
- des nœuds **visu** (x2): des nœuds pourvus de cartes graphiques permettant du calcul GPU et de l'affichage graphique 3D
14
  - gpu01:
15
      - 2 processeurs octocœurs (16 cœurs par nœud) [Intel® Xeon® CPU E5-2609 v4 @ 1.70GHz](https://www.intel.fr/content/www/fr/fr/products/sku/92990/intel-xeon-processor-e52609-v4-20m-cache-1-70-ghz/specifications.html)
16
      - 60 Go de mémoire RAM
17 14 Argus Rusard
      - 1 carte graphique NVidia® [GTX Titan X](https://www.nvidia.com/en-us/geforce/graphics-cards/geforce-gtx-titan-x/) (aimablement prêtée par H. Bouy)
18 13 Argus Rusard
  - gpu02:
19
      - 2 processeurs quadricœurs (8 cœurs par nœud) [Intel® Xeon® CPU E5-2603 0 @ 1.80GHz](https://www.intel.fr/content/www/fr/fr/products/sku/64592/intel-xeon-processor-e52603-10m-cache-1-80-ghz-6-40-gts-intel-qpi/specifications.html)
20
      - 60 Go de mémoire RAM
21 14 Argus Rusard
      - 1 carte graphique NVidia® [GTX Titan X](https://www.nvidia.com/en-us/geforce/graphics-cards/geforce-gtx-titan-x/) (aimablement prêtée par H. Bouy)
22 1 Argus Rusard
23 11 Argus Rusard
# Utilisation du Cluster
24
25
L'utilisation du cluster poudlard est soumise au respect du règlement intérieur: [[Règlement intérieur]]
26
27
On peut utiliser le cluster de différentes manières
28
29
- en mode ligne de commande [[Guide de l'utilisateur]]
30
- avec une [[Chemins de traverse|Interface Web]]
31
32 1 Argus Rusard
# Environnement Logiciel
33
34 5 Argus Rusard
Les nœuds du cluster fournissent un environnement [Rocky Linux 8](https://rockylinux.org/)
35
36
On y trouve notamment:
37
- des [[Compilateurs]]
38
- des [[Profilers]]
39
- des [[Debuggers]]
40
- des [[Librairies]]
41
- des [[Editeurs de texte]]
42
- des systèmes de [[Conteneurs]]
43
- un environnement de [[Modules]]
44
- un environnement de logiciels [[Spack]]
45 7 Argus Rusard
46
# Espaces disque
47
48
- [[FS_tmp]]: espace temporaire local aux nœuds de calcul
49 1 Argus Rusard
- [[FS_home]]: espace pour les données des comptes utilisateurs
50 8 Argus Rusard
- [[FS_scratch]]: système de fichiers parallèle pour les données des jobs. **NB: Cet espace n'est pas destiné à l'archivage! les fichiers y sont nettoyés régulièrement par un système automatique!**
51 7 Argus Rusard
52
# Gestionnaire de travaux
53
54
Les ressources de calcul proprement dites sont accessibles par un gestionnaire de travaux. Il permet à l'utilisateur de réserver les ressources nécessaires à un calcul décrit dans un script de soumission. Ce script est en général un script shell (mais il peut être en Python, etc...) qui contient éventuellement des directives propres au gestionnaire de travaux.
55
56
Le Gestionnaire de Travaux de Curta est [[Slurm]]
57
58
Une explication de la configuration du gestionnaire de travaux: [[Configuration Scheduler]]