Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
Next revisionBoth sides next revision
pandoc:introduction-to-vsc:09_special_hardware:accelerators [2020/10/20 09:13] – Pandoc Auto-commit pandocpandoc:introduction-to-vsc:09_special_hardware:accelerators [2024/06/06 15:40] – [TOP500 List June 2024] goldenberg
Line 1: Line 1:
 +====== GPUs available & how to use it ======
  
-====== Special hardware (GPUs, binfs) available & how to use it ======+===== TOP500 List June 2024 =====
  
-  * Article written by Siegfried Höfinger (VSC Team) <html><br></html>(last update 2020-10-04 by sh). 
- 
-====== TOP500 List June 2020 ====== 
- 
- 
-<HTML> 
-<!--slide 1--> 
-<!--for nations flags see https://www.free-country-flags.com--> 
-</HTML> 
 ^  Rank^Nation             ^Machine            ^   Performance^Accelerators                                                             ^ ^  Rank^Nation             ^Machine            ^   Performance^Accelerators                                                             ^
-|    1.|{{.:jp.png?0x24}}  |Fugaku              416 PFLOPs/s|                                                                         +|    1.|{{.:us.png?0x24}} Frontier          1206 PFLOPs/s | AMD Instinct MI250X   
-|    2.|{{.:us.png?0x24}}  |Summit              149 PFLOPs/s|<html><font color="navy"></html>NVIDIA V100<html></font></html>          | +|    2.|{{.:us.png?0x24}} Aurora            1012 PFLOPs/s | Intel Data Center GPU Max          | 
-|    3.|{{.:us.png?0x24}}  |Sierra             |   95 PFLOPs/s|<html><font color="navy"></html>NVIDIA V100<html></font></html>          | +|    3.|{{.:us.png?0x24}} Eagle             | 561 PFLOPs/ | NVIDIA H100          | 
-|    4.|{{.:cn.png?0x24}}  |Sunway TaihuLight    93 PFLOPs/s|                                                                         +|    4.|{{.:jp.png?0x24}} Fugaku            442 PFLOPs/  
-|    5.|{{.:cn.png?0x24}}  |Tianhe-2A            62 PFLOPs/s|                                                                         +|    5.|                   LUMI              379 PFLOPs/ AMD Instinct MI250X       
-|    6.|{{.:it.png?0x24}}  |HPC5                 36 PFLOPs/s|<html><font color="navy"></html>NVIDIA V100<html></font></html>          | +|    6.|{{.:ch.png?0x24}} Alps              270 PFLOPs/ | NVIDIA GH200 Superchip          | 
-|    7.|{{.:us.png?0x24}}  |Selene               28 PFLOPs/s|<html><font color="navy"></html>NVIDIA A100<html></font></html>          | +|    7.|{{.:it.png?0x24}} Leonardo          241 PFLOPs/ | NVIDIA A100 SXM4          | 
-|    8.|{{.:us.png?0x24}}  |Frontera             24 PFLOPs/s|<html><font color="navy"></html>NVIDIA RTX5000/V100<html></font></html>  +|    8.|                   MareNostrum 5 ACC 175 PFLOPs/ | NVIDIA H100         
-|    9.|{{.:it.png?0x24}}  |Marconi-100          22 PFLOPs/s|<html><font color="navy"></html>NVIDIA V100<html></font></html>          | +|    9.|{{.:us.png?0x24}} Summit            148 PFLOPs/ | NVIDIA V100          | 
-|   10.|{{.:ch.png?0x24}}  |Piz Daint            21 PFLOPs/s|<html><font color="navy"></html>NVIDIA P100<html></font></html>          |+|   10.|{{.:us.png?0x24}} Eos NVIDIA DGX    121 PFLOPs/ | NVIDIA H100      |
  
 +===== Components on VSC-5 =====
  
-<HTML> +^Model ^#cores  ^Clock Freq (GHz)^Memory (GB)^Bandwidth (GB/s)^TDP (Watt)^FP32/FP64 (GFLOPs/s)^ 
-<!--slide 2--> +|19x GeForce RTX-2080Ti n375-[001-019] only in a special project        |                |                          |          |                    | 
-</HTML> +|{{:pandoc:introduction-to-vsc:09_special_hardware:rtx-2080.jpg?nolink&200}} |4352|1.35              |11         |616             |250       |13450/420           | 
-====== Components on VSC-3 ======+|45x2 nVidia A40 n306[6,7,8]-[001-019,001-019,001-007]          |                |                          |          |                    | 
 +|{{ :pandoc:introduction-to-vsc:09_special_hardware:a40.jpg?nolink&200|}} |10752    |1.305           |48        |696      |300       |37400/1169     | 
 +|62x2 nVidia A100-40GB n307[1-4]-[001-015]                      |                          |          |                    | 
 +|{{ :pandoc:introduction-to-vsc:09_special_hardware:a100.jpg?nolink&200|}} |6912    |0.765           |40        |1555      |250       |19500/9700     |
  
-^Model                                                                                                           ^#cores  ^Clock Freq (GHz)^Memory (GB)^Bandwidth (GB/s)^TDP (Watt)^FP32/FP64 (GFLOPs/s)^ 
-|<html><font color="navy"></html>36+50x GeForce GTX-1080 n37[1,2,3]-[001-004,001-022,001-028]<html></font></html>       |                |                          |          |                    | 
-|{{.:nvidia-gtx-1080.jpg}}                                                                                       |2560    |1.61            |8          |320             |180       |8228/257            | 
-|<html><font color="navy"></html>4x Tesla k20m n372-02[4,5]<html></font></html>                                  |        |                |                          |          |                    | 
-|{{.:nvidia-k20m.png}}                                                                                           |2496    |0.71            |5          |208             |195       |3520/1175           | 
-|<html><font color="navy"></html>1x Tesla V100 n372-023]<html></font></html>                                            |                |                          |          |                    | 
-|{{.:v100.png}}                                                                                                  |5120/644|1.31            |32         |900             |250       |14000/7000          | 
  
- +==== Working on GPU nodes Interactively ====
-<HTML> +
-<!--slide 3--> +
-</HTML> +
-====== Working on GPU nodes ======+
  
 **Interactive mode** **Interactive mode**
  
 <code> <code>
-1. VSC->  salloc -N 1 -p gpu_gtx1080single --qos gpu_gtx1080single +1. VSC->  salloc -N 1 -p zen2_0256_a40x2 --qos  zen2_0256_a40x2 --gres=gpu:2
  
-2. VSC->  squeue -u $USER+2. VSC->  squeue -u $USER
  
-3. VSC->  srun -n 1 hostname  (...while still on the login node !)+3. VSC->  srun -n 1 hostname  (...while still on the login node !)
  
-4. VSC->  ssh n372-012  (...or whatever else node had been assigned)+4. VSC->  ssh n3066-012  (...or whatever else node had been assigned)
  
-5. VSC->  module load cuda/9.1.85    +5. VSC->  module load cuda/9.1.85    
             cd ~/examples/09_special_hardware/gpu_gtx1080/matrixMul             cd ~/examples/09_special_hardware/gpu_gtx1080/matrixMul
             nvcc ./matrixMul.cu               nvcc ./matrixMul.cu  
Line 63: Line 48:
             ./a.out             ./a.out
  
-6. VSC->  nvidia-smi+6. VSC->  nvidia-smi
  
-7. VSC->  /opt/sw/x86_64/glibc-2.17/ivybridge-ep/cuda/9.1.85/NVIDIA_CUDA-9.1_Samples/1_Utilities/deviceQuery/deviceQuery+7. VSC->  /opt/sw/x86_64/glibc-2.17/ivybridge-ep/cuda/9.1.85/NVIDIA_CUDA-9.1_Samples/1_Utilities/deviceQuery/deviceQuery
 </code> </code>
-<HTML> 
-<!--slide 4--> 
-</HTML> 
-====== Working on GPU nodes cont. ====== 
  
-**SLURM submission** [[examples/gpu_gtx1080/gpu_test.scrpt|gpu_test.scrpt]]+===== Working on GPU using SLURM ===== 
 + 
 +**SLURM submission** gpu_test.scrpt
  
 <code bash> <code bash>
Line 79: Line 62:
 #  usage: sbatch ./gpu_test.scrpt           #  usage: sbatch ./gpu_test.scrpt          
 # #
-#SBATCH -J gtx1080      +#SBATCH -J A40      
-#SBATCH -N 1 +#SBATCH -N 1                           #use -N only if you use both GPUs on the nodes, otherwise leave this line out 
-#SBATCH --partition gpu_gtx1080single          +#SBATCH --partition zen2_0256_a40x2 
-#SBATCH --qos gpu_gtx1080single+#SBATCH --qos zen2_0256_a40x2 
 +#SBATCH --gres=gpu:                  #or --gres=gpu:1 if you only want to use half a node
  
 module purge module purge
Line 90: Line 74:
 /opt/sw/x86_64/glibc-2.17/ivybridge-ep/cuda/9.1.85/NVIDIA_CUDA-9.1_Samples/1_Utilities/deviceQuery/deviceQuery       /opt/sw/x86_64/glibc-2.17/ivybridge-ep/cuda/9.1.85/NVIDIA_CUDA-9.1_Samples/1_Utilities/deviceQuery/deviceQuery      
 </code> </code>
-<html><font color="navy"></html>**Exercise/Example/Problem:**<html></font></html> <html><br/></html> Using interactive mode or batch submission, figure out whether we have ECC enabled on GPUs of type gtx1080 ? 
  
-<HTML> 
-<!--slide 5--> 
-</HTML> 
-====== Working on binf nodes ====== 
  
-**Interactive mode** +===== Real-World Example, AMBER-16 =====
- +
-<code> +
-1. VSC-3 >  salloc -N 1 -p binf --qos normal_binf -C binf -L intel@vsc +
-            (... add   --nodelist binf-13   to request a specific node)  +
- +
-2. VSC-3 >  squeue -u $USER +
- +
-3. VSC-3 >  srun -n 4 hostname   (... while still on the login node !) +
- +
-4. VSC-3 >  ssh binf-11  (... or whatever else node had been assigned) +
- +
-5. VSC-3 >  module purge +
- +
-6. VSC-3 >  module load intel/17  +
-            cd examples/09_special_hardware/binf +
-            icc -xHost -qopenmp sample.c +
-            export OMP_NUM_THREADS=8 +
-            ./a.out +
-</code> +
-<HTML> +
-<!--slide 8--> +
-</HTML> +
-====== Working on binf nodes cont. ====== +
- +
-**SLURM submission** [[examples/binf/gromacs-5.1.4_binf/slrm.sbmt.scrpt|slrm.sbmt.scrpt]] +
- +
-<code bash> +
-#!/bin/bash +
-+
-#  usage: sbatch ./slrm.sbmt.scrpt           +
-+
-#SBATCH -J gmxbinfs     +
-#SBATCH -N 2 +
-#SBATCH --partition binf         +
-#SBATCH --qos normal_binf          +
-#SBATCH -C binf         +
-#SBATCH --ntasks-per-node 24 +
-#SBATCH --ntasks-per-core 1 +
- +
-module purge +
-module load intel/17  intel-mkl/2017  intel-mpi/2017  gromacs/5.1.4_binf +
- +
-export I_MPI_PIN=1 +
-export I_MPI_PIN_PROCESSOR_LIST=0-23 +
-export I_MPI_FABRICS=shm:tmi           +
-export I_MPI_TMI_PROVIDER=psm2         +
-export OMP_NUM_THREADS=1       +
-export MDRUN_ARGS=" -dd 0 0 0 -rdd 0 -rcon 0 -dlb yes -dds 0.8  -tunepme -v -nsteps 10000 "  +
- +
-mpirun -np $SLURM_NTASKS gmx_mpi mdrun ${MDRUN_ARGS}  -s hSERT_5HT_PROD.0.tpr  -deffnm hSERT_5HT_PROD.0  -px hSERT_5HT_PROD.0_px.xvg  -pf hSERT_5HT_PROD.0_pf.xvg  -swap hSERT_5HT_PROD.0.xvg +
-</code> +
-<HTML> +
-<!--slide 9--> +
-</HTML> +
-====== Real-World Example, AMBER-16 ======+
  
 ^             Performance^Power Efficiency            ^ ^             Performance^Power Efficiency            ^
 |  {{.:amber16.perf.png}}|{{.:amber16.powereff.png}}  | |  {{.:amber16.perf.png}}|{{.:amber16.powereff.png}}  |
- 
- 
  
  • pandoc/introduction-to-vsc/09_special_hardware/accelerators.txt
  • Last modified: 2024/06/06 21:50
  • by goldenberg