This version (2020/10/20 09:13) is a draft.
Approvals: 0/1

VSC-3

  • Installation Sommer 2014 durch ClusterVision
  • 2020 Nodes
    • 2x Intel Xeon E5-2650v2, 2.6 GHz, 8 Cores
    • 64 GB Ram
    • 2x Infiniband QDR (40 GBit/s)
    • Ölgekühlt
  • 39 Storage Server
    • 9 Server für Home Filesysteme
    • 8 Server für paralleles Global/Scratch Filesystem
    • 16 Server für parallele Bioinformatik Filesysteme
    • 2 Server für GPFS
    • 4 Server für Testing

Parallele Dateisysteme am VSC-3

  • Home Verzeichnisse
    • NFS mounts via Infiniband QDR
  • BeeGFS
    • Geteiltes Filesystem für alle User
    • Mehrere Targets/Server (GLOBAL, BINF)
  • IBM GPFS
    • Kooperation mit EODC (https://www.eodc.eu)
    • Remote Cluster für EODC Filesysteme

BeeGFS (1/2)

  • Erstellt vom Fraunhofer Center for High Performance Computing / ThinkparQ
    • Ease of Use
    • Performance
    • Scalability
    • Aufteilung Management / Metadaten / Daten
    • Management Server
      • Verbindung der Nodes
      • Handling von Quotas
    • Metadaten Server
      • Speichern Metadaten
      • Root Metadaten Server
      • Metadaten Mirroring möglich
      • Benötigen Filesystem (Typischerweise ext4)
        • Idealerweise auf schnellen SSDs

BeeGFS (2/2)

  • Storage Server
    • Speichern Daten
    • Mirroring möglich
    • Benötigen Filesystem (Oftmals xfs)
  • Monitoring
    • BeeGFS-Admon daemon
    • Command-Line tool
    • Graphisches tool (Java)

Setup am VSC-3 (1/2)

  • 8x Storage Server für Global/Scratch Filesystem
    • Intel Xeon E5-1620 v2, 4 Cores / 8 Threads, 3.70 GHz
    • 128 GB Ram
    • 48x Toshiba 2 TB SAS Disks (MG03SCA200)
      • Arrangiert in vier Raid6 Arrays zu je 12 Disks
      • LSI SAS2208 Controller
    • 2x Samsung 240 GB SSDs (MZ7WD240)
      • Raid 1 (Linux Software Raid)
    • 2x Infiniband QDR Controller (40 GBit/s)
    • RDMA
    • Provisionierung der Betriebssysteme In-Memory
      • Mittels Bright Cluster Manager
    • CentOS 7.4
    • Projekt-Quotas
    • 384 Disks
    • ~0.5 PiB Space
    • ~20 GiB/s Durchsatz

VSC - Fileserver

fileserver.jpg

Setup am VSC-3 (2/2)

  • 16x Storage Server für Bioinformatik Filesystem
    • Computing auf den Knoten möglich
    • 2x Intel Xeon E5-2690 v4, 14 Cores / 28 Threads, 2.60GHz
    • 0.5TB - 1.5TB Ram
    • 12x Seagate 8 TB SAS Disks (ST8000NM0075)
      • 1 Raid6 Array an LSI SAS-3 3108 Controller
    • 4x Intel DC P3600 SSDs
      • 1 Raid10 (Linux Software Raid)
    • 1x Infiniband QDR Controller (40 GBit/s)
    • 1x Intel Omnipath Controller (100 GBit/s)
    • RDMA
    • Provisionierung der Betriebssysteme In-Memory
      • Mittels Bright Cluster Manager
    • CentOS 7.2
      • Projekt-Quotas
      • 192 Disks
      • 64 SSDs
      • ~1.1 PiB Space (100 TiB auf SSDs)
      • ~80 GiB/s Durchsatz

VSC3 - Bioinformatics

binf.jpg

Storage Performance

Erfahrungen

  • Bugs?
    • Ja, speziell bei neuen Features
  • Support?
    • Exzellent
  • Bedienung?
    • Relativ einfach mittels beegfs-ctl und Installations-Skripts
    • Läuft problemlos auf provisionierten in-memory images
  • Tipps?
    • Metadaten Targets groß genug wählen
    • Beim Einsatz neuer Features diese zuerst Testen ;)
    • Kein automatisches rebalancing beim Hinzufügen neuer Targets (manuell möglich)
    • Viel Ram
    • Kein Random I/O

IBM GPFS

  • General Purpose Filesystem
    • Früher Multimedia Filesystem
    • Linux Support seit 1999
    • Storage Pools
    • Cluster Export Services
      • Hadoop
  • Features
    • Striping
    • n-way Replication
    • Raid (Spectrum Scale Raid)
      • Fast Rebuild
  • In vielen TOP500 Systemen im Einsatz
    • SuperMUC / München
    • Juron, Julia / Jülich

GPFS @ EODC

  • EODC - Earth Observation Data Center for Water Resources Monitoring
    • Processing Large Volumes of EO Data
    • Sentinel Satellitendaten
  • Viele Petabytes
  • IBM ESS (Elastic Storage Server)
  • Building Blocks
  • Skalierbar
  • 2xESS
  • 4 Server
  • TS4500 Tape Library
  • TSM
  • Muti-Tiered (IBM HSM)
  • Dateien mit ältestem zugriffsdatum kommen auf Tape
  • Bei Zugriff auf Stub File wird die Datei wieder vcon Tape auf Disk geholt
  • Schedules, Callbacks, Migration Control, etc…

GPFS Server @ VSC-3

  • Verbindung mittels Infiniband QDR
    • 2 Management Server für Remote Cluster
      • Tie-Breaker Disk an dritter Maschine für Quorum
    • Keine Filesysteme / Keine Disks (nur Remote FS von EODC)
    • GPFS 4.2.0
    • 12 Infiniband QDR Links
    • 500 Client Lizenzen
    • ~40GiB/s Durchsatz

Erfahrungen

  • IBM typisch manchmal archaische Programme
    • Aber an sich Ok
  • Integration in bestehende Systeme
  • mmdsh als integrierte verteilte shell
  • Nettes GUI / Monitoring

Ende

  • Danke für die Aufmerksamkeit
  • pandoc/arge_storage/04_parallel_filesystems_on_vsc3/parallel_filesystems_on_vsc3_german.txt
  • Last modified: 2020/10/20 09:13
  • by pandoc