Die ZECM stellt Wissenschaftler*innen einen Hochleistungsrechner-/Speicherkomplex (HPC Cluster) mit einer Spitzenleistung von über 348 Billionen Rechenoperationen pro Sekunde.zur Verfügung.
Der HPC-Cluster der ZECM verfügt über etwa 3800 CPU-Kerne und 46 GPUs für eine Spitzenleistung von über 348 Billionen Rechenoperationen pro Sekunde. Die für das datenintensive Rechnen maßgeschneiderte Architektur bietet ideale Voraussetzungen, um während der geplanten Betriebszeit die hoch gesteckten Forschungsziele der Anwender/-innen zu erreichen.
Für den Clusterzugang ist je Einrichtung (Fachgebiet) von den entsprechenden Rolleninhabern ein Team anzulegen, in dem alle Berechtigungen gepflegt werden. Für das Team muss die Gruppenfunktion aktiviert werden. Nach der Rückmeldung des Teamnamens an Michael Flachsel werden die im Team enthaltenen Personen in die SLURM-Datenbank eingetragen.
Der Login zum Cluster erfolgt mittels SSH über die beiden Frontends (frontend-01 und frontend-02). Dazu wird die virtuelle Addresse gateway.hpc.tu-berlin.de verwendet. Diese Addresse ist aus den Subnetzen der TU Berlin erreichbar. Zur Authentifizierung (Benutzername/Passwort) wird der TUB-Account verwendet.
Microsoft Windows benötigt ein Zusatzprogramm um auf den Cluster zuzugreifen, zum Beispiel Putty oder MoabTerm. Linux Systeme beherrschen den Zugriff nativ mittels SSH. Innerhalb der TUB-Netze ist der Login wie folgt möglich: ssh [TUB-Kontoname]@gateway.hpc.tu-berlin.de
Außerhalb der TUB-Netze muss zuerst die Verbindung über einen VPN-Tunnel hergestellt oder der SSH-Jumphost verwendet werden. Wie Sie ein VPN (Virtual Private Network) einrichten wird Ihnen hier erklärt. Auf den Jumphost können Sie mit ssh [TUB-Kontoname]@sshgate.tu-berlin.de zugreifen. Von dort ist wiederum eine SSH-Verbindung mit dem Gateway (s.o.) möglich.
Zugriff auf den Cluster-Speicherplatz (BeeGFS), wo auch die eigenen Dateien liegen, ist mit scp oder rsync möglich (Unix-basierte Systeme), Windows-Systeme benötigen zusätzliche Software, die mit dem SCP-/SSH-Protokoll arbeiten können. Damit können die Dateien z.B. direkt auf dem eigenen Rechner, oder von dort zum Cluster, kopiert werden. Für den direkten Zugriff, also ohne eine Kopie anfertigen zu müssen, lässt sich sshfs verwenden.
Anzahl | Art | CPU | # | Speicher | GPU | # |
---|---|---|---|---|---|---|
132 | Standard | Xeon E5-2630v4 | 2 | 256 GiB | - | |
20 | GPU | Xeon E5-2630v4 | 2 | 512 GiB | Tesla P100 | 2 |
1 | Nachgerüstet | Xeon E5-2630v4 | 2 | 256 GiB | Tesla P100 | 2 |
26 | Nachrüstbar | Xeon E5-2630v4 | 2 | 256 GiB | - | |
1 | SMP | Xeon E7-4850v4 | 4 | 3 TiB | - | |
2 | SMP-GPU | Xeon E7-4850v4 | 4 | 3 TiB | Tesla P100 | 2 |
Anzahl Server | Festplatten je Server | Festplatten-größe | Speicherplatz (gesamt) | Speicherplatz (nutzbar) |
---|---|---|---|---|
4 | 60 | 6 TB | 1440 TB | 1037 TB |
CPU | Taktfrequenz | Cores | Threads/Core | FLOP/Takt |
---|---|---|---|---|
Intel Xeon E5-2630v4 | 2.2 GHz | 10 | 2 | DP/SP: 16/32 |
Intel Xeon E7-4850v4 | 2.1 Ghz | 16 | 2 | DP/SP: 16/32 |