AG Wissenschaftliches Rechnen / HPC

Thüringen ist Heimat vieler Forschungsstandorte mit internationalem Renommee. Für den langfristigen Erfolg ist ein direkter Zugang zu Hochleistungstechnologien für das Wissenschaftliche Rechnen und den BigData-Wissenschaften unabdingbar.

Die Arbeitsgruppe Wissenschaftliches Rechnen/HPC möchte eine hochschulübergreifende Versorgung mit HPC-Technologien gewährleisten und damit alle Forschungsstandorte in Thüringen stärken und weiter ausbauen.

Neben dem Management, der Dokumentation und dem bedarfsorientierten Ausbau der vorhandenen HPC Infrastruktur, gewährleisten die Mitglieder der Arbeitsgruppe eine kompetente Beratung und das Training von NachwuchswissenschaftlerInnen, die Hochleistungsrechner für die Forschung einsetzen möchten. Zusätzlich wird die Beschaffung und die Betreuung aktueller wissenschaftlicher Software koordiniert.

Ansprechpartner

Dr. André Sternbeck (Friedrich-Schiller-Universität Jena)
+49 3641 9404-543
E-Mail senden
www.uni-jena.de/urz

Henning Schwanbeck (TU Ilmenau)
+49 3677 69-1214
E-Mail senden
www.tu-ilmenau.de/hpc

Simon Marwitz  (BU Weimar)
+49 3643 58-4509
E-Mail senden
www.uni-weimar.de/ism

TU Ilmenau - HPC Cluster "MaPaCC 5"

Der Massiv Parallele Compute Cluster MaPaCC in der 5. Generation  wurde im Jahr 2017 in Betrieb genommen und steht den Nutzern aller Thür. Hochschuleinrichtungen mit folgender Hardwareausstattung zur Verfügung:

  • 100 Computeknoten mit 2500 CPU Cores und 20 Terabyte Hauptspeicher
  • insgesamt 1000 Terabyte Storage
  • 34 GPU Nvidia A100
  • 9 Visualisierungsknoten; 5 HighMem Knoten (2 TB Arbeitsspeicher/Knoten)

Weitere Infos ...

FSU Jena - HPC Cluster "Draco"

Das Universitätsrechenzentrum der FSU Jena bietet Ihnen die Möglichkeit für rechenintensive Aufgaben die Ressourcen des HPC-Clusters "Draco" zu nutzen. Das Basissystem wurde im Juni 2021 Betrieb genommen und 2022/23 stark ausgebaut. Aktuell bietet der HPC-Cluster folgende Ressourcen:

  • 100 Rechenknoten mit jeweils 48 CPU-Kernen und 256 GB Arbeitsspeicher
  • 11 GPU-Knoten mit insgesamt 35 GPU NVidia A100 GPUs
  • 5 HighMem Knoten mit 2,3 bzw. 4 TB Arbeitsspeicher
  • 4 Visualisierungsknoten für das interaktive Arbeiten
  • ca. 1PB Speicherkapazität auf High-Performanz-Speichersystemen
  • zusätzliche Spezialknoten und Speichersysteme von Arbeitsgruppen

Weitere Infos ...