AG Wissenschaftliches Rechnen / HPC

Thüringen ist Heimat vieler Forschungsstandorte mit internationalem Renommee. Für den langfristigen Erfolg ist ein direkter Zugang zu Hochleistungstechnologien für das Wissenschaftliche Rechnen und den BigData-Wissenschaften unabdingbar.

Die Arbeitsgruppe Wissenschaftliches Rechnen/HPC möchte eine hochschulübergreifende Versorgung mit HPC-Technologien gewährleisten und damit alle Forschungsstandorte in Thüringen stärken und weiter ausbauen.

Neben dem Management, der Dokumentation und dem bedarfsorientierten Ausbau der vorhandenen HPC Infrastruktur, gewährleisten die Mitglieder der Arbeitsgruppe eine kompetente Beratung und das Training von NachwuchswissenschaftlerInnen, die Hochleistungsrechner für die Forschung einsetzen möchten. Zusätzlich wird die Beschaffung und die Betreuung aktueller wissenschaftlicher Software koordiniert.

Ansprechpartner

Dr. André Sternbeck (Friedrich-Schiller-Universität Jena)
+49 3641 9404-543
E-Mail senden
www.uni-jena.de/urz

Henning Schwanbeck (TU Ilmenau)
+49 3677 69-1214
E-Mail senden
www.tu-ilmenau.de/hpc

Simon Marwitz  (BU Weimar)
+49 3643 58-4509
E-Mail senden
www.uni-weimar.de/ism

TU Ilmenau - HPC Cluster "MaPaCC 5"

Der Massiv Parallele Compute Cluster MaPaCC in der 5. Generation  wurde im Jahr 2017 in Betrieb genommen und steht den Nutzern aller Thür. Hochschuleinrichtungen mit folgender Hardwareausstattung zur Verfügung:

  • 100 Computeknoten mit 2500 CPU Cores und 20 Terabyte Hauptspeicher
  • insgesamt 1000 Terabyte Storage
  • 34 GPU Nvidia A100
  • 9 Visualisierungsknoten; 5 HighMem Knoten (2 TB Arbeitsspeicher/Knoten)

Weitere Infos ...

FSU Jena - HPC Cluster "Draco"

Das Universitätsrechenzentrum der FSU Jena bietet Ihnen die Möglichkeit für rechenintensive Aufgaben die Ressourcen des neuen HPC-Clusters "Draco" zu nutzen. Das Basissystem wurde im Juni 2021 Betrieb genommen und 2022 stark ausgebaut. Aktuell bietet der HPC-Cluster folgende Ressourcen:

  • 100 Computeknoten mit jeweils 48 CPU-Kernen und 256 GB Arbeitsspeicher
  • insgesamt 750 TB (BeeGFS) Storage
  • 3 GPU-Knoten mit insgesamt 12 GPU NVidia A100 GPUs
  • 4 Visualisierungsknoten für das interaktive Arbeiten
  • 1 HighMem Knoten mit 4 TB Arbeitsspeicher
  • zusätzliche Spezialknoten von Arbeitsgruppen

Weitere Infos ...