- De
- En
Über HPC
High Performance Computing (HPC) wird im Alltag immer präsenter; und das schon seit vielen Jahrzehnten. HPC-Anwendungen haben in zahlreichen wissenschaftlichen Bereichen herkömmliche Methoden verdrängt, da es Forschern und Ingenieuren ermöglicht, mehr Erkenntnisse in kürzerer Zeit zu gewinnen. Und buchstäblich jeder profitiert von den Errungenschaften der HPC-Community.
Enormer Bedarf an Rechenleistung 🔗
Bei den auf Supercomputern ausgeführten Anwendungen handelt es sich traditionell um komplexe Gleichungssysteme. Der angestrebte Detailgrad erfordert die parallele Ausführung von mehreren komplexen Berechnungen, hat einen großen Speicherbedarf oder beides.
Eines der eindrucksvollsten Beispiele ist die Wettervorhersage: Diese muss vor dem Eintreffen des Wetters erfolgen, in der Regel schneller als 24 Stunden. Je mehr Details berücksichtigt werden können, desto genauer kann die Vorhersage sein. Dies gilt auch für das Krisenmanagement und die Klimaforschung. Um genau zu berechnen, wo das Hochwasser oder die Überflutung erwartet wird, müssen Milliarden von Berechnungen in kürzester Zeit durchgeführt werden.
Genaue Kenntnisse des modellierten Problems, der Berechnungsmethoden und der zugrundeliegenden Hardware sind notwendig, um effizientere Lösungen zu finden.
High-Performance Computing 🔗
Um diese rechenintensiven Probleme effizient zu lösen, benötigen wir:
- leistungsstarke Hardware: Tausende von Multicore-Recheneinheiten, die mit ausgeklügelten Topologien miteinander verbunden sind
- Software, die auf die zugrunde liegende Hardware zugeschnitten ist oder je nach Anwendungsfall: auf die Anwendungen abgestimmte Systeme
- an die zugrundeliegende Hardware angepasste Kommunikationsmuster
- effiziente Nutzung der Hardware durch Planung der Ressourcen
- Nutzer-Support und Beratung, um maßgeschneiderte Lösungen für die Nutzer und ihre rechenintensiven Probleme zu finden
Neben der Hardware benötigen wir auch geeignete Software, viel technisches Know-How und Fachwissen. Die AG Computing der GWDG setzt sich daher aus Spezialist*innen aus ganz unterschiedlichen Bereichen zusammen: Informatiker*innen, Physiker*inen, Mathematiker*innen, Chemiker*innen, Wirtschaftswissenschaftler*innen und natürlich HPC-Expert*innen.
Dienstleistungen der GWDG 🔗
Die GWDG bietet Forschern seit vielen Jahren Lösungen für ihre Berechnungsprobleme an:
- den Scientific Compute Cluster, ein universelles Allzweck-Rechnersystem, das allen Forschern der Universität Göttingen und der Max-Planck-Gesellschaft zur Verfügung steht
- die sehr leistungsfähigen Systeme Emmy als nationales Hochleistungsrechenzentrum (NHR) und CARO für das Deutsche Zentrum für Luft- und Raumfahrt (DLR)
- spezialisierte Systeme für Campus-Institute
- spezialisierte Software in einem Modulsystem
- ein hoch angepasstes Batch-System, und
- einen umfassenden Support für alle Systeme
Betrieb und Wartung dieser Systeme, BenutzerunterstützungNutzer-Support und Anwenderschulungen sind Hauptaufgaben der AG Computing bei der GWDG. Darüber hinaus forschen wir um die Nutzer dabei zu unterstützen, die Berechnungen effizienter zu machen. Diese Forschung umfasst die Optimierung von Benutzeranwendungen oder Code sowie allgemeinere HPC-bezogene Forschung, um die Benutzererfahrung zu verbessern und HPC einem breiteren Publikum zugänglich zu machen. Wir ermutigen Student*innen dazu, in unserem Team Ihre Abschlussarbeiten zu schreiben oder an Projekten teilzunehmen.
Forschung unserer Nutzer*innen 🔗
Die Forschung unserer Nutzer*innen umfasst ein breites Spektrum. Die verschiedenen Forschungsbereiche und Projekte der HLRN-Nutzer*innen sind auf den HLRN Seiten aufgelistet und Projektberichte werden alle vier Jahre veröffentlicht.
Aktuelle Projekte befassen sich u. a. mit großen Bedrohungen für unsere Gesellschaft, wie das Sterben der Wälder. Sie sind als Sauerstofflieferanten und als Ausgleichssysteme für Feuchtigkeit und Temperatur von grundlegender Bedeutung für unser Klima. Der Schutz unserer Wälder ist daher eine gesamtgesellschaftliche Aufgabe. Neueste künstliche Intelligenz Technologie hilft uns bei der Entwicklung von Strategien für gesündere Wälder in der Zukunft.
Einer der Forschungsschwerpunkte des DLR ist die Berechnung aerodynamischer Strömungen. Die Rechenkapazitäten von HPC-Systemen erlauben es den Forschern komplexe strömungsdynamische Gleichungen in einem Zeitrahmen zu lösen, der es erlaubt, mehrere Durchläufe auf verschiedenen Designs abzuschließen, bevor der beste Kandidat modelliert und in einem Windkanal analysiert wird. Je mehr Berechnungskapazitäten zur Verfügung stehen, desto höher die mögliche Detailtiefe.
Andere Beispiele für rechenintensive Probleme, die massiv von HPC Ressourcen profitieren, sind die Entwicklung von Medikamenten, bei der biologische Prozesse modelliert und simuliert werden, bevor sie in klinische Studien gehen, um diese für die Probanden sicherer zu machen oder auch der Genomik. Alle oben genannten Beispiele sind Anwendungsfälle von Nutzern auf von der GWDG gehosteten Systemen. Für unsere Nutzer von der Universität Göttingen, der Max-Planck-Gesellschaft, dem DLR oder einer anderen öffentlichen Forschungseinrichtung in Norddeutschland, betreiben wir drei verschiedene Systeme: das Scientific Compute Cluster, Emmy als NHR-System und das DLR System CARO.