Die Fragestellungen an unsere Welt werden immer komplexer. Um sich den Antworten anzunähern, spielen computerbasierte Berechnungen eine zentrale Rolle. Sie ermöglichen zum Beispiel umfangreiche Klimasimulationen, die neben dem Zustand der Atmosphäre, auch die Entwicklung in den Ozeanen sowie physikalische Effekte auf dem Land berücksichtigen. Weitere wichtige Felder in denen Computermodelle zur Anwendung kommen sind die Herstellung von Medikamenten, die Entwicklung elektrischer Motoren oder auch die bessere Behandlung von Herzkrankheiten. Um dabei umfassende und genaue Erkenntnisse zu gewinnen, forschen Wissenschaftler der Technischen Universität Hamburg gemeinsam mit weiteren europäischen Partnern an Algorithmen für zukünftige Hochleistungsrechner.
In kleinere Probleme zerlegen
Die Entwicklung von Exascale-Hochleistungsrechnern läuft weltweit auf Hochtouren. Mit über 100 Millionen Rechenkernen und einem schnellen Datentransfer sollen damit künftig über eine Trillion Berechnungen pro Sekunde möglich sein. Ein normaler Bürorechner hat zum Vergleich nur einen Prozessor mit vier Rechenkernen. „Wir versuchen Simulationen, beispielsweise für das Klima, in immer kleinere Einzelprobleme zu zerlegen“, erklärt Daniel Ruprecht, Mathematik-Professor an der TU Hamburg. Das sei nötig, um die gesamte Rechenleistung eines Exascale-Supercomputers nutzen zu können. „Mit Hilfe von Algorithmen wollen wir die Einzelprobleme dann räumlich und zeitlich parallel sowie größtenteils unabhängig voneinander berechnen“, sagt der Mathematiker zum Vorhaben des EU-Projekts.
Verlorene Daten wiederherstellen
Während der monatelangen Berechnung auf über 100 Millionen Prozessoren sind technische Störungen nicht auszuschließen. Damit ein Hardware-Ausfall nicht dazu führt, eine Klimasimulation von vorne beginnen zu müssen, forschen Ruprecht und sein Team an der Rekonstruktion verlorener Daten. „Wir wollen Algorithmen entwickeln, die in einer solchen Situation einfach weiter rechnen“, sagt Ruprecht. Ziel ist es, dass sich die Algorithmen den verlorenen Informationen über benachbart ablaufende Berechnungen annähern. „Mit Hilfe von mathematischen Analysen wollen wir anschließend beweisen, dass Algorithmen mit dieser Methode zum selben Ergebnis kommen, trotz Datenverlust“, so der Wissenschaftler weiter.
Datenaustausch verkleinern und Energie einsparen
Neben technischen Störungen ist die größte Herausforderung beim Bau eines Exascale-Hochleistungsrechners der hohe Energieverbrauch. „Mit derzeitiger Technik wäre das vergleichbar mit einem kleinen Kernkraftwerk“, gibt der TU-Mathematiker zu bedenken. Um den Energieverbrauch und die Kosten möglichst gering zu halten, arbeiten die TU-Forschenden an der Kompression von Datenmengen. „Auch hier müssen wir ein Verfahren entwickeln, das mit einer ungenauen Datenlage umgehen kann. Ganz ähnlich wie bei verloren gegangenen Daten soll der Einfluss auf das Endergebnis möglichst klein und mathematisch kontrollierbar bleiben“, erklärt Ruprecht.
Das Projekt „TIME parallelisation for eXascale computing and beyond“ wird vom EU Joint Undertaking „Euro-HPC“ und nationalen Partnern mit insgesamt über drei Millionen Euro bis 2024 finanziert. Für das deutsche Konsortium übernimmt das Bundesministerium für Bildung und Forschung (BMBF) die nationale Koförderung. Neben der TU Hamburg sind neun weitere Universitäten und wissenschaftliche Einrichtungen aus Belgien, Deutschland, der Schweiz und Frankreich beteiligt.
Weitere Informationen unter https://www.timex-eurohpc.eu/