Fakultät Informatik

Extreme Scaling

Skalierbarkeit ist eine essentiell wichtige Eigenschaft von Algorithmen und Lösungen und zugleich eine wesentliche Herausforderung in der Informatik und bei wissenschaftlichen Berechnungen. In immer mehr Disziplinen bestimmt die Fähigkeit zu einem rechnerischen „größer ist besser“ das Tempo von Erkenntnis und Innovation. Daher werden dringend effiziente Methoden gebraucht, die komplexe Probleme behandeln und riesige Datenmengen mit komplexer Software- und riesigen Computersystemen bewältigen: „to out-compute is to out-compete“.

 Extreme Skalierbarkeit umfasst somit verschiedene Gebiete der Informatik und verlangt nach innovativen, vielfach disruptiven Ansätzen. Künftige Supercomputer werden aus Milliarden von Rechenkernen bestehen, die in komplexen und heterogenen Hierarchien angeordnet sind. Leistungsstarke Netzwerktechnologien (innerhalb und zwischen Systemen) werden erforderlich sein, mit Milliarden von Komponenten und Sensoren, die zu einem Internet der Dinge verbunden sind. Es gilt, Programmiermodelle und -werkzeuge zu entwickeln, welche die Anwendungsentwickler beim Schreiben effizienter Software unterstützen. Zukunftstaugliche, hoch effiziente (asynchrone) Algorithmen müssen ungewollten Datentransfer und Kommunikation vermeiden und gelegentliche Hardwarefehler bewältigen. Energieeffizienz wird ein Leitprinzip für das Design von Systemen, Algorithmen und Infrastruktur sein.

Algorithmen und Applikationen müssen daher neu konzipiert und für ihren Einsatz zur massiven Parallelisierung überarbeitet werden. Rechenzentren stehen künftig einer größeren Anzahl von Betriebsmodellen gegenüber – von der klassischen Stapelverarbeitung hin zu interaktivem Rechnen und Urgent Computing. Egal ob klassische Rechenzentren (mit Hochleistungsrechnen als Hauptaufgabe) und Datenzentren (mit Hochleistungsdatenanalyse als Hauptaufgabe) ineinander übergehen oder getrennte Wege verfolgen – Extreme Scaling ist ihre gemeinsame Herausforderung. Die Verwaltung, Speicherung, Analyse, Fusion sowie die Verarbeitung und Visualisierung riesiger Datenmengen – seien es Forschungsdaten, die von Simulationen oder Experimenten herrühren, oder Daten, die aus Sensoren, sozialen Netzwerken oder Unternehmen stammen – werden der Schlüssel zu einer aufstrebenden datenbestimmten Wissenschaft, Wirtschaft und Gesellschaft sein.

Extreme Skalierbarkeit öffnet die Tür zu Exascale Computing und Big Data, weil sie immer größer werdende Probleme beherrschbar macht .

Wissenschaftler/innen

  • Prof. Michael Bader
  • Prof. Arndt Bode
  • Prof. Hans-Joachim Bungartz
  • Prof. Daniel Cremers
  • Prof. Claudia Eckert
  • Prof. Michael Gerndt
  • Prof. Stephan Günnemann
  • Prof. Thomas Huckle
  • Prof. Alfons Kemper
  • Prof. Bjoern Menze
  • Prof. Thomas Neumann
  • Prof. Jörg Ott
  • Prof. Burkhard Rost
  • Prof. Nils Thuerey

Exemplarische Projekte

SuperMUC

SeisSol ist ein extrem skalierbarer Simulationscode für Erdbebenszenarien, der insbesondere die dynamischen Bruchprozesse detailreich simuliert. SeisSol wurde für mehrere der derzeit größten Supercomputer der Welt optimiert. Mittels automatischer  Codegenerierung wurde die Rechenleistung je Prozessor maßgeblich verbessert. Weitere algorithmische Verbesserungen beschleunigten die Laufzeit um einen Faktor 20 und erlauben Simulation von um ca. einen Faktor 100 größeren Problemen auf dem Höchstleistungsrechner SuperMUC des LRZ.

SPPEXA

Das DFG-Schwerpunktprogramm (SPP) SPPEXA unterscheidet sich von anderen SPP im Hinblick auf seine Entstehung, seinen Umfang, seine Finanzierung über den DFG Strategie-Fonds, den Umfang der beteiligten Disziplinen und hinsichtlich einer klaren Orientierung der Strategie in Richtung einer Reihe zeitkritischer Ziele. Trotz seiner verteilten Struktur ähnelt SPPEXA deshalb weitgehend einem gemeinsamen Forschungszentrum. Seine erfolgreiche Durchführung und Weiterentwicklung wird mehr und mehr intensive strukturelle Maßnahmen erfordern. Das Koordinationsprojekt umfasst alle vorgesehenen SPPEXA-weiten Aktivitäten, inklusive Lenkung und Koordination, interne und internationale Zusammenarbeit und Vernetzung sowie Ausbildungsaktivitäten.

Invasive Computing

Der Transregio-Sonderforschungsbereich Invasives Rechnen (TCRC 89) untersucht das dynamische Ressourcen-Management für invasive Anwendungen auf hoch parallelen Multicore-Prozessoren bis hin zu neuesten Supercomputern. Ziel ist eine optimierte Ausführung und Ressourcennutzung bei gleichzeitig hoher Vorhersagbarkeit. Beim Hochleistungsrechnen wird diese Forschung zur Weiterentwicklung von Anwendungen führen, die auf MPI und OpenMP basieren sowie zu einem Ressourcen-Management auf Systemebene, das die aktuellen statischen Verfahren ersetzt.

 Mehr dazu

READEX

Das Ziel des „European Horizon 2020“- Projekts READEX ist das dynamische „Tunen“ der von HPC-Anwendungen verbrauchten Energie. Das Projekt soll die Tuning-Software Periscope (periscope.in.tum.de) erweitern, die an der TUM analog zu einem szenarienbasierten Ansatz aus dem Bereich der eingebetteten Systeme entwickelt wurde. Die Dynamik von Anwendung wird durch den dynamischen Wechsel zwischen vorab berechneten effizienten Systemkonfigurationen unterstützt.

 Mehr dazu