Direkt zum Inhalt
Kontakt
Teilen

Kontakt

Sie haben Fragen, Wünsche oder Anregungen?
Kontaktieren Sie uns, wir helfen Ihnen gerne weiter.

News 29.01.2019

Supercomputing: Große Datenmengen ohne Flaschenhals

Fraunhofer SCAI entwickelt geeignete Datenanalyse in europäischem Kompetenzzentrum

In den nächsten Jahren wird mit einer weiteren Steigerung der Leistungsfähigkeit von Supercomputern gerechnet. Sogenannte Exascale-Computer können dann genauere Simulationsergebnisse liefern. Für die dabei entstehenden deutlich größeren Datenmengen entwickeln Wissenschaftler des Fraunhofer-Instituts für Algorithmen und Wissenschaftliches Rechnen SCAI effiziente Datenanalyse-Methoden, die Ingenieuren zudem detaillierte Einblicke in die komplexen technischen Zusammenhänge gewähren.

Fraunhofer SCAI arbeitet im neugegründeten „Kompetenzzentrum der Europäischen Union für Ingenieuranwendungen“ – EXCELLERAT – zusammen mit dreizehn Partnern aus sieben europäischen Ländern. Ziel ist es, die neuen Möglichkeiten des Supercomputings bestmöglich zu nutzen und so die Wettbewerbsfähigkeit von Europa in diesem Bereich zu stärken. Da mit Hilfe von EXCELLERAT auch der Einsatz von Supercomputing im industriellen Umfeld erweitert werden soll, optimieren die Beteiligten die Codes anhand von zwölf Anwendungsbeispielen aus der Industrie. 

Simulationen auf Supercomputern beantworten wichtige Fragestellungen der Industrie, beispielsweise wie sich Luftströmungen in Klimaanlagen, an Rotorblättern oder ganzen Flugzeugen verhalten. Durch neue Ansätze im Hardware-Design werden in den kommenden Jahren Rechner mit einer Leistung von einer Trillion Rechenoperationen pro Sekunde zur Verfügung stehen. Sogenannte Exascale-Computer haben eine tausendfach höhere Rechengeschwindigkeit als bisherige Supercomputer und können dadurch komplexe, derzeit als unlösbar geltende Probleme bewältigen. Zudem liefern sie genauere Ergebnisse und damit wirtschaftlichere Lösungen für industrielle Aufgabenstellungen. Exascale-Simulationen erzeugen allerdings auch erheblich größere Datenmengen.

Diesem Problem haben sich die Wissenschaftler angenommen. Sie entwickeln Verfahren, die die Datenanalyse bereits während der Simulation durchführen. Das minimiert Speicherbedarf und Rechenzeit. In den nächsten drei Jahren befassen sich die Mitglieder des Kompetenzzentrums mit sechs ausgewählten Programmcodes und dazugehörigen Arbeitsabläufen, wie Datenanalyse, -management und -visualisierung. Neben dem effizienten Umgang mit großen Datenmengen steht die Skalierbarkeit der Codes im Fokus des Vorhabens. Skalierbarkeit bedeutet, dass die Programme sowohl auf Laptops als auch auf Exascale-Computern effizient arbeiten.

Weitere Informationen finden Sie hier.

Bleiben Sie informiert über die Vielfalt der digitalen Transformation in NRW.

Jetzt Wissensvorsprung sichern