Inno4scale ist eine europäische Initiative, die die Entwicklung innovativer Algorithmen für Exascale-Supercomputer unterstützt, um deren effiziente Nutzung voll auszuschöpfen. Gegenwärtig existierende Codes für das Hochleistungsrechnen werden nicht in der Lage sein, auf den zukünftigen Exascale-Systemen effizient zu funktionieren. Daher wird das Projekt die Entwicklung von Anwendungen identifizieren und unterstützen, die das Potenzial haben, die neuen, kommenden EuroHPC-Exascale-Systeme voll auszunutzen. Das Fachgebiet CEM erforscht mit der KU Leuven Parallel-in-Time-Methoden.
Die magnetokalorische Kühltechnologie hat das Potential, die Energieeffizienz gegenüber konventioneller Gas-Dampf-Kompressor-Kühltechnologie um 40% zu steigern und zudem alle direkten Treibhausgasemissionen zu eliminieren. So könnten Klimaanlagen in Supermärkten, Büros, oder Industrieanlagen, die heute noch auf klimaschädliche Kältemittel angewiesen sind, ersetzt werden. MAGNOTHERM arbeitet an der kommerziellen Einführung der neuartigen magnetischen Kühltechnologie, die den magnetokalorischen Effekt gewisser Materialien, also die mit einer Magnetfeldänderung einhergehende Temperaturänderung, ausnutzt. Im Rahmen des LOEWE-Projektes OptiMag soll die Magnetquelle hinsichtlich ihrer Form und der Verteilung von Weicheisen, Permanentmagneten und magnetokalorischem Material optimiert werden, um die Effizienz zu erhöhen und die Kosten zu senken, und somit die Marktreife der magnetischen Kühlung entscheidend voranzutreiben. Das Projekt wird gemeinsam mit dem Lehrstuhl für Cyber-physical Simulation durchgeführt.
Die TU Darmstadt, die TU Graz und JKU/RICAM, Linz, forschen daran, wie elektrische Maschinen durch Computersimulation entscheidend verbessert werden können. Zu diesem Zweck wurde der erste deutsch-österreichische Sonderforschungsbereich/Transregio – TRR361/F90 – bewilligt. Die Deutsche Forschungsgemeinschaft (DFG) und der österreichische Wissenschaftsfonds (FWF) fördern den TRR „Computational Electrical Machine Laboratory“ mit insgesamt mehr als acht Millionen Euro. Das Projekt wird vom Fachgebiet CEM koordiniert.
In allen Beleuchtungsbereichen werden Garantie und Individualisierung zu wichtigen Merkmalen der Produktunterscheidung. Darüber hinaus wird die Integration von mehr Elektronik und Sensoren in Beleuchtungssysteme das verändern, was wir heute als Beleuchtung bezeichnen. Während die Konzepte der Digitalisierung und Industrie 4.0 in der Fertigungswelt schnell voranschreiten, wird in der Beleuchtungsindustrie das Front-End-Produktdesign immer noch mit traditionellen Simulationstechniken durchgeführt. Ein innovativer Ansatz besteht darin, digitale Zwillinge mit künstlicher Intelligenz zu kombinieren, um dem Ansatz „erst bauen und dann optimieren“ neue Möglichkeiten zu bieten. Das Hauptziel von AI-TWILIGHT ist es, die virtuelle und physische Welt zu verschmelzen, um den Weg für Innovationen in Bereichen zu ebnen, in denen die europäische Beleuchtungsindustrie wettbewerbsfähig sein kann. Selbstlernende multiphysiaklische digitale Zwillinge von Beleuchtungssystemen werden erforscht und zur Vorhersage von Leistung und Lebensdauer von Produkt- und Infrastrukturdesign und -management in einer autonomen Welt verwendet. Die Zwillinge werden werden in ausgewählten Anwendungsbereichen getestet, z.B. in der Automobil- und Gartenbauindustrie, sowie allgemeiner und Straßenbeleuchtung.
Die Software Bembel wird durch die deutsche Forschungsgemeinschaft im Programm zur nachhaltigen Nutzbarmachung von Forschungssoftware unterstützt. Das Programm hat zum Ziel, Forschungssoftware, die das Potenzial hat, deutlich über ihren ursprünglichen Kontext hinaus Verwendung in der Forschung zu finden, für die Wiederverwendung und eine mögliche Weiterentwicklung aufzuarbeiten sowie zur Qualitätssicherung durch eine fachliche Community zugänglich zu machen. Das Projekt orientiert sich an Best-Practice-Beispielen zur nutzerzentrierten Weiterentwicklung und zur communitybasierten Qualitätssicherung.
Das Projekt Time-X wird neue, parallelisierbare Algorithmen für zeitabhängige Simulationen entwickeln, die bisher aufgrund ihres immensen Rechenaufwandes nicht in einem angemessenen Zeitrahmen durchführbar waren. Diese Algorithmen ermöglichen eine Parallelisierung entlang der Zeitdimension für zeitabhängige Simulationen und diese werden in Software-Bibliotheken bereitgestellt. Dies ist ein notwendiger Schritt um die Rechenkraft zukünftiger Höchstleistungsrechner im und jenseits des Exascale Bereichs effizient für modellbasierte Vorhersagen nutzen zu können. Durch den immer größer werdenden Bedarf an Simulationen gerade auch in der industriellen Anwendung werden diese neuen Algorithmen auch in der Wirtschaft eine wichtige Rolle spielen.
NHR4CES (National High Performance Computing Center for Computational Engineering Sciences) ist Teil des Verbunds für Nationales Höchstleistungsrechnen (NHR). Ziel des NHR ist es, Wissenschaftlern an deutschen Universitäten die für ihre Forschung benötigte Rechenkapazität zur Verfügung zu stellen und ihre Fähigkeiten zur effizienten Nutzung dieser Ressource zu stärken.
In NHR4CES schließen sich die RWTH Aachen und die Technische Universität Darmstadt zusammen, um ihre Stärken bei HPC-Anwendungen, Algorithmen und Methoden sowie der effizienten Nutzung von HPC-Hardware zu kombinieren. Unser Ziel ist es, ein Ökosystem zu schaffen, das bewährte Verfahren des HPC und des Forschungsdatenmanagements kombiniert, um Fragen zu adressieren, die für technische Entwicklungen in Wirtschaft und Gesellschaft von zentraler Bedeutung sind.
Dieses Projekt schlägt die Simulation elektrischer Maschinen mit einer speziellen Spline- bzw. NURBS-basierten Variante der finiten Elementen vor, der sogenannten isogeometrischen Analyse. Dieser neuartige Ansatz verspricht genaue Lösungen mit wenigen Freiheitsgeraden und erlaubt durch die Spline-Parametrisierung elegant Geometrieänderungen abzubilden, z.B. im Rahmen von Unsicherheitsquantifizierung und Formoptimierung einer Maschine.Die Bewegung des Rotors wird mittels Mortaring im Rahmen einer Sattelpunktsformulierung umgesetzt. Es werden neuartige Ansätze mit Splines und Spektralelementen vorgeschlagen, sowie feldtheoretisch und praktisch untersucht.
Folienwicklungen wird zunehmend in elektrischen Energieumwandlern eingesetzt, wegen ihrer hohen Füllfaktor, niedrigen DC-Widerstandes und vorteilhafter thermischen Eigenschaften. Folienwicklungen weisen aber wegen einer eindimensionalen Umverteilung der Ströme in Richtung der Folienspitzen, ein spezifisches Wirbelstromeffekt, und wegen der dünnen Isolationsschichten, eine vergleichsweise hohe verteilte Kapazität zwischen den Wicklungen, auf. Heutzutage ist eine ausreichend genaue Simulation nur mittels dreidimensionalen Finite-Elemente-Modelle, in den alle geometrischen Details der Folienwicklung aufgelöst werden, möglich. Die unbeherrschbare Größe der resultierenden Gesamtmodelle verhindert eine weitere Verbesserung von Folienwicklungen in gegenwärtigen elektrotechnischen Entwürfen. Das Ergebnis dieses Forschungsvorhabens wird ein Finite-Elemente-Modellierung für Folienwicklungen sein, bei der die entsprechende Wirbelstrom-, kapazitive und thermische Effekte mit einer rechnerischen Kost vergleichbar mit der für herkommliche Drahtwicklungen modelliert und simuliert werden können. Dieses Ziel wird durch eine geschickte Kombination von analytischen und numerischen Homogenisierungsansätze, eine geeignete hybride Finite-Elemente, Spektral-Elemente-Diskretisierung, fehlergesteuerte Gitterverfeinerung, Feld-Netzwerk-Kopplung und Multiraten-Zeitintegration erreicht. Die Performanz und Zuverlässigkeit der entwickelten numerischen Methoden werden anhand Folienwicklungen für Maschinen, einer Transformer mit Folienwicklungen und eines Kondensators mit metallischer Folie gezeigt.
Um in Zukunft an neuen und im Bau befindlichen Teilchenbeschleunigern die geforderten Intensitäten und Energien zu erreichen, werden neue und bessere Diagnosegeräte und -methoden benötigt. Die steigenden Anforderungen können nur mit deutlich verbesserten Geräten, neuartigen Messprinzipien, und einem vertieften Verständnis der physikalischen Abläufe erfüllt werden. Dazu gehören Prinzipien für die Messung kleinster Teilchenströme, die Messung kürzester Teilchenpakete, die Druckmessung im kryogenen Strukturen, Strahlprofilmessungen mit möglichst wenig Impakt und/oder Kosten und die sichere aber auf Anlagenverfügbarkeit optimierte Detektion von Quenchen. In allen Teilprojekten gibt es als Herausforderungen, die Steigerung der Messgenauigkeit und Zuverlässigkeit der Diagnose, die Unterdrückung vom Rauschen, die Erweiterung des Einsatzbereichs, die Senkung der Investitions- und Betriebskosten und die Verbesserung der Anlagenverfügbarkeit.
Im Verbund DIAGNOSE werden die Diagnose des Teilchenstrahls und die Überwachung von Beschleunigerkomponenten speziell bei FAIR (GSI) und bei HL-LHC (CERN) weiter- und zum Teil neuentwickelt. Die anstehenden Arbeiten sind von entscheidender Bedeutung für einen effizienten, performanten und zuverlässigen Betrieb dieser Forschungsanlagen.
Das Forschungsvorhaben Parallele und explizite Verfahren für die Simulation von Wirbelstromproblemen setzt die in den DFG-Sachmittelbeihilfen CL1431/1-1 und SCHO1562/1-1 geförderten Vorarbeiten der Antragsteller fort. Ziel des Forschungsvorhabens ist es numerisch effiziente parallele Algorithmen für die Berechnung von Wirbelstromproblemen zu entwickeln, die besonders gut geeignet sind für aktuelle heterogene, massiv parallele Rechnerarchitekturen. Da konventionelle implizite und neu entwickelte (semi-)explizite Zeitintegrationsverfahren für magnetoquasistatische Probleme ab einer gewissen Anzahl von Rechenkernen nicht mehr gut skalieren, werden in diesem Forschungsvorhaben auch zeitparallele Algorithmen wie Mehrfach-Schießverfahren oder Parareal-Verfahren eingesetzt. Diese erschließen neues Parallelisierungspotential entlang der Zeitachse.
PASIROM ist ein Verbundprojekt, gefördert durch das Bundesministerium für Bildung und Forschung (BMBF) im Programm zur Förderung von Forschung auf dem Gebiet Mathematik für Innovationen. Es baut auf den Ergebnissen des Verbunds SIMUROM auf (Förderzeitraum 2013-2016). Der Forschungsverbund untersucht Fragen, die sich an den Bedarfsfeldern der Hightech-Strategie 2020 der Bundesregierung orientieren: Mobilität, Klima und Energie. Effizientes Design von elektrischen oder elektromechanischen Energiewandlern, wie zum Beispiel Motoren, Generatoren und Wirbelstrombremsen, muss viele Komponenten berücksichtigen. Bei Berechnungen müssen Systeme mit Millionen von Unbekannten gelöst werden. Multiphysikalische Effekte wie Wirbelströme, Anregungen elektrischer Netzwerke, Rotorbewegungen oder Wärmeentwicklung müssen die Entwickler ebenfalls einbeziehen, so dass hoch aufgelöste Simulationen von komplizierten Geräten derzeit oft eine Woche oder länger dauern. Und trotz möglichst hoher Genauigkeit sind Simulationsergebnisse oft nur grobe Näherungen an die Wirklichkeit. Um zu vermeiden, dass kleine Abweichungen vom Referenzentwurf, beispielsweise in der Fertigung, zu unerwarteter Minderleistung oder Ausfällen führen, ist heute eine auf Erfahrungswissen beruhende Überdimensionierung erforderlich.
NFDI4Ing bringt die Ingenieurgemeinschaften zusammen und fördert das Management von Forschungsdaten der Ingenieure. Das Konsortium repräsentiert Ingenieure aus allen Bereichen des Berufsstandes. Es bietet einen einzigartigen methodenorientierten und nutzerzentrierten Ansatz, um technische Forschungsdaten FAIR zu machen – auffindbar, zugänglich, interoperabel und wiederverwendbar.
NFDI4Ing wurde im Jahr 2017 gegründet. Das Konsortium hat Ingenieure aus allen fünf ingenieurwissenschaftlichen Forschungsbereichen der DFG-Klassifikation aktiv eingebunden. Führende Persönlichkeiten haben sich mit erfahrenen Infrastrukturanbietern zusammengetan. Als einen wichtigen Schritt hat NFDI4Ing die Aufgabe übernommen, die Fülle der konkreten Bedarfe im Forschungsdatenmanagement zu strukturieren.
SIMUROM ist ein Verbundprojekt, gefördert durch das Bundesministerium für Bildung und Forschung (BMBF) im Programm zur Förderung von Forschung auf dem Gebiet “Mathematik für Innovationen in Industrie und Dienstleistungen” (Projektträger: DESY, Hamburg). Die Ziele des Verbundprojektes bestehen in problemspezifischer Modellbildung und -analyse, sowie allgemeingültiger Methodenentwicklung, die Unsicherheiten berücksichtigt und robuste Simulationen ermöglicht. Auf dieser Grundlage werden parametrische reduzierte Modelle konstruiert, die eine robuste Optimierung ermöglichen.
Tropfen spielen in vielen Bereichen der Natur und Technik eine zentrale Rolle. Beispiele aus der Natur sind Regen, Wolken oder Nebel. Im Hinblick auf technische Prozesse ist die Verdampfung von Tropfen in Kraftstoffsprays bei der Verbrennung in Kraftfahrzeugmotoren oder Flugtriebwerken als Anwendung zu nennen, wobei diese Vorgänge direkt mit der Entstehung von Schadstoffen verknüpft sind. Das grundsätzliche Verständnis von tropfendynamischen Prozessen ist entscheidend für die Voraussage natürlicher Prozesse sowie die Optimierung technischer Systeme. Viele dieser Prozesse laufen unter extremen Umgebungsbedingungen, z.B. hohem Druck oder extremen Temperaturen, ab und werden schon in der Technik angewandt, obwohl es noch große Lücken im grundlegenden Verständnis gibt. Hier genau setzt nun der Transregio an. Ziel ist es, ein vertieftes physikalisches Verständnis der wesentlichen Vorgänge zu gewinnen. Darauf basierend sollen Wege zur analytischen und numerischen Beschreibung aufgezeigt und diese selbstverständlich auch umgesetzt werden. Zudem wird dadurch auch eine Verbesserung der Vorhersage von größeren Systemen in der Natur oder in technischen Anlagen ermöglicht.
Um die Resonanzfrequenzen von supraleitenden Hohlraumresonatoren für Teilchenbeschleuniger zu berechnen, benötigt man numerische Verfahren, die Genauigkeiten erreichen können, die etablierte Techniken an ihre Grenzen bringen. Dies liegt vor allem an der Genauigkeit der Geometriebeschreibung. Es wird mit Non-Uniform Rational B-Splines (NURBS) beschrieben, die im Gegensatz zu den üblichen Triangulationen die Geometrie genau beschreiben können. Diese Methode hat sich im Umfeld der Isogeometrischen Analyse (IGA) durchgesetzt und sich bereits im Rahmen von Finite-Elemente-Methoden bewährt. Da die Erstellung einer solchen volumetrischen Darstellung einen hohen manuellen Aufwand erfordert und die Randdaten des gewünschten Formats bereits von CAD-Systemen vorgegeben sind, soll der isogeometrische Ansatz mit einer Boundary Element Method (BEM) kombiniert werden. Dank moderner Kompressionstechniken und Vorbehandlung ist BEM eine brauchbare Alternative zu der Methode der finiten Elemente. Schließlich sind die durch die Randelementmethode erzeugten algebraischen Eigenwertprobleme nichtlinear und konturintegrale Methoden werden zu ihrer Lösung verwendet.
Konstruktionen in der Nanoelektronik führen oft zu Problemen, die zu groß sind, um sie zu simulieren, und die starke Rückkopplungen beinhalten. Die Industrie verlangt nach Variabilität, um Qualität und hohe Erträge zu garantieren. Es wird auch gefordert, höhere Abstraktionsebenen einzubauen, um eine Systemsimulation zu ermöglichen, um die Entwicklungszyklen zu verkürzen und gleichzeitig die Genauigkeit zu erhalten. Lösungen sind fortgeschrittene Co-Simulations, Multirate, monolithische Techniken, kombiniert mit Envelope und Wavelet-Ansätzen; verallgemeinerte Techniken der Unsicherheitsquantifizierung (UQ) für gekoppelte Probleme, abgestimmt auf die statistischen Anforderungen der Herstellbarkeit; erweiterte, parametrisierte Modellordnungsreduktionsverfahren für gekoppelte Probleme und für UQ. Alle Algorithmen werden in den von unseren Industriepartnern bereitgestellten Tools für das Industriedesign validiert. Das Konsortium besteht aus fünf Universitäten, einem Forschungsinstitut, zwei großen Halbleiterunternehmen und drei KMU.
In diesem Forschungsantrag werden die Grundlagen für neue numerische Methoden entwickelt und bestehende Systeme zur effizienten expliziten Berechnung niederfrequenter elektromagnetischer Felder verbessert. Ziel ist es, größere Probleme in kürzerer Zeit durch den Einsatz paralleler Rechenarchitekturen zu lösen. Wir schlagen insbesondere die Kombination von Discontinous Galerkin Finite Elements mit expliziten Runge-Kutta Zeitintegrationsmethoden vor. Dadurch kann die Rechenleistung von Multicore-Architekturen (z.B. Universal-Grafikprozessoren) sinnvoll genutzt werden, da viele (parallele) Operationen mit geringer Datenkommunikation durchgeführt werden können.
Das wissenschaftliche Netzwerk beschäftigt sich mit der Modellierung und Bestimmung von Unsicherheiten in den stochastischen Parametern und Ausgängen von supraleitenden Hochfrequenz?resonatoren. Ziel des Netzwerks ist die Weiterentwicklung und der Austausch über bereits von den Netzwerkpartnern verwendete Modelle zur Beschreibung der Eingabeunsicherheiten (z.B. Geometrie?parameter) als auch über Verfahren zur Bestimmung der Unsicherheiten in den Ausgängen (z.B. Eigenmoden) für eine geeignete Benchmark-Geometrie. Diese Verfahren umfassen sowohl deterministische, stochastische und zusammengesetzte Ansätze und sind je nach Problemstellung unterschiedlich effizient in ihrer Anwendung. Im Zuge des Vergleichs der stochastischen Verfahren werden zusätzlich die verwendeten Diskretisierungsverfahren der verschiedenen Netzwerkpartner evaluiert. Die Mitglieder des wissenschaftlichen Netzwerks planen die Veröffentlichung der gemeinsam erzielten Ergebnisse in einer Publikation. Das langfristige Ziel besteht darin, für zukünftige Resonatordesigns die stochastischen Verfahren in den Optimierungsprozess zu integrieren und so robuste Designs zu bestimmen.
Ziel des CoSiMOR-Netzwerks ist es, eine Umgebung für den interdisziplinären Austausch fortgeschrittener Berechnungsmethoden und möglicher Anwendungsgebiete zu schaffen. Der Fokus liegt auf Multiskalenproblemen, z.B. im Sinne unterschiedlicher Zeit- oder Ortsskalen. Aus methodischer Sicht werden Methoden der Klasse der Co-Simulation (CoSi) und der Modellordnungsreduktion (MOR) von den Mitgliedern des Netzwerks untersucht. Beispiele für solche Probleme finden sich in der Simulation elektronischer Schaltungen, wo einzelne Bauelemente durch feinauflösende Finite-Elemente-Modelle ersetzt werden, die in der Regel in unterschiedlichen Zeiträumen leben. Eine mögliche Lösungstechnik für diese Problemklasse ist die Co-Simulation.