Datenbasierte Verbesserung von Simulationsmodellen zur Identifikation von stochastischen digitalen Zwillingen von Brücken
Simulationsbasierte Methoden sind der Standard für die Bemessung von Brücken, vor allem in Bezug auf das mechanische Verhalten unter verschiedenen Belastungsbedingungen. Auf der Grundlage dieser Simulationsmodelle kann ein digitaler Zwilling der Brücke erstellt werden, der die Möglichkeit bietet, den Informationsgehalt der regelmäßigen Inspektionen und/oder Überwachungsdaten durch weitere Informationen zu erhöhen. Mögliche Anwendungen sind vielfältig und umfassen virtuelle Sensormessungen an Stellen, die sonst unzugänglich sind bzw. zu teuer sind, um sie mit einem Sensorsystem auszustatten, Untersuchungen der aktuellen Leistungsfähigkeit des Bauwerks, z.B. unter Verwendung der tatsächlichen Belastungshistorie in einer Ermüdungsanalyse anstelle der Entwurfslasten, oder die Planung und Priorisierung von Instandhaltungsmaßnahmen sowohl für eine einzelne Brücke als auch für eine Reihe ähnlicher Brücken. Sobald das Bauwerk gebaut ist, weicht der tatsächliche Zustand bzw. die Eigenschaften des Bauwerks aus verschiedenen Gründen in der Regel stark vom Entwurf ab. Folglich liefert ein digitaler Zwilling, der auf dem ursprünglichen Simulationsmodell aus dem Entwurf basiert, in der Regel nur eine begrenzte Vorhersagequalität. Es ist von großer Bedeutung, das Entwurfsmodell schrittweise zu verbessern, bis die Prognose des Simulationsmodells mit den Sensormesswerten innerhalb bestimmter vordefinierter Grenzen übereinstimmt. Dabei ergeben sich eine Reihe von Herausforderungen, die in diesem Projekt untersucht werden sollen.
Die erste Herausforderung ist die inhärente Unsicherheit, die sowohl mit den Modellierungsannahmen (z.B. ein linear-elastisches Modell) innerhalb des digitalen Zwillings als auch mit den Parametern, die in diesen Modellen verwendet werden (z.B. Elastizitätsmodul), verbunden ist. Es wird ein automatisiertes Verfahren auf der Grundlage der Bayes'schen Inferenz entwickelt, das es ermöglicht, unsichere Sensordaten (sowohl von visuellen Inspektionen als auch von Überwachungssystemen) in eine stochastische Aktualisierung der Modellparameter einzubeziehen. Diese ermöglicht die Berechnung von Wahrscheinlichkeitsverteilungen anstelle von deterministischen Simulationsergebnissen. Besondere wichtig ist es dabei, eine Methodik zu entwickeln, die mit einem konstanten Fluss von Überwachungsdaten umgehen kann, d.h. ein kontinuierliches Aktualisierungsverfahren. Dies hat zur Folge, dass die aus dem digitalen Zwilling abgeleiteten Leistungsindikatoren, die als Grundlage für die Entscheidungsfindung dienen, mit einer Unsicherheit behaftet sind. Auf der Grundlage genauer und optimal platzierter Sensoren sowie realistischer Modellierungsannahmen lässt sich diese Unsicherheit oft verringern.
Da es kein ''richtiges'' Modell gibt, ist die Suche nach einem guten Modell ein komplexer Prozess, der mehrere Iterationen zwischen Modellverbesserung und -prüfung umfasst. Der visuelle Vergleich von Simulationsergebnissen aus kalibrierten Modellen mit experimentellen Daten ist eine Herausforderung. Insbesondere die manuelle visuelle Identifizierung von Modellfehlern ist auf eine geringe Anzahl von Daten beschränkt. Für eine automatisierte Analyse ist es wichtig a) zu ermitteln, wo das Simulationsmodell ungenau ist und b) welche Verbesserungen am Modell möglich sind. Die Identifizierung der Ursachen einer Modellungenauigkeit wird einerseits durch eine große Menge an Daten erschwert, die in der Regel in Überwachungssystemen verfügbar sind, und andererseits durch die Tatsache, dass Modellierungsannahmen (z.B. in Bezug auf die Randbedingungen wie feste vs. flexible Stütze) oft Sensorabweichungen an Stellen auslösen, die nicht mit dem Ort des Modellfehlers übereinstimmen. Die Identifizierung potenzieller Verbesserungen in b) basiert auf Techniken des maschinellen Lernens. Die Idee ist, den Ingenieur, der physikalisch basierte Modelle entwickelt, dabei zu unterstützen, relevante physikalische Phänomene zu verstehen, die im Modell nicht korrekt dargestellt sind. Dazu gehören räumlich variable Modellparameter über Zufallsfelder oder Wörterbuchansätze für konstitutive Gesetze, bei denen die wahrscheinlichste Modellverbesserung aus einem Wörterbuch von parametrisierten Funktionen ausgewählt wird.
Um die stochastische Analyse für komplexe Strukturen und insbesondere für Quasi-Echtzeitanwendungen durchführen zu können, ist die Simulationszeit von größter Bedeutung, d.h. die Rechenzeit für eine einzelne Auswertung des digitalen Zwillings sollte so kurz wie möglich sein. Daher werden Antwortflächenverfahren entwickelt, die auf dem rechenaufwändigen Vorwärtsmodell trainiert werden und dann in einer nachfolgenden Auswertung das Vorwärtsmodell ersetzen können. Dies erfordert zielgerichtete Fehlerschätzungen zur Begrenzung des Approximationsfehlers der Response Surface. Dabei sollen Metamodelle auf Basis von Gaußschen Prozessen oder Physics Informed Neural Networks eingesetzt werden.
Für dieses Projekt sind vier Arbeitspakete geplant, (siehe Abbildung 2).