Abschlussarbeitsvortrag Herr Mao

Ziel dieser Masterarbeit ist es, mit einfachen mechanischen Mitteln und einer geringen Zahl von Sensoren ein System zur Stabilisierung agrartechnischer Zug- und Träger- Fahrzeuge (Traktoren) in ANSYS-System zu konstruieren und zu simulieren, das den Fahrzeugführer auch im Gelände frühzeitig vor dem Erreichen kritischer Fahrzustände warnt bzw. selbstständig Maßnahmen zu deren Vermeidung ergreift.

Der Vortrag findet am 29. Juli um 10 Uhr virtuell statt.

Für den erhalt des Einladungslinks zur WebEx wenden Sie sich bitte an gebert@hlrs.de.

Studien-/ Abschlussarbeit

Erweiterung der Parsingfunktionalität einer
automatisierten Metadatenerfassung im HPC-Umfeld

In der Bachelorarbeit soll eine bereits bestehende Metadatenerfassung, die am HLRS entworfen wurden, weiterentwickelt und um Funktionalitäten erweitert werden. Heutzutage werden die im Forschungsprozess anfallenden, durch Simulation erzeugten Forschungsdaten, die z.B. Trajektorien von Molekülen oder Strömungsverhalten repräsentieren, oft nur über Datei- oder Verzeichnisnamen verwaltet, was sich zusehens als unzureichend herausstellt.

Heutzutage werden die im Forschungsprozess anfallenden, durch Simulation erzeugten Forschungsdaten, die z.B. Trajektorien von Molekülen oder Strömungsverhalten repräsentieren, oft nur über Datei- oder Verzeichnisnamen verwaltet, was sich zusehens als unzureichend herausstellt.

Für zielgerichtetes Forschungsdatenmanagement unabdingbar ist die Benutzung von Metadaten. Metadaten sind Daten über Daten und beschreiben diese von höherer Ebene ausgehend inhaltlich. Metadaten sind eine der wesentlichen Voraussetzungen, Daten FAIR (Findable, Accessible, Interoperable, Reusable) [1] bereitzustellen. Im Rahmen von Projektarbeiten wurden Konzepte und Lösungen für das Forschungsdatenmanagement in den Ingenieurwissenschaften entwickelt, u.a. das Metadatenmodell EngMeta für die Thermo- und Aerodynamik [2, 3]. Als eine der wesentlichen Anforderungen für gelingendes Forschungsdatenmanagement kristallisierte sich die automatisierte Erfassung von Metadaten heraus. Hierfür wurde das Tool ExtractIng entwickelt [4].

Ziele und Aufgaben

Im Rahmen der Bachelorarbeit soll die automatisierte Erfassung von Metadaten mit ExtractIng weiterentwickelt werden. Dazu soll dieses bestehende, prototypische Tool, welches auf der Java Scanner API sowie alternativ auf dem Spark Data Analytics Framework besteht, um verschiedene Funktionalitäten erweitert werden. Dies umfasst die spezifischen Aufgaben:

  • Ersatz des genutzten JAXB Frameworks bzw. Anpassung des Tools, um Kompatibilität mit Java > 8 herzustellen
  • Analyse und Implementierung von elaborierten Parsingmethoden und Pattern Matching Algorithmen, u.a. für hierarchische Informationen, mehrzeilige Informationen, … . Hierzu auch technologische Analyse des Xtract Metadatenerfassungstools.
  • Entwicklung einer Strategie zum Umgang mit Redundanzen und Mehrfachvorkommen in den Datenquellen. Umsetzung und Implementierung dieser Strategie.

Schließlich müssen die Ergebnisse in einer schriftlichen Ausarbeitung, die wissenschaftlichen Standards genügen und sich nach den allgemeinen Bestimmungen im jeweiligen Fachbereich richten muss, vorgelegt werden. Außerdem muss die Arbeit in einem Vortrag von 20-30min Länge vorgestellt werden.

Anforderungen
Der/Die Berarbeiter/in bringt Linux-Kenntnisse mit, die auch Shell-Scripting umfassen. Außerdem werden Kenntnisse in der Sprache Java vorausgesetzt. Idealerweise wird das Profil ergänzt durch Kenntnisse im Bereich Simulation und Benutzung von Cluster-Systemen.


Betreuer
Dr.-Ing. Björn Schembera


Prüfer
Prof. Dr.-Ing. Michael M. Resch


Ausgabe und Kontakt
Ab sofort, bei Interesse oder Fragen bitte an Herrn Dr.-Ing. Björn Schembera (schembera@hlrs.de) wenden

Referenzen
[1] Wilkinson, M.D., Dumontier, M., Aalbersberg, I.J., Appleton, G., Axton, M., Baak, A., Blomberg, N., Boiten, J.W., da Silva Santos, L.B., Bourne, P.E., et al.: The fair guiding principles for scientific data management and stewardship. Scientific data 3 (2016)
[2] Schembera, Björn und Dorothea Iglezakis (2018). „The Genesis of EngMeta – A Metadata Model for Research Data in Computational Engineering“. In: Metadata and Semantic Research. 12th International
Conference, MTSR 2018, Limassol, Cyprus, 23-26 October 2018, Proceedings. Springer.
[3] https://www.ub.uni-stuttgart.de/forschen-publizieren/forschungsdatenmanagement/projekte/dipl_ing/
materials/output/MTSR2018_14_SchemberaIglezakis_EngMeta.pdf
[4] Schembera, B. Like a rainbow in the dark: metadata annotation for HPC applications in the age of dark data. J Supercomput (2021). https://doi.org/10.1007/s11227-020-03602-6

Studienarbeitsvortrag

Liebe Studierende,

für den kommenden Dienstag, den 27.04.2021 um 11 Uhr laden wir herzlich zu folgendem Studienarbeitsvortrag ein:

"Turbulenzgenerierung und deren Validierung im Strömungslöser Incompact3D für die Simulation von Windturbinen“ von Herrn Thomas Wenger.

Den Link zur WebEx erhalten Sie über gebert@hlrs.de

Viele Grüße
Johannes Gebert

Abschlussvortrag zur Masterarbeit

Liebe Studierende
am Montag, den 26.04.2021 um 9:30 Uhr, wird Herr Hossein Zidehi den Abschlussvortrag seiner Masterarbeit über das Thema “Intertrabekulare Parameter der menschlichen Spongiosa. Implementierung und Analyse.” halten. 

Kurzfassung:
Die innere Struktur menschlicher Knochen besteht aus einem Fachwerk von Bälkchen und Plättchen. Vorangehende Arbeiten deuten auf einen Zusammenhang zwischen der Struktur des Fachwerks und dem Verformungsverhalten hin. Die Arbeit beschäftigt sich daher mit der Implementierung eines Algorithmus zum skelettieren von trabekularen Fachwerken der menschlichen Spongiosa in großen Datensätzen. Ziel ist die Analyse histomorphologischer Parameter als Grundlage der Beschreibung der mechanischen Eigenschaften.

Die Zugangsdaten zum WebEx-Raum erhalten Sie auf Anfrage bei:

Johannes Gebert – gebert@hlrs.de

Mit freundlichen Grüßen
Johannes Gebert

Talk: Forecasting intensive care unit demand during the COVID-19 pandemic: A spatial age-structured microsimulation model

Liebe Studierende, 

wir freuen uns, folgendes Seminar ankündigen zu können.
Die Zugangsdaten zum Videokonferenzraum erhalten Sie auf Anfrage über: gebert@hlrs.de

Zeitpunkt des Vortrags: Friday, 12th March, 14:30-15:30 CET


Background The COVID-19 pandemic poses the risk of overburdening health care systems, and in particular intensive care units (ICUs). Non-pharmaceutical interventions (NPIs), ranging from wearing masks to (partial) lockdowns have been implemented as mitigation measures around the globe. However, especially severe NPIs are used with great caution due to their negative effects on the economy, social life and mental well-being. Thus, understanding the impact of the pandemic on ICU demand under alternative scenarios reflecting different levels of NPIs is vital for political decision-making on NPIs. The aim is to support political decision-making by forecasting COVID-19-related ICU demand under alternative scenarios of COVID-19 progression reflecting different levels of NPIs.

Methods In this talk we will present our implementation of a spatial age-structured microsimulation model of the COVID-19 pandemic by extending the Susceptible-Exposed-Infectious-Recovered (SEIR) framework. The model accounts for regional variation in population age structure and in spatial diffusion pathways. In a first step, we calibrate the model by applying a genetic optimization algorithm against hospital data on ICU patients with COVID-19. In a second step, we forecast COVID-19-related ICU demand under alternative scenarios of COVID 19 progression reflecting different levels of NPIs. The third step is the automation of the procedure for the provision of weekly forecasts. The automated estimation of the model's parameters is done by means of Random-Forest regression.

Results In the results section we will show the application of the model to Germany and demonstrate state-level forecasts over a 2-month period, which can be updated daily based on latest data on the progression of the pandemic.To illustrate the merits of our model, we present here “forecasts” of ICU demand for different stages of the pandemic during 2020 and 2021. Our forecasts for a quiet summer phase with low infection rates identified quite some variation in potential for relaxing NPIs across the federal states. By contrast, our forecasts during a phase of quickly rising infection numbers in autumn (second wave) suggested that all federal states should implement additional NPIs. However, the identified needs for additional NPIs varied again across federal states. In addition, our model suggests that during large infection waves ICU demand would quickly exceed supply, if there were no NPIs in place to contain the virus.

Hiwi or SA in filed Code intrinsic Uncertainty Quantification

The High-Performance Computing Center Stuttgart (HLRS) of the University of Stuttgart is one of the three member centres of the Gauss Centre for Supercomputing (GCS). HLRS supports national and European researchers from science and industry by providing high-performance computing platforms and technologies, services and support. Services are provided in cooperation with the other two member centres of GCS and with industrial partners such as hww GmbH (T- Systems, Porsche AG) and SICOS BW GmbH.

HLRS conducts basic and applied research in the field of high-performance computing in publicly funded national and
European projects as well as industrial research activities in association with partners from research and industry.
Collaborative research in the automotive field is carried out in cooperation with the Automotive Simulation Center
Stuttgart (ASCS).

Research Topic

Uncertainty Quantification (UQ) is widely used in quality control, risk management and engineering simulation. Monte Carlo method is one of the most popular and intuitive method to perform a UQ analysis. But it is normally very time consuming to apply a Monte Carlo method to a large CFD problem, since we need to run the CFD code repeatedly until it
converges. Now we are striving to find out a way to transform the code in a UQ intrinsic code, so that we can analysis how is the uncertain transported throughout the code and achieve better performance by vectorization etc. In order to achieve this goal, we plan to establish a schematic way to analysis to the code, so that we can figure out how the uncertainty transported though the code. Furthermore, it is worthy to develop an automatic analyzing tool to perform such process.

Your Task (the following choices can be discussed according to your interest):

  1. Use python to write a parser and a Lexer liked analyzer, which can detect the places, where the uncertainty is
    transported.
  2. Apply the analysis method to the code, vectorizes the code and test its performance, compare with the existed
    Monte Carlo method. Record the result of your work

What you will get:
1. Programing experience with python and Fortran
2. Learn the basic concept of compiling, how to build a parse and a lexer
3. Familiar with basic concept of parallel computing
4. Learn how to analysis your code and optimize your code
5. Flexible working hours and relaxable working environment (as soon as you can work on site)

We hope you bring:

  1. You are student of Computer Science, Aerospace Engineering, or related course of study
  2. Familiar with programming, if you interested with the first task. Familiar with python and basic knowledge
    with Fortran. It is a plus if you already have knowledge with working mechanism of Compiler.
  3. Experience with Linux OS
  4. Motivated and creative thinking
  5. Working at least 40-60h Pro Month, it will be a plus if you can work long-term

If you are interested, please contact: qifeng.pan@hlrs.de