Vortrag Studienarbeit

Am Dienstag, den 28.7.2020, wird Herr Hossein Nikseresht Zidehi den
Abschlussvortrag seiner Studienarbeit über das Thema “Erweiterung einer
automatisierten Metadatenerfassung im HPC-Umfeld” halten.

Der Vortrag findet am 28.7.2020 um 14.00 Uhr virtuell statt.

Meeting-Kennnummer: 121 713 1285
Passwort: FKaZ9C58hhA
https://unistuttgart.webex.com/unistuttgart/j.php?MTID=mbb381a615253d54f62e96ec1951eb6a6

Über Videosystem beitreten
Wählen Sie 1217131285@unistuttgart.webex.com
Sie können auch 62.109.219.4 wählen und Ihre Meeting-Nummer eingeben.

Über Telefon beitreten
+49-619-6781-9736 Germany Toll
Zugriffscode: 121 713 1285


Assessment of different BLAS/LAPACK implementations on AMD EPYC Rome processors

Student Research Project / Master Thesis

Contact: Björn Dick <dick@hlrs.de>

Background:

Doing computer simulations of real-world processes often requires to do a lot of (basic) linear algebra operations. Hence, processor manufacturers typically provide highly optimized libraries that can do those operations in an efficient manner. It’s nevertheless possible to use different implementations on a given processor. The idea of this project is to compare and assess different implementations of those libraries on HLRS’ current supercomputer “Hawk” (5632 compute nodes with 2 x 64 AMD EPYC Rome cores each) with respect to runtime and energy efficiency.

Scope:

  1. Identifying relevant routines and input datasets based on production jobs of HLRS customers.
  2. Compiling, running and profiling compute jobs with different BLAS/LAPACK implementations for the routines and input datasets identified before.
  3. Assessing results and deducing recommendations.

Profile:

  • Basic knowledge of linear algebra and basic understanding of the routines implemented in BLAS/LAPACK.
  • Strong command in Linux-based environments, in particular building codes with GNU Autotools/make and CMake.
  • Ideally initial experience in the usage of Score-P, Cube and maybe Scalasca
  • Ideally initial experience in High-Performance Computing environments

Machine Learning & Artificial Intelligence applied to Short-Term Photovoltaic Power Forecasting

Student Research Project / Master ThesisMachine Learning & Artificial Intelligence applied to Short-Term Photovoltaic Power Forecasting

Contact: Martín Herrerías < herrerias@hlrs.de >

Background:

Accurate short-term and very-short-term renewable energy production forecasts are critical instruments for the energy transition, as they support grid operators, plant owners, and energy traders in coping with the natural variability of the renewable resources.In the framework of the HyForPV project, HLRS is combining hybrid irradiance forecasts (satellite + numerical weather models + sky-imagers) with very detailed Photovoltaic (PV) Plant physical models to improve the accuracy of short-term regional PV production forecasts. A natural benchmark/extension to this approach is to use purely data-driven methods or hybrid statistical-physical methods; combining existing irradiance forecasts, site measurements, and physical model features, to provide fast and accurate estimates of PV power production.

Scope: Review of the extensive literature on ML & AI methods applied to short-term PV forecasting. Identification of adequate performance criteria. Selection, implementation, and cross comparison of the most promising methods.Detailed documentation (code, methods, and results).

Profile: Fluency in the programming language of your choice.Experience with ML & AI methods (ANN’s, SVM’s, autoregressive models,…).Fluent English in speaking and writing.Basic understanding of PV systems (favourable).Experience with MATLAB and Linux environments (favourable).

BA oder MA Arbeit zu vergeben

Implementierung einer automatisierten
Metadatenerfassung im HPC-Umfeld

Forschungsdatenmanagment in den Ingenieurwissenschaften steht vor einigen Herausforderungen, insbesondere die Größe der Daten sowie deren Verwaltung ist problembehaftet. Auch heutzutage werden die im Forschungsprozess anfallenden, durch Simulation erzeugten Forschungsdaten, die z.B. Trajektorien von Molekülen oder Strömungsverhalten repräsentieren, oft nur über Datei- oder
Verzeichnisnamen verwaltet, was sich zusehens als unzureichend herausstellt.
Für zielgerichtetes Forschungsdatenmanagement unabdingbar ist die Benutzung von Metadaten. Metadaten sind Daten über Daten und beschreiben diese von höherer Ebene ausgehend inhaltlich.
Metadaten sind eine der wesentlichen Voraussetzungen, Daten FAIR (Findable, Accessible, Interoperable, Re-usable) [1] bereitzustellen. Das Projekt DIPL-ING [2] hat sich zum Ziel gesetzt, Konzepte und Lösungen für das Forschungsdatenmanagement in den Ingenieurwissenschaften zu entwickeln und Daten FAIR zu machen. Innerhalb des Projekts wurde das Metadatenmodell EngMeta für die Thermound Aerodynamik entwickelt [3]. Als eine der wesentlichen Anforderungen für gelingendes Forschungsdatenmanagement kristallisierte sich die automatisierte Erfassung von Metadaten heraus sowie die Nutzung eines zentralen, fachspezifischen Repositoriums.

Ziele und Aufgaben
Im Rahmen der Arbeit, welche sowohl als Bachelor- als auch als Masterarbeit ausgestaltet werden kann, sollen 1. die automatisierte Erfassung von Metadaten weiterentwickelt und 2. Schnittstellen zum
Repositorium (Dataverse) erstellt und programmiert werden.
– Erweiterung der automatisierten Erfassung von Metadaten: Ein bestehendes, prototypisches auf
Java/Spark basierendes und für Gromacs-Dateien aus thermodynamischer Simulation ausgelegtes System soll weiter implementiert werden. Dies umfasst einerseits die Erweiterung auf andere Dateiformate (aus Simulationspaketen der Aerodynamik). Andererseits soll die
prototypische Implementierung möglichst in eine systemnahe, native und leichtgewichtige Implementierung überführt werden.
– Anpassung und (Weiter)-Entwicklung des Dataverse Clients (Java), so dass Daten und Metadaten auf dem Dateisystem in der Höchstleisungsrechnerumgebung am HLRS in das universitätsweite Repositorium für Forschungsdaten geschrieben und wieder empfangen werden können. Dazu muss der Dataverse-Client zunächst auf seine bestehende Funktionalität hin analysiert und ggf. erweitert und angepasst werden.

Schließlich müssen die Ergebnisse in einer schriftlichen Ausarbeitung, die wissenschaftlichen Standards genügen und sich nach den allgemeinen Bestimmungen im jeweiligen Fachbereich richten muss, vorgelegt werden. Außerdem muss die Arbeit in einem Vortrag vorgestellt werden.

Anforderungen
Der/Die Berarbeiter/in bringt Linux-Kenntnisse mit, die auch Shell-Scripting umfassen. Außerdem werden Kenntnisse in der Sprache Java vorausgesetzt. Idealerweise wird das Profil ergänzt durch Kenntnisse im Bereich Simulation und Benutzung von Cluster-Systemen.

Betreuer:
Dipl.-Inf. Björn Schembera
Prof. Dr.-Ing. Michael M. Resch

Ausgabe und Kontakt:
ab sofort, bei Interesse oder Fragen bitte an Herrn Björn Schembera (schembera@hlrs.de) wenden.

Referenzen
[1] Wilkinson, M.D., Dumontier, M., Aalbersberg, I.J., Appleton, G., Axton, M., Baak, A., Blomberg, N., Boiten, J.W., da Silva Santos, L.B., Bourne, P.E., et al.: The fair guiding principles for scientific data management and stewardship. Scientific data 3 (2016)
[2] https://www.hlrs.de/about-us/research/current-projects/dipl-ing/
[3] Schembera, Björn und Dorothea Iglezakis (2018). „The Genesis of EngMeta – A Metadata Model for Research Data in Computational Engineering“. In: Metadata and Semantic Research. 12th International
Conference, MTSR 2018, Limassol, Cyprus, 23-26 October 2018, Proceedings. Springer.

Studienarbeit am HLRS zu vergeben

Analyse (Data Analytics) von Lustre-Performance-Daten zur
Identifizierung von I/O-kritischen HPC-Applikationen

Das Schreiben und Lesen von großen Datenmengen kann bei
parallelen Simulationsprogrammen ein signifikantes Bottleneck
darstellen. Weil das Dateisystem eine Ressource ist, die sich
alle Benutzer teilen, kann ein falsch implementiertes I/O (Input/
Output) Verfahren negative Auswirkungen auf die I/O Perfomance
der Berechnungsjobs anderer Benutzer haben.

Am HLRS wurde ein Framework für das Monitoring der parallelen
Dateisysteme entwickelt. Dieses Framework sammelt I/O Performance-
Daten (z.B. die Bandbreite beim Lesen/Schreiben pro Job) zu den Applikationen die auf den HPC-Systemen des HLRS ausgeführt werden.
Ziel der Arbeit ist es aus den I/O-Performance-Daten
Applikationen mit Optimierungspotenzial im Bereich der I/O zu
identifizieren. Dafür werden im ersten Schritt Filterkriterien
aufgestellt, um relevante Berechnungsjobs (z.B. großer Hardware-Ressourcenverbrauch) zu identifizieren.

Im zweiten Schritt werden Metriken zur Bewertung der I/OPerformance
aufgestellt mit denen Applikationen mit Optimierungspotenzial identifiziert werden können. Im letzten Schritt werden die Filterkriterien und Performance-Metriken anhand verschiedener Datensatz analysiert und bewertet.

Arbeitsschritte:
• Literaturrecherche
• Einarbeitung in das bestehende Framework zur Lustre-Leistungsanalyse
• Aufstellen von Kriterien zur Reduzierung der Daten
• Aufstellen von Metriken zur Bewertung der I/O-Performance
• Evaluierung der Filterkriterien und der Performance-Metriken
• Schriftliche Dokumentation und Diskussion der Ergebnisse

Voraussetzung:
• Grundkenntnisse in Linux und Python

Betreuer:
• Prof. Dr.-Ing. Michael M. Resch
• Philipp Offenhäuser (offenhaeuser@hlrs.de)
• Holger Berger (NEC)
• Thomas Beise

Ausgabe: Ab sofort, bei Interesse bitte Philipp Offenhäuser (offenhaeuser@hlrs.de) kontaktieren.


Studienarbeiten zum Thema “Visualisierung”

 

Dr.-Ing. Uwe Wössner (woessner[at]hlrs.de)

  • Arbeit 1:
    Entwicklung eines GLSL Shaders zur Visualisierung von Autoscheinwerfern
    Wünschenswert: C/C++, OpenGL Kenntnisse

  • Arbeit 2:
    Entwicklung von GLSL Shadern zur Visualisierung von Fahrbahneffekten
    Wünschenswert: C/C++, OpenGL Kenntnisse

  • Arbeit 3:
    Erweiterung eines bestehenden Echtzeit-Fahrdynamikmodells
    für den HLRS-Fahrsimulator in virtueller Realität

    Wünschenswert: C/C++

  • Arbeit 4:
    Interaktive Simulation der Klimatisierung von Rechenräumen
    Voraussetzung: C/C++

  • Arbeit 5:
    Messung und Analyse der Latenz- und Reaktionszeiten einer Fahrdynamiksimulation am HLRS-Fahrsimulator in virtueller Realität
    Voraussetzungen: C/C++, Grundverständnis der Fahrdynamiksimulation

  • Arbeit 6:
    Aufbereitung und Verarbeitung räumlicher Punktwolken aus Laserscans für die virtuelle Realität
    Voraussetzungen: C/C++, fundierte mathematische Kenntnisse zur Verarbeitung räumlicher Daten

  • Arbeit 7:
    Entwicklung eines VISTLE Lesemoduls für StarCCM+ Daten
    Voraussetzung: C/C++

  • Arbeit 8:
    Automatische Kamerakalibrierung unter Berücksichtigung variabler Brennweite (Zoom oder Wechseloptiken)
    Voraussetzung: C/C++, OpenCV

  • Arbeit 9:
    Markerloses “Inside-Out”-Kameratracking für die rechnerunterstützte forensische Photogrammetrie und 3D-Rekonstruktion
    Voraussetzung: C/C++, OpenCV

  • Arbeit 10:
    Visualisierung von Strömungssimulationen der Daimler AG mit Hilfe des parallelen Visualisierungssystems VISTLE, Entwicklung geeigneter Lesemodule
    Voraussetzuung: C/C++

  • Arbeit 11:
    Simulation der Schiffsbewegung bei Wellengang und Wind zur Simulation des autonomen
    Landens von Hubschraubern auf Schiffen mit Hilfe von OpenFOAM

    Wünschenswert: C/C++, numerische Simulation

  • Arbeit 12:
    Entwicklung und Implementierung eines Tischscanners für automatisiertes 3D-Scannen kleiner Objekte
    Wünschenswert: C/C++, OpenCV