(Bachelor/Master/Praktikum) Privacy-Preserving Machine Learning
25.06.2025Motivation
Wir besuchen eine Webseite, es öffnet sich ein Fenster, das über Cookies und die Verwendung der Daten informiert und da wir es eilig haben, klicken wir auf "Alle akzeptieren". Dies ist sicherlich schon jedem einmal passiert.
Aber was passiert dann eigentlich mit den Daten, die gesammelt werden?
In der heutigen Zeit werden sie oft im Kontext von KI verwendet. Sei es zum Training oder zur Verbesserung von Modellen oder um Vorhersagen aus diesen Daten zu treffen und dann zum Beispiel zielgerichtetere Werbung zu schalten.
Aber manchmal wollen wir eigentlich nicht, dass unsere Daten dafür verwendet werden. Gesundheitsdaten, Finanzdaten, ... das sind alles Daten, die wir eigentlich nicht teilen wollen.
Ziele
Eine Lösung, wie man trotzdem AI/ML machen kann und trotzdem die Daten schützen ist PPML (Privacy-Preserving Machine Learning). Hier wird auf verschlüsselten Daten gearbeitet oder gemeinsam ein Problem gelöst. Die entsprechenden Techniken sind homomorphe Verschlüsselung (HE), Secure Multiparty Computation (MPC) und Functional Encryption (FE).
Ziel dieser Arbeit ist es, sich mit einem oder mehrere dieser Verfahren zu beschäftigen und einen weiteren Schritt in Richtung deren praktischen Einsatz zu machen und Forschungslücken zu schließen.
- Einarbeitung in PPML
- Implementierung einer Anwendung oder eines konkreten Building Blocks unter Nutzung der obigen Technologien.
- Evaluierung der Anwendung
Vorkenntnisse in Kryptographie und C++ sind hilfreich.
Wir bieten
- Interessante Arbeit in aktuellen Forschungsthemen
- Möglichkeit der Einbringung eigener Ideen bei der Lösungsgestaltung
- Gute und intensive Betreuung
Dauer
3 - 6 Monate (je nach Art der Arbeit)
Kontakt
Lukas Horn, M.Sc.
lukas.horn@uni-wuerzburg.de
Simon Engel, M.Sc.
simon.engel@uni-wuerzburg.de
Dr. Thomas Prantl
thomas.prantl@uni-wuerzburg.de
Zurück