Know what you don‘t know – Uncertainty Propagation in der Perzeptionskette Automatisierter Fahrzeuge

  • Forschungsthema:Automatisiertes Fahren, Uncertainty Propagation, Safety in Autonomous Driving
  • Typ:Bachelorarbeit
  • Betreuung:

    Anian Scheibel, M.Sc

Motivation

Die Perzeption autonomer Fahrzeuge beruht auf einer Vielzahl von Sensoren (Kameras, LiDAR, Radar) und KI-Algorithmen zur Objekterkennung, Klassifikation und Bewegungsvorhersage. Diese Systeme sind jedoch nicht perfekt - es entstehen Unsicherheiten durch Rauschen, schlechte Sicht, begrenzte Trainingsdaten oder Modellfehler. 2016 kollidierte beispielsweise ein Tesla mit einem liegengebliebenen Lkw, weil das System die weiße Plane des Anhängers mit dem hellen Himmel verwechselte. Hätte das Fahrzeug seine eigene Unsicherheit einschätzen können, wäre der Unfall womöglich vermeidbar gewesen [1].

Damit autonome Fahrzeuge nicht nur sicher, sondern vor allem auch zulassungsfähig sind, muss bekannt sein, wie sich Unsicherheiten innerhalb der Perzeptionskette fortpflanzen (Uncertainty Propagation) und wie sie quantifiziert werden können, um robuste Entscheidungen zu ermöglichen.

 Aufgaben

Ziel dieser Arbeit ist ein strukturierter Literaturreview zu Ansätzen der Unsicherheitsmodellierung und -propagation in der Perzeption autonomer Fahrzeuge.

Konkret umfasst die Arbeit:

  • Systematische Suche und Auswahl relevanter wissenschaftlicher Arbeiten 
  • Kategorisierung von Unsicherheiten (z. B. epistemisch vs. aleatorisch) in Perzeptionssystemen
  • Analyse bestehender Methoden zur Unsicherheitsquantifizierung in
    • Einzel-Sensoren (z. B. probabilistische Kameramodelle, LiDAR-Fehlermodellierung)
    • Sensorfusion (z. B. Bayesian Filtering, Deep Fusion mit Uncertainty Estimation)
    • Objekterkennung und Tracking (z. B. Monte-Carlo Dropout)
  • Vergleich von Ansätzen zur Propagation dieser Unsicherheiten durch die gesamte Perzeptionspipeline
  • Diskussion, wie diese Unsicherheiten in die Sicherheitsargumentation integriert werden können

Die Ergebnisse fließen direkt in aktuelle Forschungsarbeiten zur Unsicherheitsmodellierung für Safety-Argumentationen und Zulassungsprozesse ein.

Qualifikationen

  • Momentanes Studium im Maschinenbau, Mechatronik, Wirtschaftsingenieurswesen oder ähnliches
  • Grundkenntnisse in Sensorik, maschinellem Lernen oder Statistik von Vorteil
  • Interesse an autonomem Fahren und probabilistischen Methoden
  • Analytisches Denken und Fähigkeit, komplexe Inhalte strukturiert darzustellen
  • Gute Englischkenntnisse (Fachliteratur ist überwiegend auf Englisch)

Das bieten wir

  • Mitarbeit in einem spannenden Themenfeld mit hoher Relevanz
  • Tiefere Einblicke in die Entwicklung und Validierung von autonomen Fahrfunktionen
  • Chance einen wichtigen Beitrag zur aktuellen Forschung zu liefern
  • Möglichkeit für eine gemeinsame wissenschaftliche Veröffentlichung

Beginn: Ab sofort

Interesse geweckt? Dann melde dich bei anian.scheibel∂kit.edu mit deinem aktuellen Notenauszug und Lebenslauf!


Referenzen


[1]    A. Kendall und Y. Gal, „What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision?“, 5. Oktober 2017, arXiv: arXiv:1703.04977. doi: 10.48550/arXiv.1703.04977.