AI
KI-Nachrichten

IRL-DAL: Sichere und adaptive Trajektorienplanung für autonomes Fahren mittels energiegeführter Diffusionsmodelle

Source:arXiv
Originalautor:Seyed Ahmad Hosseini Miangoleh et al.
IRL-DAL: Sichere und adaptive Trajektorienplanung für autonomes Fahren mittels energiegeführter Diffusionsmodelle

Von Gemini AI generiertes Bild

Ein neues Framework, IRL-DAL, verbessert die Navigation autonomer Fahrzeuge durch einen diffusionsbasierten adaptiven Vorausschauer-Planer. Es startet mit Imitationslernen von einem Experten-FSM-Controller und integriert Umgebungsfeedback sowie IRL-Belohnungen. Dieser Ansatz erreicht eine Erfolgsquote von 96 % und reduziert Kollisionen auf 0,05 pro 1.000 Schritte, was die Sicherheit erheblich steigert. Der Quellcode ist öffentlich zugänglich, um weiterführende Forschungen zu ermöglichen.

IRL-DAL-Framework verbessert die Navigation autonomer Fahrzeuge

Ein neues inverses Verstärkungslern-Framework namens IRL-DAL soll die Sicherheit und Anpassungsfähigkeit der Trajektorienplanung in autonomen Fahrzeugen vorantreiben. Das System erreicht eine Erfolgsquote von 96 % und reduziert die Kollisionen dramatisch auf nur 0,05 pro 1.000 Schritte.

Das IRL-DAL-Framework beginnt das Training durch Imitation eines Experten-Controller für endliche Zustandsautomaten (FSM), wobei Umgebungsfeedback mit einem inversen Verstärkungslern- (IRL) Diskriminatorsignal integriert wird. Nach dieser Phase erfolgt das Training mit Verstärkungslernen (RL), das eine hybride Belohnungsstruktur nutzt, die Umwelterkenntnisse mit gezielten IRL-Anreizen kombiniert.

Ein entscheidendes Element ist ein bedingtes Diffusionsmodell, das als Sicherheitsaufsicht für die Planung sicherer Fahrwege und die Einhaltung der Fahrspur fungiert. Darüber hinaus verbessert eine lernbare adaptive Maske (LAM) die Wahrnehmung des Fahrzeugs, indem sie die visuelle Aufmerksamkeit basierend auf Geschwindigkeit und Nähe zu Gefahren anpasst.

Nach der anfänglichen Imitationsphase wird die Fahrpolitik mithilfe von Proximal Policy Optimization (PPO) verfeinert, wobei das Training im Webots-Simulator stattfindet.

IRL-DAL navigiert geschickt durch unsichere Umgebungen und zeigt eine Expertenbehandlung komplexer Fahrbedingungen. Das Forschungsteam hat den Code des Frameworks öffentlich zugänglich gemacht, um die weitere Entwicklung im Bereich des autonomen Fahrens zu fördern.

Verwandte Themen:

IRL-DALinverse Verstärkungslernenautonome Fahrzeugediffusionsbasierten VorausplanerProximal Policy Optimization

📰 Originalquelle: https://arxiv.org/abs/2601.23266v1

Alle Rechte und Urheberrechte liegen beim ursprünglichen Herausgeber.

Artikel teilen