IRL-DAL:基于能量引导扩散模型的安全自适应自动驾驶轨迹规划

Gemini AI生成的图像
一个新的框架IRL-DAL通过基于扩散的自适应前瞻规划,提升了自动驾驶车辆的导航能力。该框架首先通过模仿学习从专家的有限状态机(FSM)控制器中获取经验,并整合环境反馈和逆向强化学习(IRL)奖励。该方法成功率达到96%,并将每千步的碰撞率降低至0.05,显著提升了安全性。相关代码已公开,供进一步研究使用。
IRL-DAL框架提升自动驾驶车辆导航能力
一种名为IRL-DAL的新型反向强化学习框架即将推动自动驾驶车辆轨迹规划的安全性和适应性。该系统实现了96%的成功率,并将碰撞事件显著降低至每千步仅0.05次。
IRL-DAL框架通过模仿专家有限状态机(FSM)控制器开始培训,结合环境反馈和反向强化学习(IRL)判别信号。在此阶段之后,系统利用混合奖励结构进行强化学习(RL),该结构将环境洞察与针对性IRL激励相结合。
一个关键组成部分是条件扩散模型,它充当安全监督,规划安全驾驶路径并维持车道纪律。此外,学习型自适应掩码(LAM)通过根据速度和与危险的接近度调整视觉注意力,从而增强车辆的感知能力。
在初始模仿阶段之后,驾驶策略使用近端策略优化(PPO)进行优化,同时训练在Webots模拟器中进行。
IRL-DAL能够巧妙地导航于不安全的环境,展现出对复杂驾驶条件的专家级处理能力。研究团队已将框架代码公开,以鼓励自动驾驶领域的进一步发展。
相关主题:
IRL-DAL自主驾驶逆强化学习安全路径强化学习
📰 原始来源: https://arxiv.org/abs/2601.23266v1
所有权利和署名均属于原出版商。