AI
AI新闻

Stream-DiffVSR:通过自回归扩散实现低延迟可流式视频超分辨率

Source:arXiv
原作者:Hau-Shiang Shiu et al.
Stream-DiffVSR:通过自回归扩散实现低延迟可流式视频超分辨率

Gemini AI生成的图像

Stream-DiffVSR引入了一种因果条件扩散框架,用于视频超分辨率处理,能够在实时场景中仅依赖于过去的帧进行计算。该方法采用了四步提炼去噪器和自回归时间引导模块,使得在RTX4090显卡上以仅0.328秒的速度处理720p的帧。与现有的最先进技术相比,这种方法将延迟减少了超过130倍,因而非常适合低延迟应用。更多细节可查阅其项目页面。

Stream-DiffVSR:低延迟视频超分辨率的突破性进展

一种新的框架Stream-DiffVSR已成为延迟敏感应用的视频超分辨率(VSR)解决方案。通过专注于过去的帧,Stream-DiffVSR显著减少了处理时间,同时提升了感知质量。

技术创新与性能指标

  • 一个四步提炼的去噪器,加速推理时间。
  • 一个自回归时间引导(ARTG)模块,在潜在去噪过程中提供与运动对齐的线索。
  • 一个轻量级的时间感知解码器,配备时间处理模块(TPM),以提高细节并保持时间一致性。

在RTX4090 GPU上,Stream-DiffVSR可以在仅0.328秒内处理720p视频帧,标志着相较于以往方法的显著提升。与当前最先进的模型TMP相比,Stream-DiffVSR在LPIPS分数上提高了+0.095,同时实现了超过130倍的延迟减少。

在线部署的影响

Stream-DiffVSR的能力使其成为低延迟在线应用中首个可行的扩散VSR方法,可能会改变依赖实时视频处理的行业。

相关主题:

Stream-DiffVSR视频超分辨率自回归扩散延迟缩短低延迟在线部署

📰 原始来源: https://arxiv.org/abs/2512.23709v1

所有权利和署名均属于原出版商。

分享此文章