找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 25|回复: 0

密集视频理解与门控残差标记化

[复制链接]

334

主题

0

回帖

1027

积分

金牌会员

积分
1027
发表于 2025-9-21 15:09:34 | 显示全部楼层 |阅读模式
摘要: 高时间分辨率对于捕捉视频理解中的细微细节至关重要。然而,当前的视频大型语言模型(VLLMs)和基准大多依赖于低帧率采样,如均匀采样或关键帧选择,丢弃了密集的时间信息。这种妥协避免了对每一帧进行令牌化的高成本,否则会导致冗余计算和随着视频长度增加而呈线性增长的令牌。虽然这种权衡对于变化缓慢的内容有效,但对于像讲座理解这样的任务却失败了,其中信息几乎出现在每一帧中,并需要精确的时间对齐。为了解决这一差距,我们引入了密集视频理解(DVU),通过减少令牌化时间和令牌开销,实现了高FPS视频理解。现有的基准测试也存在局限性,因为它们的问答对重点放在粗糙的内容变化上。因此,我们提出了DIVE(密集信息视频评估),这是第一个专为密集时间推理而设计的基准测试。为了使DVU实用,我们提出了门控残差令牌化(GRT),一个两阶段框架:(1)运动补偿内部门控令牌化使用像素级运动估计来跳过令牌化过程中的静态区域,实现了令牌数量和计算的次线性增长。(2)语义-场景内部令牌化合并在一个场景内跨静态区域的令牌,进一步减少了冗余,同时保留了动态语义。在DIVE上的实验表明,GRT胜过更大的VLLM基线,并随FPS的增加而呈现积极的规模化特性。这些结果强调了密集时间信息的重要性,并证明了GRT实现了高效、可扩展的高FPS视频理解。
更新时间: 2025-09-18 13:17:10
领域: cs.CV,cs.AI,cs.CL,cs.LG,68T45, 68T07, 68T05, 68T10, 68T50, 68T09, 68U10, 68P20, 94A08, 94A34, 62H30, 62H35,I.2.10; I.2.6; I.2.7; I.5.1; I.5.2; I.5.3; I.5.4; I.4.8; I.4.9; I.4.2; H.3.1; H.3.3; H.3.4; H.5.1; H.5.2; H.2.8

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2025-11-1 15:16 , Processed in 0.066895 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表