发布时间:2026年3月2日
近日,国际学术会议CVPR 2026论文接收结果公布,由我所师生共同完成的2篇论文被大会录用。CVPR全称为IEEE/CVF Conference on Computer Vision and Pattern Recognition(计算机视觉与模式识别会议),与ICCV、ECCV并称为计算机视觉领域三大顶会。本届CVPR共收到16,092篇有效投稿,最终推荐录用4,090篇,录用率为25.42%,论文的相关信息如下:
论文一
Local Motion Matters: A Deconstruct–Recompose Paradigm for Reinforcement Learning Pre-training from Videos
该论文由我所博士生王金文、胡小波在林友芳老师、王硕老师和吕凯老师的指导下完成。
利用大规模视频进行预训练以提高强化学习效率具有巨大潜力,但仍面临诸多挑战。现有方法通常将智能体视为不可分割的整体,对运动模式进行全局建模。这种全局建模与形态紧密耦合,阻碍了跨域迁移。相比之下,尽管全局运动差异巨大,但不同智能体的局部运动模式却表现出相似性。基于此,我们提出了一种新颖的解构-重组范式(DRP),用于学习可迁移的局部运动表示。具体而言,在解构阶段,我们识别多个局部点并跟踪其逐帧运动,将每个局部点附近的光流patch定义为一个原子动作。我们引入双注意力编码器从这些原子动作中学习局部运动表示,从而捕捉它们的时空关系。在重组阶段,我们借助潜在动力学模型学习,利用一个可学习的动作聚合标记 '[MAT]' 将局部运动表征组合起来。此外,Adapter桥接局部运动和下游特定动作空间的动力学模型,以加速策略学习。大量实验表明,我们的方法可以有效地应用于各种机器人控制和操作任务,显著提高样本效率和性能。

论文二
LF-BVN: Blind-View Network for Self-Supervised Light Field Denoising
论文由我所博士生郭龙钊 、博士生高晨、硕士生田倩合作,并由张硕、林友芳两位老师指导完成。
近年来,基于学习的光场(LF)图像去噪技术取得了令人瞩目的进展。然而,这类方法严重依赖大规模含噪–清晰图像对,且往往难以泛化到未知噪声或复杂噪声场景。在本文中,我们观察到:光场图像固有的多视角一致性使得噪声很难在不同视角间保持一致性,这为自监督去噪提供了更为可靠的监督信号。基于这一发现,我们将盲点机制扩展到光场领域,并提出一种新颖的光场盲视角去噪网络(LF-BVN)。我们首先引入一种几何不变性掩码,利用角度冗余实现高效的全视角监督。为保证跨视角的光度一致性,我们进一步引入隐表示体并对其施加一致性约束。此外,我们利用聚焦堆栈从含噪观测中提取隐式深度线索,提供额外的指导信息。大量实验表明,LF-BVN 在无需清晰数据或外部监督的前提下,取得了极具竞争力的去噪效果,同时保持了良好的跨视角一致性。
