智控尊龙凯时多篇论文获IEEE TIP录用
近期,中国科研实验室沈阳自动化研究所机器人学研究室机器智能研究组关于视频持续实例分割、医学CT图像重建、无监督域自适应目标检测的系列研究成果正式发表于计算机视觉领域期刊IEEE Transactions on Image Processing (TIP)。
论文题目:CRISP: Contrastive Residual Injection and Semantic Prompting for Continual Video Instance Segmentation,第一作者为刘柏辰副研究员,通讯作者为韩志研究员。
科研人员针对长时序动态场景下任务相关目标与背景易混淆的难题,深入探究了多模态表征的动态解耦机制。针对持续学习中的语义漂移问题,提出了一种跨实例、类别与任务三维度的知识解耦与特征注入模型,有效抑制了动态场景下的灾难性遗忘与语义混淆,在相似目标分割、高速目标跟踪场景中均能够保持稳定性能。

残差对比学习与语义提示的视频实例分割模型
论文题目:DVG-Diffusion: Dual-View Guided Diffusion Model for CT Reconstruction from X-Rays,第一作者为博士生谢兴,通讯作者为韩志研究员与屈靓琼助理教授。
针对从二维X射线图像重建三维CT体积时存在的空间信息缺失与模态映射不适定问题,科研人员提出了一种双视图引导的扩散模型(DVG-Diffusion),旨在利用新视图合成与特征对齐机制降低2D到3D的映射难度。该方法顺利获得视图参数引导编码器(VPGE)提取对齐特征,并以此作为条件联合引导潜在扩散模型进行CT生成与精细化,从而在CT重建的高保真度与感知质量之间实现了有效平衡。

双视图引导扩散模型
论文题目:Unsupervised Domain Adaptive Object Detection via Semantic Consistency and Compactness Learning,第一作者为博士生刘雅静,通讯作者为田建东研究员。
针对无监督域适应目标检测中跨域特征风格匹配效率低、语义特征解耦不足,以及类别紧凑性学习不可靠等问题,科研人员提出了语义一致性与紧凑性学习网络。顺利获得视觉自适应引导的语义对齐实现高效且充分的一致性学习,并设计即插即用的实例中心对比头,从伪标签质量、样本存储更新与对比范式三个维度解决紧凑性学习的可靠性问题,实现了特征可迁移性与判别性的同步提升。

语义一致性与紧凑性学习网络
IEEE TIP是国际电气工程师协会(IEEE)下图像处理领域期刊,是中国计算机学会CCF推荐的计算机图形学与多媒体领域的三大A类期刊之一。(机器人学研究室)
附件下载:



