特斯联公布研发新突破:用于视觉任务中无监督域自适应的类别对比

2022年06月15日13:31

来源:环球网

  【环球网科技综合报道】6月15日消息,近日,特斯联科技集团首席科学家、特斯联国际总裁邵岭博士及合作者们提出了基于类别对比的新颖方法Category Contrast (CaCo),并公布了所取得的最新研究成果。该方法在视觉UDA任务的实例判别之上引入了语义先验。该研究成果“ Category Contrast for Unsupervised Domain Adaptation in Visual Tasks”已被今年的 AI顶会CVPR (国际计算机视觉与模式识别会议)收录。

  通过将实例对比学习视为字典查询操作,团队利用源域和目标域的样本构建了一个类别感知(category-aware)和域混合(domain-mixed)的字典,其中每个目标样本会根据源域样本的类别先验被分配一个(伪)类别标签,并为UDA提供了相应的类别对比损失(category contrastive loss)。由此鼓励学习完全契合UDA目标的,具有类别判别力但域不变的(category-discriminative yet domain-invariant )表征:同类别样本(无论是来自于源域或者目标域)的距离被拉得更近的同时不同类别样本的距离会被推远。在多种视觉任务(例如分割、分类和检测)中进行的大量实验表明CaCo实现了与当前最先进的算法相比更卓越的性能。此外,实验也显示CaCo可以作为现有UDA方法的补充,并可推广到其它的学习方法中,如无监督模型适应、开放/半开放集域自适应等。

  总体而言,邵岭博士及团队提出了一种类别对比方法CaCo,该方法引入了通用的类别对比损失函数(generic category contrastive loss),可有效用于多种视觉UDA任务。团队用来自源域和目标域的样本构建了一个语义感知字典,域中的每一个目标样本都根据源域样本的类别先验被分配了一个(伪)类别标签。这使得(目标查询和类别级的字典间的)类别对比学习可以学习具有类别判别力且域不变的表征:同类别的样本(无论是来自于源域或者目标域)会被拉近而不同类别的样本被同时推远。在多种视觉任务(例如分割、分类和检测)中进行的大量实验显示单独使用CaCo就可以展现出与当前最先进的方法相当的性能。另外,实验也显示CaCo可以与现有的UDA方法互补,也可以外推至其他的学习类型,如无监督模型自适应、开放/半开放集域自适应等。

编辑:林辉

我来说两句 0条评论 0人参与,