2022年10月16日

ComEx阅读报告

作者 Tamanegi

ComEx

摘要

新类发现的自动化识别,高效的GNCD方式

Introduction

  1. DL需要大量数据集,尝试使用NCD方式解决SSL和ZSL的局限性。
  2. 引用的论文13提出了一个方法解决这个问题,但是只能在单个数据集上取得较好的成功,无法实际应用。
  3. 本文尝试在GNCD上提出统一模型并取得较好数据。
  4. 本模型使用Compositional Experts解决问题,通过在伪标签[^1]中引入 局部一致性来提升新类识别的性能。显著提升了

[^1]:暂时不确定伪标签(pseudo labels)的含义。

Related Work

NCD

  • 利用基础数据集上学习预测能力来估计并分类新数据集[^20,21]
  • 在基础数据集上进行全监督训练,在新数据集上进行微调(fine-tuning stage)[^16]

Unsupervised Clustering

  • 邻域聚合:data points within a neighborhood feature space likely share a same semantic label
  • 可以避免cluster collapse簇坍缩(?)

Approach

Definition

  • 定义:基础数据集 $latex D^b = {(x_i,y_i)}^{N^b}_{i=1}$,未标注数据集 $latex C^b$。设置数据集$latex D^n = {X_j}^{N^b+N^n}_{j={N^b+1}}$,其中包含来自数据集$latex C^b$ 的数据$latex x_i$。

  • 目标是从图像空间中学习 $latex X={X_i}^{N^b+N^n}_{i=1}$到映射$latex Y={l}^{C^b+C^n}_{l=1}$中
  • 对于每一个目标都提取其视觉特征,并将其输入批处理和类处理中,使用交叉熵损失(the cross-entropy loss[^3])进行训练。
  • 对于来自基础数据集的数据,使用ground-truth label作为训练目标;对于来自$D^n$数据集的数据,使用伪标记生成目标。
  • 遵循原则 Known UnKnown 每个专家都在应该知道的时候知道(?)
  • 交叉熵损失定义为 $L_{ce}(,y)=-ylogsigma(hat{y}^phi/tau)$ [没看懂这块是干什么用的];用了另一个正则表达式来显式抑制非目标输出

[^3]: Link to:(6条消息) 简单谈谈Cross Entropy Loss_时光杂货店的博客-CSDN博客_xentropy loss

Training Targets

没理解,还得再看看

Overall Objective

四个专家都以端到端方式进行联合训练。整体损失定义为$latex mathscr{L}(x,y)=mathscr{L}+{ce}(hat{y}^phi,y)+mathscr{L}+{ce}(hat{y}^psi,y)+mathscr{L}_{reg}(hat{y}^phi)$,

将四个专家的输出进行组合,前两项对应批处理专家的贡献,后一项对应类处理专家的贡献。

Experiments

  • 使用数据集为CIFAR10、CIFAR100、ImageNet
  • 测试方式

    1. task-aware :数据集已知,用于评估在新集上测试划分的性能。
    2. task-agnostic:数据集未知,同时在新集和已知集上测试划分性能。
  • Detail:ResNet-18 作为图像编码器,有添加适度的随即裁剪、反转、抖动和灰度。

通过消融实验评估了每一个模块的作用和影响。