2022年10月16日
ComEx阅读报告
ComEx
摘要
新类发现的自动化识别,高效的GNCD方式
Introduction
- DL需要大量数据集,尝试使用NCD方式解决SSL和ZSL的局限性。
- 引用的论文13提出了一个方法解决这个问题,但是只能在单个数据集上取得较好的成功,无法实际应用。
- 本文尝试在GNCD上提出统一模型并取得较好数据。
- 本模型使用Compositional Experts解决问题,通过在伪标签[^1]中引入 局部一致性来提升新类识别的性能。显著提升了
[^1]:暂时不确定伪标签(pseudo labels)的含义。
Related Work
NCD
- 利用基础数据集上学习预测能力来估计并分类新数据集[^20,21]
- 在基础数据集上进行全监督训练,在新数据集上进行微调(fine-tuning stage)[^16]
Unsupervised Clustering
- 邻域聚合:data points within a neighborhood feature space likely share a same semantic label
- 可以避免cluster collapse簇坍缩(?)
Approach
Definition
-
定义:基础数据集 $latex D^b = {(x_i,y_i)}^{N^b}_{i=1}$,未标注数据集 $latex C^b$。设置数据集$latex D^n = {X_j}^{N^b+N^n}_{j={N^b+1}}$,其中包含来自数据集$latex C^b$ 的数据$latex x_i$。
- 目标是从图像空间中学习 $latex X={X_i}^{N^b+N^n}_{i=1}$到映射$latex Y={l}^{C^b+C^n}_{l=1}$中
- 对于每一个目标都提取其视觉特征,并将其输入批处理和类处理中,使用交叉熵损失(the cross-entropy loss[^3])进行训练。
- 对于来自基础数据集的数据,使用ground-truth label作为训练目标;对于来自$D^n$数据集的数据,使用伪标记生成目标。
- 遵循原则 Known UnKnown 每个专家都在应该知道的时候知道(?)
- 交叉熵损失定义为 $L_{ce}(,y)=-ylogsigma(hat{y}^phi/tau)$ [没看懂这块是干什么用的];用了另一个正则表达式来显式抑制非目标输出
[^3]: Link to:(6条消息) 简单谈谈Cross Entropy Loss_时光杂货店的博客-CSDN博客_xentropy loss
Training Targets
没理解,还得再看看
Overall Objective
四个专家都以端到端方式进行联合训练。整体损失定义为$latex mathscr{L}(x,y)=mathscr{L}+{ce}(hat{y}^phi,y)+mathscr{L}+{ce}(hat{y}^psi,y)+mathscr{L}_{reg}(hat{y}^phi)$,
将四个专家的输出进行组合,前两项对应批处理专家的贡献,后一项对应类处理专家的贡献。
Experiments
- 使用数据集为CIFAR10、CIFAR100、ImageNet
-
测试方式
- task-aware :数据集已知,用于评估在新集上测试划分的性能。
- task-agnostic:数据集未知,同时在新集和已知集上测试划分性能。
- Detail:ResNet-18 作为图像编码器,有添加适度的随即裁剪、反转、抖动和灰度。
通过消融实验评估了每一个模块的作用和影响。