tag: DL/Contrastive alias: CV方向比较经典的对比学习论文,截止到2021年12月
学习来源:对比学习论文综述【论文精读】_哔哩哔哩_bilibili
概念简单,容易理解。但是batchsize太大(4096/8192)
正样本:2 负样本:2(N-1)
增加mlp+relu可以在ImageNet上提升将近10个点。本篇论文在fc做非线性变换之后的特征是128维。
normalized temperature-scaled 交叉熵函数
projection head函数 $g()$ 只有在训练的时候使用,下游任务只使用特征 h
相比较[[InvaSpread]],贡献:
数据增强策略:
最有效的是==Crop==和==Color==
非线性层(mlp+relu):
将SimCLR上的技术用到MoCo上面。
改动:
与SimCLR的比较:
小部分讲解模型改进从 v1 -> v2, 大部分篇幅讲如何做半监督学习
模型改进:
SimCLR v1 和 SimCLR v2 只做了分类任务。MoCo 做了很多下游任务
用一个视角的特征预测其他视角的特征,这些特征应该是相似的。对比学习 + 聚类
去跟聚类中心对比。ImageNet上大概有3000个聚类中心。
特征:(B, D) prototypes:(D, K)
使用聚类:
性能提升关键点:
cmc2: 适量互信息。infoMin,选择合适的数据增强等
负样本是一个约束。正样本是让同一类的物体特征尽可能相似。如果没有负样本则模型会学到一个shortcut:所有特征都一致
不需要负样本
不需要大batchsize
不需要动量编码器
stop-gradient操作。
Expectation-Maximization(EM) 操作
###
下一篇:今日笔记---数论