最近看到很多概念,杂乱无章有点分不清楚,条分缕析来总结一下。
对比学习和度量学习都是表示学习的分支。
近几年对比学习如火如荼,其主要思想是,通过构造正负样本,使得正样本间的距离靠近,负样本间的距离拉远,且负样本间的距离远远大于正样本间的距离。对比学习主要用在无监督和半监督任务中,且为单正例,多负例。
一个好的对比学习系统应该兼顾Alignment和Uniformity,若丢失Alignment,则说明该系统并不能学习到良好的表征;若丢失Uniformity,则说明产生了模型坍塌问题。
对比损失(Contrastive Loss):这一损失最早是Yann LeCun于2016年在论文中提出的。当时该损失主要用在孪生网络中。
对比学习损失(Contrastive Learning Loss):该损失中有一个超参数\tau是为了感知负例难度,其值越小,模型关注到的负样本越少,也越困难。当\tau➡0时,模型只关注到距离当前正样本最近的1~2个负样本,该损失便退化成 Triplet Loss.
与对比学习相似,度量学习也是通过构造正负样本,拉近正样本间的距离,拉远负样本间的距离。度量学习主要用于有监督任务中,且为二元组或三元组形式。
Pytorch中可直接调用MarginRankingLoss实现
Pytorch中可直接调用TripletMarginLoss实现
这些语言模型的思想本质上都是通过在大规模训练语料上,使用合适的损失函数进行训练,得到能够更好地提取文本特征的预训练语言模型。
给定上下文信息,预测文本掩码中的词,提高模型对文本的特征提取能力。
给定上文信息,预测文本掩码中的词,提高模型生成的文本的流畅性,一般用于文本生成任务中,如GPT系列、ChatGPT(GPT-3变体)、CTRL等。
值得注意的是,CMU和google brain联手推出的Bert改进版模型XLNet将MLM与CLM二者结合,两全其美。
共享权重
不共享权重
上一篇:阿里回应计划出售哔哩哔哩ADR:主要基于自身资本管理目标,不影响业务合作 阿里回应计划出售哔哩哔哩ADR:主要基于自身资本管理目标,不影响业务合作
下一篇:36氪独家丨饿了么新三年战略规划:距结束亏损只差一些时间,仍将以上市为目标 36氪独家丨饿了么新三年战略规划:距结束亏损只差一些时间,仍将以上市为目标