MixMatch: A Holistic Approach to Semi-Supervised Learning学习笔记
迪丽瓦拉
2025-05-28 03:05:23
0

MixMatch

  • 相关介绍
  • 主要思想
  • 过程
    • 损失函数![在这里插入图片描述](/uploadfile/202505/50827de043dbbb7.png)
    • 数据增强
    • MixUp算法
    • 算法流程
  • 实验
  • 参考资料

相关介绍

半监督学习已被证明是一种强大的学习范式,可以利用未标记数据来减轻对大型标记数据集的依赖。在这项工作中,本论文统一了目前半监督学习的主要方法,以产生一个新的算法,MixMatch,该算法为数据增强后产生的无标签示例猜测低熵标签,并使用MixUp混合有标签和无标签数据。MixMatch通过大量的数据集和标记数据量获得最先进的结果。

Q:什么是低熵标签?
A:低熵标签指的是远离决策边界。远离决策边界的数据密度会提升,数据出现的可能性会提升,信息熵就会下降。所以,低熵标签确保标签远离决策边界以提高其置信度。

主要思想

最近的许多半监督学习方法,通过在无标签数据上加一个损失项来使模型具有更好的泛化能力。损失项通常包含以下三种:

  1. 熵最小化(entropy minimization): 鼓励模型在无标签数据上输出高置信度的预测结果
  2. 一致性约束(consistency regularization): 鼓励模型在数据有扰动之后输出相同的概率分布
  3. 通用正则化(generic regularization): 鼓励更好泛化和降低过拟合。

MixMatch通过将现有方法融合到一个损失里面,取得了很好的效果。

过程

给定一批具有one-hot标签的示例X和一批同样大小但是无标签的数据U,MixMatch产生一批数据增强后的带标签的数据X′ 和一批增强(对于每个无标签的数据进行K次增强)之后无标签的例子和它们猜测的标签(软标签)的U′。之后两个数据集被用来计算标记数据Loss和未标记的Loss。

损失函数在这里插入图片描述

其中|X′|==Batch Size,|U′|==K倍的Batch Size,L是分类的个数,H(.)是简化的交叉熵函数。x,p分别是增广的有标签数据输入和标签,u,q是增广的无标签数据输入和标签。
X′ 和 U′ 分别对应着加强之后的数据集,第一个Lx计算有标签的数据的交叉熵损失,第二个Lu(使用L2 Loss)是计算无标签数据的损失。

数据增强

对于没有标签的数据,进行K次增强,得到K个软标签(不是one-hot哪种标签,而是对于每个类别的概率),对 K 个结果求平均,这里的结果表示预测标签,使用sharpen算法对得到的预测标签的结果进行后处理,所谓sharpen,表示为:
Sharpen⁡(p,T)i:=pi1T/∑j=1Lpj1T\operatorname{Sharpen}(p, T)_{i}:=p_{i}^{\frac{1}{T}} / \sum_{j=1}^{L} p_{j}^{\frac{1}{T}}Sharpen(p,T)i​:=piT1​​/∑j=1L​pjT1​​
整体流程如下图所示:
在这里插入图片描述

MixUp算法

本文所用的Mixup算法和Mixup论文提到的算法有一点点区别。基本流程如下:
λ∼Beta⁡(α,α)λ′=max⁡(λ,1−λ)x′=λ′x1+(1−λ′)x2p′=λ′p1+(1−λ′)p2\begin{array}{l} \lambda \sim \operatorname{Beta}(\alpha, \alpha) \\ \lambda^{\prime}=\max (\lambda, 1-\lambda) \\ x^{\prime}=\lambda^{\prime} x_{1}+\left(1-\lambda^{\prime}\right) x_{2} \\ p^{\prime}=\lambda^{\prime} p_{1}+\left(1-\lambda^{\prime}\right) p_{2} \end{array}λ∼Beta(α,α)λ′=max(λ,1−λ)x′=λ′x1​+(1−λ′)x2​p′=λ′p1​+(1−λ′)p2​​
权重因子λ\lambdaλ是使用超参数α\alphaα通过Beta{Beta}Beta函数抽样得到。通过这个流程可以得到最后的X′更加和X1接近,p同理。

算法流程

在这里插入图片描述
3:对于带标签数据,对batch中每一个数据,做一次数据增强。
4&&5:对于无标签数据,对batch中每一个数据,做 K 次数据增强。
7:使用模型对无标签数据增强后的结果进行分类,对 K 个结果求平均,这里的结果表示预测标签。
8:使用sharpen算法对【7】的结果进行后处理
10:增强后的带标签数据重新组成一个batch
11:增强后的无标签数据和其通过【8】得到的预测标签组成 K 个batch
12:对【10】和【11】得到的数据进行concatenate和shuffle操作
13:对【10】得到的数据(一个batch大小)和【12】得到的数据的前一个batch大小的个数据,进行mixup操作,得到输出
14,对【11】得到的数据( K个batch的大小 和【12】得到的数据的后
KB个数据(K个batch),进行mixup操作,得到输出

咕咕咕咕咕咕

实验

参考资料

https://zhuanlan.zhihu.com/p/529595891
https://zhuanlan.zhihu.com/p/66281890

相关内容

热门资讯

LinkedList源码解析 Java源码系列:下方连接 http://t.csdn.cn/Nwzed 文章目录...
软件测试2 web测试 (1)web控件测试 ​ 界面检查、单行文本框、多行文本框、...
JVM调优策略 对JVM内存的系统级的调优主要的目的是减少GC的频率和Full GC的次数。   1.Full GC...
快速过一遍ThreadLoca... Thread属性之ThreadLocalMapThreadLocal是java的用来做线程隔离的一个...
【云原生-Docker】Doc... 前面大概介绍了下 Docker组成 Docker大部分的操作都围绕着它的三大核心概念:...
Android---动态权限申... 目录 权限分类 动态权限核心函数 简易实现案例 完整代码     Google 在 Android ...
镜像制作dockerfile编... 1.基于容器制作镜像 示例1: step(1)创建容器并编写内容 [root@...
tcp服务器设置accpet为... 监听socket必须绑定一个端口,以便其他客户端可以连接到这个端口,并与...
试题 历届真题 天干地支【第十... 一、试题来源:第十一届蓝桥杯——天干地支 资源限制 内存限制:256.0...
为什么需要在差分或者重要信号换... 大家可能如果对画PCB没有经验的话,可能不太理解为什么差分线在换层时需要在差分孔旁边打...
Linux线程同步 写在前面 来说线程最后一个内容,今天将补充线程互斥的缺陷,同时我们将学习最常见的一个设计模式,最后我...
快速安装TensorFlow2... 该教程仅适用于初学者,用CPU版本的TensorFlow,安装更快更简单...
从入门到精通:识别滑块验证码缺... 验证码识别是目前互联网应用中普遍存在的技术之一,它通过验证用户输入的信息是否符合要求来...
UART使用 目录 一、uart 二、终端 Terminal 1、终端的分类 2、终端对应的设备节点 三、串口的应...
ONLYOFFICE Docs... ONLYOFFICE Docs crack   文档编辑器   增加了对添加复杂字段的支持。   添...
数学建模-如何用matlab画... 1 画图基本指令hold on :保持打开的命令关闭图形保持功能hold off:title ( x...
ROC曲线和AUC值 ROC曲线(Receiver Operating Characteristic...
【2023.3.8】数据结构复... 【2023.3.8】数据结构复习笔记 文章目录【2023.3.8】数据结构复习笔记序言一、绪论二、线...
一个完整的渗透学习路线是怎样的... 前言 1/我是如何学习黑客和渗透? 我是如何学习黑客和渗透测试的,在这里...
HJ27 查找兄弟单词 描述 定义一个单词的“兄弟单词”为:交换该单词字母顺序(注:...