半监督-SelfMatch-论文阅读笔记

2023-05-16

阅读背景

SimCLR在2020年2月第一次挂在arxiv上,被ICML 2020接收

FixMatch在2020年1月第一次挂在arxiv上,被NIPS 2020接收


概括总结

SelfMatch方法和 FixMatch 都是NIPS 2020的文章,前者是work shop,后者是conference。

  • 核心方法,是将自监督的contrastive learning 和 半监督的 consistency regularization 结合,具体是SimCLR+FixMatch 的流程:首先在unlabel data上进行SimCLR的自监督预训练,再在label data 和unlabel data 上进行FixMatch 的FT训练。
  • 效果上,加上SimCLR 预训练,对FixMatch 会有不同程度的提升作用,当label data数据量较少时,提升作用较明显。同时作者发现加上SimCLR 预训练,会让模型更快地得到较好的结果。
  • 整体评价:
    • 方法的创新度不是很够,相当于给FixMatch换上了一个自监督训的预训练weight,SimCLR后新出现的很多自监督weight,以及最近新提出的效果很好的transformer,都可以这样试着用一下;
    • 此外,根据作者实验结果,本文方法在label data数据量较少时,更换预训练weight对FixMatch的提升作用是挺大的,当label data数量增大时,这样的提升效果就不那么显著了;
    • 还有很重要的一点,本文关于contrastive learning 和 consistency regularization 为什么结合后会有更好的效果,作者只是猜测说这两个方向是互补的,缺乏足够的理论解释;
    • 不过本文也提出了一个比较好的尝试方向,那就是给consistency regularization 更换好的预训练weight,这是可以尝试的

阅读过程记录

-----预习提问----

1. contrastive 和 consistency两个方向的联系?

2. SelfMatch 为什么会比 S4L 好?方法异同在哪里?都是用到了自监督预训练weight

3. p-label方法,为了避免 over-fitting and noisy labels 问题,都进行了哪些改进?

4. conss方向,引入的p-label,都在哪些方法中有体现?

5. linear evaluation protocol on ImageNet,是在所有训练集上训的吗?

----粗读:总结结论----

1. SelfMatch 方法的核心是将自监督的contrastive learning 和 半监督的 consistency regularization 结合,具体:

    • 结合方式:自监督的contrastive pre-train + 半监督 consistency FT

    • 具体采用方法:contrastive 部分用的 SimCLR , consistency 部分用的 FixMatch

2. 作者提到说selfmatch,不仅能达到更高的acc, 而且整个算法可以更快达到较好效果,原因猜测是说 contrastive 和 consistency 这两个part 是互补的(complementary)

3. 本文detribution(整体来看创新点不多):

    • 提出SelfMatch,将contrastive learning 和 半监督的 consistency regularization 结合
    • SelfMatch效果不错

4. related works:

    • 关于p-label:原始的p-label方法 suffers from the over-fitting and noisy labels
    • 关于consistency:原始方法是进行stochastic transformation function并计算L2距离,一些新方法引入了p-label 和更advanced 的数据增强方法

----精读:要点记录----

关于consistency和contrastive两部分的关系

1. 作者认为这两部分是互补的,整理在表格中:

    • 前者是最大化互信息,后者是最小化差异
    • data aug方面,前者对称的,后者是不对称的

关于SelfMatch 和 S4L 的对比

1. 两个方法,整体来说整体思路都是自监督初始化+半监督FT,具体实操上各部分的target不同。异同点总结如下:

相同点:

  • 方法结构一样:都包含了自监督pre-train + 半监督FT 这样的结构
  • 半监督FT都包含了consistency regularization 过程

不同点:

  • 自监督pre-train 实际 target 不同:
    • S4L用的是pre-text task;
    • SelfMatch是contrastive learning
  • 自监督contrastive和半监督conss的结合方式不同:
    • S4L分三步,从第一步开始,自监督contrastive loss和半监督conss的VAT就一起训练了
    • SelfMatch中,先训自监督contrastive,再训半监督conss
  • 半监督 consistency 输入部分有细微不同:
    • S4L用的是VAT,目的是维持adversarial consistency;
    • SelfMatch维持的是data augmentation consistency

2. 关于SelfMatch 为什么会比 S4L效果好,作者的解释是:

    • 自监督预训练weight方面:SelfMatch的是 target-agnostic,S4L中的预测rotate勉强算是target-specific的,作者认为前者可以学到更好的特征表示,应用于下游任务中
    • 半监督consistency方面:SelfMatch的是 data augmentation consistency,S4L是adversarial consistency,作者认为前者结构更简单并且优化空间更大

消融实验

  • SimCLR \ FixMatch \ 两者结合,在CIFAR-10(4000 label)上的accuracy对比

num of label data

SimCLR

FixMatch

SelfMatch

(SimCLR + FixMatch)

250

 

94.93±0.65

95.13±0.26

4000

91.36

95.74

95.94±0.08

50000

92.69

  

结论:这样看好像在4000 或者250 label data上,FixMatch 本身效果已经不错了,加上SimCLR提升不大

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

半监督-SelfMatch-论文阅读笔记 的相关文章

随机推荐

  • 云计算究竟有哪些优势?未来发展趋势又是怎样的呢?

    云计算的优势主要包括以下几个方面 xff1a 灵活性 xff1a 云计算提供了灵活的服务和资源管理 xff0c 用户可以根据实际需求随时调整服务的规模和配置 xff0c 避免了硬件资源浪费和过度采购的问题 成本效益 xff1a 云计算提供的
  • “裸奔”时代下,我们该如何保护网络隐私?

    当我们在互联网上进行各种活动时 xff0c 我们的个人信息和数据可能会被攻击者窃取或盗用 为了保护我们的隐私和数据安全 xff0c 以下是一些实用的技巧和工具 xff0c 可以帮助您应对网络攻击 数据泄露和隐私侵犯的问题 xff1a 使用强
  • CAS 安装配置

    1 从github上获取 https github com apereo cas overlay template 2 shell窗口构建脚本 右键 xff0c 进入shell 当前目录下运行 build cmd run 3 当出现端口被占
  • micropython 8266 驱动 12864G 液晶LCD屏幕

    1 xff0c 接线顺序 引脚定义 cs 61 Pin 4 片选 reset 61 Pin 5 复位 rs 61 Pin 16 数据 指令 1数据 0 指令 DC sda 61 Pin 13 数据信号 sck 61 Pin 14 时钟信号
  • 【软件工程】之结构化分析

    结构化分析 6 1引言6 2结构化分析建模6 3面向数据流的建模方法6 4面向数据的建模方法6 5面向状态的建模方法6 6思考题1 结构化分析的特点2 数据流图的建模元素3 数据字典 结构化需求分析的建模方法 xff1a 面向数据流的建模方
  • 在 Linux 下用 mkdir 命令来创建目录和子目录

    了解了用 ls 命令在目录中列出条目后 xff0c 现在我们要学习在 Linux 系统下创建目录 在 Linux 下 xff0c 我们可以使用 mkdir命令 Mkdir 是 make directory 的缩写词 mkdir 是什么呢 M
  • win10下删除ubuntu及其引导项

    本文主要针对UEFI和GPT双系统下Ubuntu EFI分区及启动项的删除 1 查看电脑分区信息 电脑分区信息如我上一篇博客所示 xff0c 打开win10磁盘管理器 xff0c 可以看到相应分区信息 xff0c 具体如下图 根据个人分区方
  • STM32F1,F4,L1系列禁止JTAG和SW引脚方法

    STM32F1系列 程序中在使用到JTAG SWD的某个IO 时 xff0c 需要禁用掉相关调试方法后 xff0c 再配置相应的IO方式 在需要相应的接口配置前使用这些代码 对于F1系列 xff0c 调用函数进行专门的禁止 标准库配置方式
  • 数据库关系代数思维导图

  • 关于树莓派VNC图形登录界面重复登录,并显示can not show the desktop的解决办法。

    最近我也遇到了这么一个烦人的问题 xff0c 就是树莓派一直重复登录都登不进去 首先介绍一下背景 xff0c 我用树莓派的官方镜像烧录工具重新烧录了我之前的备份 xff0c 但是发现putty可以远程登录到pi 而使用vnc远程登录无法登录
  • Ubuntu开机进入终端完成自救

    由于设置了etc下的关键配置 xff0c 导致系统一直卡在开机界面进不到系统桌面 xff0c 所以记录下自救的过程 1 重启开机后选择Ubuntu高级选项 xff0c 然后点击带有Recover的 xff0c 再点击Drop to root
  • 女生写的如何追mm.看完后嫩头青变高手

    我是女生 xff0c 看到有的男生想追自己喜欢的女孩子又不敢追 xff0c 还想人家倒追她 xff0c 我很反感 从一个女生的角度 xff0c 我比较了解女孩子的心理 女孩子大多不会主动出击 xff0c 去追求自己喜欢的男孩 xff0c 除
  • 使用Dockerfile创建docker镜像

    在Dockerfile中用到的命令有 FROM FROM指定一个基础镜像 xff0c 一般情况下一个可用的 Dockerfile一定是 FROM 为第一个指令 至于image则可以是任何合理存在的image镜像 FROM 一定是首个非注释指
  • Ubuntu下软件更新无法安装的问题

    Ubuntu安装软件提示 需要安装不能信任的软件包 解决办法 用 Ubuntu 安装输入法软件包时提示 需要安装不能信任的软件包 xff0c 这个动作需要从没有授权的软件源来安装软件包 xff0c 赋予权限执行仍然无法安装 xff0c 上网
  • 【C#】C#中FTP的操作

    C 完成与FTP服务器交互的功能代码 包括连接FTP 上传文件 下载文件 创建文件夹 删除文件夹 目录列表 获取指定文件大小 对文件的重命名 移动文件 判断路径是否存在等功能 using System using System Collec
  • 深浅层特征融合——CBNet

    写在前面 本系列博客 深浅层特征融合 对几篇出现较新的深浅层特征融合算法进行简要介绍 xff0c 多为本人的论文笔记 xff0c 记录了一个深度学习小学生在看论文时想到的问题 论文题目 xff1a CBNet A Novel Composi
  • U盘安装mips架构的Deepin(或UOS)系统及配置适用的源

    安装环境 请确保您的电脑满足以下的配置要求 xff0c 如果您的电脑配置低于以下要求 xff0c 将无法完美地体验深度操作系统 xff1a 内存 xff1a 至少 2G 内存 RAM xff0c 4G 以上是达到更好性能的推荐值硬盘 xff
  • label smooth方法论文调研

    待看论文 xff1a When Does Label Smoothing Help xff08 重点要看的 xff09 Regularizing Neural Networks by Penalizing Confident Output
  • 动手实践——docker中利用jupyter对数据增强操作进行可视化

    整体流程 docker容器内搭建合适环境 gt 开启jupyter notebook gt 浏览器里敲数据增强操作代码 gt 可视化 搭建环境 参考博客 https segmentfault com a 1190000007448177 1
  • 半监督-SelfMatch-论文阅读笔记

    阅读背景 SimCLR在2020年2月第一次挂在arxiv上 xff0c 被ICML 2020接收 FixMatch在2020年1月第一次挂在arxiv上 xff0c 被NIPS 2020接收 概括总结 SelfMatch方法和 FixMa