专栏名称: jiangweijie1981
目录
相关文章推荐
51好读  ›  专栏  ›  jiangweijie1981

文献阅读·A two-step disentanglement method

jiangweijie1981  · 简书  ·  · 2020-03-06 12:41

正文

请到「今天看啥」查看全文


简介

A two-step disentanglement method,cvpr-2018,cited-28.
Open source,official,Keras and Theano,star-15.

关键字

特征解耦,GAN,监督学习,机器学习

正文

1. 任务和思路

对带标签的数据集样本进行解耦得到与学习任务相关特征和无关特征。以分类任务为例,仅用解耦后得到的相关特征能够有效的进行分类,而难以从另外的无关特征中得到类别信息,即只用这些无关特征是没法分类的。

思路上是和目的一致的,训练两个编码器,特征相关编码需要能够分类,那就最小化分类损失;特征无关编码就最大化分类损失,有了GAN之后,那就变成混淆类型信息,使判别器无法分辨分类信息。那如何保证解耦的特征没有丢失信息呢,如果解耦后的特征能够很好重构回原来的样本就说明这两个特征很好的保存了原样本信息。

2. 模型和目标函数

模型如图(原文Fig1)所示,S代表相关特征编码,Z代表无关特征编码,都使用实值表示;训练分为两个阶段,先训练S Encoder;固定其参数后再训练Z Encoder及Decoder(为了重构)的参数。上面的分阶段很关键,原因是同时训练有可能把所有信息都保存在S的编码中。

模型结构.png

这里主要是第二阶段的训练,第二阶段的目标函数如下:

\min_{\theta_Z,\theta_A,\theta_X}\{L_{rec}-\lambda * L_{adv}\}

其中 \theta_Z,\theta_A,\theta_X 分别代表上图Z Encoder,Adv Classifier,Decoder的参数。第1项是重构损失,第2项是分类对抗损失,就是混淆分类。

3. 实验

实验在toy,MNIST,NORB,Sprites,Extended-YaleB dataset上进行验证,这里就放个MNIST上的了解下效果,如图(原文Fig4)所示:

MNIST.png

参考资料

[1] Hadad, Naama, Lior Wolf, and Moni Shahar. "A two-step disentanglement method." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018.







请到「今天看啥」查看全文