adversarial training为什么会起作用?

《ADVERSARIAL TRAINING METHODS FOR SEMI-SUPERVISED TEXT CLASSIFICATION》和相关论文
关注者
591
被浏览
158,751
登录后你可以
不限量看优质回答私信答主深度交流精彩内容一键收藏

adversarial training 直观去看就是用到对抗的思想,两个module通过对抗学习达到类似教学相长的目的,在unsupervised domain adaptation (UDA) 等无监督或半监督迁移学习领域近两年应用广泛,最新的sota基本都是用到adversarial learning方法,最开始的思想借鉴的GAN。

以深度UDA为例子,有两个领域(domain)的数据,source domain和target domain,source domain可以看成比如晴天数据, target domain可以看出阴天数据,只要source 和 target数据分布不要太不一样一般都能做迁移,比如不同摄像头视角的数据也可以。

然后对于UDA,也就是无监督DA问题,source的数据都是有label 的,target是没有label的,目的是通过学习使得学到的模型在target数据上表现性能不错的模型,那我们其实就是想学到更加invariant的特征。在UDA领域, 一般有个提feature的feature extractor,有个domain discriminator用来区分提的feature是属于source domain还是target domain,通过添加一个GRL层来做对抗学习,也就是,feature extractor想提出更好的特征,去欺骗domain discriminator, 而domain discriminator想优化自己努力去区分来的feature到底是来自source还是target,这样不断迭代优化, 最终feature extractor提的特征更具有欺骗性(也就是更加domain invariant,更加体现数据的共同本质),而domain discriminator的区分能力也更强。对于image classification,比较典型的UDA的文章比如 DANN[1], MADA[2]等。


近两年UDA应用于其他视觉领域的文章也越来越多,比如semantic segmentation:CVPR2019的CLAN[3]; 还有object detection:CVPR2019的Strong-Weak Distribution Alignment for Adaptive Object Detection[4] 等。看了你会发现很多都是共通的。




[1] Y. Ganin, E. Ustinova, H. Ajakan, P. Germain, H. Larochelle,F. Laviolette, M. Marchand, and V. Lempitsky. Domain-adversarial training of neural networks.The Journal of Ma-chine Learning Research

[2] Z. Pei, Z. Cao, M. Long, and J. Wang. Multi-adversarialdomain adaptation. InThirty-Second AAAI Conference onArtificial Intelligence, 2018

[3] Luo, L. Zheng, T. Guan, J. Yu, and Y. Yang. Takinga closer look at domain shift: Category-level adversariesfor semantics consistent domain adaptation.

[4] Saito, Kuniaki, et al. "Strong-Weak Distribution Alignment for Adaptive Object Detection." arXiv preprint arXiv:1812.04798 (2018).