Nat Mach Intell | 学习不能走捷径:深度学习必须克服的挑战

Nat Mach Intell | 学习不能走捷径:深度学习必须克服的挑战

原创 xiaoyudian 图灵基因 今天

收录于话题 前沿生物大数据分析

撰文:xiaoyudian

Nature子刊

推荐度:⭐⭐⭐⭐⭐

亮点

1、文章分析了深度学习失败中的重要问题,捷径学习的应用性和决策规则,并采用实际的案例分析,对这一结论进行评估,提出了一系列的建议,希望能够推动机器学习的发展。


近日,德国和加拿大的研究团队Robert Geirhos等人在《Nature Machine Intelligence》上发表了一篇名为“Shortcut learning in deep neural networks”的文章。文中从深度学习出发,提出了其失败的潜在问题,捷径学习。并通过一系列真实客观的实例对其进行分析评价,发现捷径是在标准基准上表现良好但不能转移到更具挑战性的测试条件(如真实场景)的决策规则。在此基础上,提出了一套用于模型解释和基准测试的建议,突出了机器学习的最新进展,以提高从实验室到实际应用的稳健性和可移植性。



深度学习对我们的生活和社会产生了巨大的影响。神经网络能够准确地识别人脸,但对于边缘人群的人脸,它显示出很高的错误率。DNN可以为图像生成一个合理的说明,能够根据简历预测招聘决定,但算法的决定偏向于选择男性。许多失败案例并不是独立的现象,而是在DNN遵循意想不到的捷径策略的意义上联系在一起的。在主要层面上,捷径学习并不是一种新现象。机器学习领域长期以来一直渴望发展对快捷学习的正式理解,这导致了在不同术语下不断增加的工作。这一观点旨在对各种可统称为“捷径”的现象提出一种统一的观点,描述它们背后的共同主题,并列出在理论和实践中解决这些问题所采取的一些方法。

首先,捷径学习不仅仅是机器学习中的问题:从学生的学习方式,到大鼠在行为实验中使用的意想不到的策略,捷径学习的变体在生物神经网络中也很常见。图2显示了一个简单的分类问题,该问题是对神经网络进行训练的。当在相似的数据上测试模型时,网络表现得非常好,或者看起来是这样。该网络依靠恒星和卫星的位置而不是它们的形状,使用一种快捷方式来解决分类问题。当位置被控制时,网络性能恶化为随机猜测。



任何神经网络(或机器学习算法)都实现了一个决策规则,该规则定义了输入和输出之间的关系,在本例中为每个输入图像分配了一个类别。捷径是一组特殊的决策规则。为了将它们与其他决策规则区分开来,研究者在这里引入一种决策规则的分类(如图3所示)。



按照这种分类法,捷径是在i.i.d.测试数据上表现良好但在o.o.d.测试上失败的决策规则,这表明预期的解决方案与学习的解决方案之间不匹配。当通过捷径学习的角度评估一个模型或任务时,在现实世界中需要考虑到两个不同的方面。首先,数据中的捷径机会:以不同于预期的方式解决问题的可能性以及决策规则,不同的特征是如何组合的。这些方面共同决定了模型如何泛化。

事实上,许多模型的预测都是基于情境。众所周知,这些所谓的数据集偏差长期以来一直是机器学习算法的问题。人类也会受到情境偏差的影响,但当情境缺失时,他们的预测受到的影响要小得多。即使是在容量大、种类多的大数据中,系统偏差仍然存在,因此,即使是大型的真实数据集,通常也包含许多捷径机会。

区别学习的不同于通过依靠给定的数据集选择任何特性生成模型,但学习机器没有用于辨别的实际和特征的概念去定义一个对象。对象的定义依赖于影响决策规则的不同来源或属性的信息组合。在标准的鉴别性特征学习中,一些决策规则甚至只依赖于一个预测像素,而忽略了所有其他证据。

在图4底部的棕色曲线,标准DNNs预测吉他具有很高的确定性。通过泛化测试,DNN似乎学会了检测特定的模式而不是吉他,一个成功的训练和i.i.d.测试数据策略,导致o.o.d.数据的意外泛化。这说明了快捷学习和泛化之间的内在联系。通常,通过意外泛化的案例发现了快捷学习,揭示了人的意图和模型学习的解决方案之间的不匹配。有趣的是,DNNs并没有普遍缺乏o.o.d.泛化(图4)。这强调了泛化失败既不是学习的失败,也不是推广的失败,而是不能在预期的方向上的推广。




早在很久以前,机器学习社区的部分人员就已经发现了许多快捷学习的独立元素,其中一些已经取得了实质性的进展,但目前还在探索各种方法,没有一个普遍接受的策略。研究者认为主要通过仔细解释结果和用于检测捷径的o.o.d.泛化测试的方法可能有助于减轻快捷学习。其中,最少努力的原则和理解归纳偏见的影响两个原则是非常重要的。对于机器来说,一个解决方案是否容易学习并不仅仅取决于数据,而是取决于机器学习算法的四个组成部分:架构、训练数据、损失函数和优化。模型的这些组成部分的归纳偏差会影响哪些解决方案比其他方案更容易学习,从而最终决定是否学习捷径而不是预期的解决方案。

总之,捷径学习是通向公平、健壮、可部署和可靠的机器学习的关键障碍之一。虽然完全克服快捷学习可能是不可能的,但任何减轻它的进展都将导致学习解决方案和预期解决方案之间更好的协调。此外,机器的决策将变得更加透明,更容易地检测和消除偏见。目前,关于快捷学习的研究还分散在不同的群体中。因此,希望能够推动不同社区的讨论,并发起一场运动,推动o.o.d.普遍化的新标准范式,取代目前的i.i.d.测试。

教授介绍



Felix A. Wichmann,德国图宾根大学神经信息处理专业教授,MPI-IS的兼职高级研究科学家。

Felix Wichmann的工作探索了机器学习与心理物理学之间的协同作用。他研究了从简单的人工刺激到复杂的物体和场景感知的感知过程,结合了心理物理实验和由机器学习和推理方法驱动的计算模型。目前,主要有三个方向的研究重点:发现观察者在复杂的感知任务中使用的关键特征;开发早期空间视觉的计算有效模型;研究因果关系的视觉感知。目前已在Nature子刊等杂志发表多篇论文。

相关链接:

nature.com/articles/s42

参考文献

Geirhos, R., Jacobsen, JH., Michaelis, C. et al. Shortcut learning in deepneural networks. Nat Mach Intell 2, 665–673 (2020).doi.org/10.1038/s42256-.

发布于 2020-11-20 09:40