acm-header
登录

ACM通信

的观点

波兰尼的复仇和人工智能的隐性知识新浪漫


机器人骑自行车,插图

来源:盖蒂图片社

在2019年图灵奖演讲中,Geoff Hinton谈到了两种使计算机智能化的方法。他开玩笑地称其一为“智能设计”(或将特定任务的知识传授给计算机),另一个是他最喜欢的“学习”,即我们只向计算机提供例子,让它们学习。Hinton传达的信息并不微妙,“深度学习革命”表明,唯一正确的方法是第二种。

辛顿当然是在强化人工智能的时代精神,即使只是以一种教义的形式。近来,人工智能技术俘获了大众的想象,这在很大程度上要归功于感知智能方面令人印象深刻的成就——包括学习识别图像、声音和基本语言——并通过智能手机和个人数字配件将这些进步的成果带给每个人。这些进步大多数确实来自“学习”方法,但重要的是要理解这些进步来自“隐性”的知识领域——尽管我们可以识别人脸和物体,但我们没有办法明确地表达这些知识。“智能设计”方法在这些任务中失败了,因为我们真的没有针对这种隐性知识任务的有意识的理论。但是,那些我们有明确知识的任务和领域,尤其是那些我们设计的?是否禁止将这些知识提供给人工智能系统?

uf1.jpg
数字“人类,请赐予我宁静,让我接受我学不到的东西,赐予我数据,让我学习我能学习的东西,赐予我智慧,让我知道两者的区别。”

博学多才的波兰尼对这样一个矛盾的事实感到惋惜:人类文明侧重于获取和编纂“显性”知识,尽管人类知识的很大一部分是“隐性”的,不能通过明确的口头指示进行交换。他的格言“我们知道的比我们能说的多”经常被视为早期人工智能努力的主要障碍的精辟总结,尤其是在感知方面。

波兰尼的悖论在一定程度上解释了为什么人工智能系统最终会朝着几乎与人类婴儿相反的方向发展。婴儿早在他们在需要推理技能的认知任务中表现出专业技能之前,就已经表现出感知智能(识别面孔、声音和语言)、身体操作(把所有东西放进嘴里)、情商和社交智能等方面的能力。相比之下,人工智能系统已经展示了推理能力——无论是专家系统还是国际象棋,早在它们能够在智能的其他隐性方面(包括感知)显示任何能力之前。

从某种意义上说,人工智能从让计算机去做我们(人类)有显性知识的任务,到让计算机去学习做我们只有隐性知识的任务。最近的感知智能革命是在标记数据(如猫、面孔、声音、文本语料库等)变得丰富之后发生的,这多亏了互联网和万维网,使得机器能够在人类不能完全给它们明确的知识时寻找模式。

然而最近,在人工智能的研究和实践中,波兰尼的悖论正在变成波兰尼的复仇。最近的进展已经使人工智能成为从大量数据中学习的代名词,即使在我们确实有明确的理论和来之不易的因果知识的任务中也是如此。一个这种拒绝在人工智能系统中接受任何形式的显性知识——即使是在我们设计的任务和环境中操作的人工智能系统——是令人困惑的。在深度学习系统中获取显性知识的唯一“合适”方法似乎是通过架构偏见将它们偷运进来,或向它们提供制造的示例。坊间证据暗示,行业从业者很容易将教条和标准操作程序转换为“数据”,只是为了从数据中“学习”知识。就连研究人员也不能幸免——最近发表在《科学》杂志上的一篇论文自然机器智能专注于如何通过从数十亿个例子中学习来解决魔方,而不是接受这个谜题的简单规则。还有政策上的影响。许多政府对人工智能研究基础设施的提议,完全依赖于为各种任务创建(和管理)海量数据集。

目前,人们热衷于抛弃来之不易的显性知识(通常是因果性的),只是试图(重新)从例证和隐性知识的痕迹中学习它,这充其量是不切实际的。想象一下,加入一家公司,拒绝接受他们标准操作流程的建议,而是坚持从观察和行动中学习。即使这样的方法可能会挖掘出公司实际运作中隐藏的模式,但作为一名员工,它仍然是一种非常低效的方式。类似的担忧也会出现在决策支持场景中的AI助手身上。

对这种“学习优先”趋势的一个共同辩护是一种渐近的论点,即由于我们人类——拥有大脑的基本神经基础——已经成功地开发了通过显性知识进行交流的共享表征和能力,纯粹基于学习的人工智能系统最终很可能实现这一目标。也许。但很明显,我们离这一点还很远,而一种误导的热情正在导致AI系统接受显性知识,并与显性知识一起工作,这导致了目前的大量问题。

事实上,人工智能与隐性知识的恋情对我们系统的安全性、正确性和偏见有着明显的不利影响。我们可能是在隐性知识的基础上进化而来的,但我们的文明一直都是关于显性知识和编纂的——无论多么近似或渴望。人工智能技术部署中面临的许多紧迫问题,包括可解释性问题、数据集偏见问题以及鲁棒性问题,都可以直接追溯到对从数据中学习隐性知识的单一关注,而不受任何从人类身上获取的显性知识的影响。当我们的系统从原始数据中学习它们自己的表示时,我们几乎没有理由相信它们的推理会以任何有意义的方式对我们进行解释。拒绝明确接受“建议”的人工智能系统正把“所有规则都有例外”的格言奉为“什么是规则”的极端,这与文明进步背道而驰,严重阻碍了机器决策对循环中的人类的可解释性和可争议性。

当人工智能与主审医生除了原始数据之外几乎没有共同知识时,我们对使用人工智能的医疗诊断系统能有多大信心?这不再是一种假设。就在最近,一篇论文JAMA皮肤病证明了商业认可的用于黑色素瘤检测的人工智能系统很容易被良性痣旁的手术皮肤标记所误导。维特根斯坦在某种程度上暗示了这一点,他说:“如果狮子会说话,我们就无法理解他。”

就公众认知而言,至少部分问题在于我们自己对隐性知识的非常人性的浪漫,尽管文明的进步依赖于显性知识,但这种浪漫仍在继续。我们倾向于浪漫化我说不出口不可言说(没有人会用一大堆可证伪的属性来“解释”他们的爱,从而给他们的生活伴侣留下深刻印象!)这种非常人性化的特质让那些无需告知就能学习的AI系统变得更加吸引我们(更别提它们的高深莫测和随之而来的头痛)。

虽然我们很容易对计算机在我们没有意识模型和显性知识(例如视觉、语音)的任务中的表现印象深刻,但也有很多领域,尤其是那些由人类设计的领域,我们确实有模型,并且愿意分享它们!事实上,人类文明的标志就是这种明确知识的稳步积累。毕竟,许多动物的感知能力比我们人类更敏锐,但我们之所以能走得更远,是因为我们有能力获取和使用显性知识,而不是只从观察中学习。重要的是,人工智能系统能够在现成的情况下获取这些知识,而不是坚持通过实例和观察间接地重新发现这些知识。拓宽人类和人工智能系统之间的渠道,接受现成的知识,无论是明确的规范和规则、因果模型还是共享的词汇,都不应该感到羞耻。

当然,以一种完全有原则的方式将学习和显性知识结合起来仍然是一个开放的问题。通常,显性知识可能只提供最初的偏见,并通过学习得到完善。为了有效地做到这一点,我们将需要超越通过模型架构窃取知识的方法。然而,当我们忙于在这个问题上取得进展时,我们至少应该抵制将获取和使用显性知识污名化的诱惑。

我们发现,对于像人脸识别这样的隐性任务,坚持显性知识是没有结果的。忽视现成的显性知识,坚持从例子中学习/恢复,同样是徒劳的。我们的机器必须有智慧,知道什么时候该接受建议,什么时候该学习。

回到顶部

作者

苏巴拉奥Kambhampatirao@asu.edu)是美国亚利桑那州坦佩市亚利桑那州立大学计算机科学教授。他是人工智能促进会(Association for the Advancement of Artificial Intelligence)的前任主席,也是AAAI、AAAS和ACM的会员。大家可以在推特上关注他@rao2z.关于这个话题的更详细的讨论可以在https://bit.ly/3kyUNND

回到顶部

脚注

a.最近有兴趣将深度学习系统超越其当前的反思性系统1的能力,带到审议性系统2的能力,这与隐性/显性知识的区别有关,但在一定程度上正交。虽然大多数隐性知识任务在系统1中得到处理,但显性知识任务在系统2中开始,但为了提高效率,可能会被编译成系统1的反射行为。我感兴趣的是让人工智能系统利用人类的知识来完成显性知识任务。


版权归作者所有。
向所有者/作者请求(重新)发布许可

数字图书馆是由计算机协会出版的。版权所有©2021 ACM, Inc。


评论


约瑟夫Bedard说

谢谢你的这篇文章。您优雅、具体、透彻地描述了深度学习系统中的一个问题,这个问题在过去4年里一直在潜意识里困扰着我。


欢刘

万岁!


Shai Ben-David

这是一篇重要的、及时的、清晰的“回归常识”文章。在人工智能和机器学习中没有奇迹,“没有免费的午餐”定理声称学习“需要”先验知识,没有也不能被“例子证明”(深度学习的成功)或“权威证明”(Hinton说)驳斥。


Amit Sheth

真的很喜欢阅读这种观点。对于许多人工智能领域的人来说,这是一个#必须传播的话题,因为知识在解决纯数据驱动和统计人工智能方法的不足方面发挥着越来越大的作用。这个观点启发了我写下一些互补的观点:https://www.linkedin.com/pulse/mini-community-reflection-raos-article-romance-tacit-knowledge-sheth/


显示所有4评论

登录为完全访问
»忘记密码? *创建ACM Web帐户
文章内容:
Baidu
map