acm-header
登录

ACM通信

BLOG@CACM

改变人工智能研究的性质


亚利桑那州立大学教授Subbarao Kambhampati说

https://bit.ly/3Rcf5NW2022年6月8日

在很多方面,我们生活在一个人工智能(AI)的奇妙时代,每周都有新的隐性知识(https://bit.ly/3qYrAOY)的任务,我们确信在未来相当长一段时间内计算机都无法完成。最近特别感兴趣的是基于变压器架构的大型学习型系统,这些系统在大量web规模的多模态语料库上使用数十亿个参数进行训练。著名的例子包括大型语言模型(https://bit.ly/3iGdekA),比如GPT3和PALM,它们对自由形式的文本提示做出反应,以及像DALL-E和Imagen这样的语言/图像模型,它们可以将文本提示映射到逼真的图像(甚至包括那些声称具有一般行为的模型,比如GATO)。

这些大型学习模型的出现也从根本上改变了人工智能研究的性质。就在前几天,一些研究人员在玩DALL-E时,认为它似乎已经发展出了自己的秘密语言(https://bit.ly/3ahH1Py),如果我们能够掌握,可能会让我们更好地与它互动。其他研究人员发现,GPT3对推理问题的反应可以通过在提示中添加某些看似神奇的咒语来提高(https://bit.ly/3aelxmI),其中最突出的是“让我们一步一步来思考。”这就好像像GPT3和DALL-E这样的大型学习模型是我们试图破译它们行为的外星生物一样。

这对人工智能来说无疑是一个奇怪的转折。自诞生以来,人工智能一直处于工程学(旨在为特定功能设计系统)和“科学”(旨在发现自然现象的规律)之间的无人区。人工智能的科学部分来自于其最初的设想,即提供对(人类)智能本质的洞察,而工程部分则来自于对智能功能(让计算机演示智能行为)的关注,而不是对自然智能的洞察。

这种情况正在迅速改变——特别是当人工智能成为大型学习模型的代名词时。其中一些系统已经到了这样的地步:我们不仅不知道我们训练的模型如何能够展示特定的能力,甚至对它们可能具有的能力(PALM所谓的“解释笑话”的能力)也一无所知https://bit.ly/3yJk1m4——就是一个很好的例子)。通常情况下,即使是它们的创造者也会对这些系统似乎能够做的事情猝不及防。事实上,通过探测这些系统来了解它们“突发行为”的范围,已经成为近来人工智能研究的一大趋势。

鉴于这种情况,越来越明显的是,至少部分人工智能正在坚定地偏离其“工程”根源。我们越来越难以将大型学习系统视为传统意义上的“设计”系统,并将其铭记于心。毕竟,我们不会到处说我们在“设计”我们的孩子(尽管有开创性的工作和怀孕)。此外,工程学科通常不会花时间庆祝所设计文物的新特性(你永远不会看到土木工程师高兴地跳起来,因为他们设计的经得起五级飓风的桥也被发现在每隔一个星期六漂浮!)

越来越多地,对这些训练有素(但未设计)的大型系统的研究似乎注定要成为一种自然科学,即使是一种冒名顶替的科学:观察它们似乎拥有的能力,在这里或那里做一些消融研究,并试图至少从质的上理解最佳实践,以获得良好的性能。

鉴于这些将是体外而非体内人工制品的研究,它们与生物学的宏伟目标相似,即“弄清楚”,同时满足于没有证据或保证的情况。事实上,机器学习充满了更多关注系统为什么在做它正在做的事情(类似于大型学习系统的“功能磁共振成像研究”,如果你愿意的话)的研究努力,而不是证明我们设计的系统是这样做的。我们从这些研究中收集到的知识可能使我们能够干预调节系统的行为(就像医学一样)。当然,与体内环境相比,体外环境允许更有针对性的干预。

人工智能向自然科学的转变也对整个计算机科学产生了影响——人工智能似乎对几乎所有计算领域都产生了巨大影响。计算机科学的“science”后缀有时受到质疑和讽刺(https://bit.ly/3Ayp2PT);也许再也不会了,因为人工智能已经成为研究大型人工制品的人造自然科学。当然,这一转变可能在方法论上存在显著的阻力和保留。毕竟,CS长期以来一直被认为是“通过构建来纠正”的圣杯,从那时起,它就转变为习惯于与那些充其量是被激励(“狗训练”)的系统生活在一起,以达到某种程度上的正确——有点像我们人类!事实上,在2003年的一场演讲中,图灵奖得主莱斯利·兰波特(Leslie Lamport)对未来计算属于生物学而非逻辑学的可能性发出了警告,他说这将引导我们生活在一个顺势疗法和信仰治愈的世界(https://bit.ly/3ahrsaI) !想想看,他的焦虑主要是在仍然由人类编码的复杂软件系统上,而不是这些更神秘的大型学习模型上!

当我们从一个主要关注有意设计的工件和“通过构建保证纠正”的领域,转向一个试图探索/理解一些现有(非设计的)工件的领域时,可能值得大声思考它将带来的方法上的转变。毕竟,与生物学(主要)研究野生生物不同,人工智能将研究我们创造的人工制品(尽管不是“设计”的),我们应该愿意创造和部署什么样的不被理解的生物,这肯定会存在伦理问题。首先,大型学习模型不太可能支持可证明的能力——相关的保证——无论是关于准确性、透明度还是公平性(https://bit.ly/3IhdL8i).这就提出了关于部署这些系统的最佳实践的关键问题。虽然人类也不能为他们的决定和行为的正确性提供铁证,但我们确实有适当的法律体系来确保我们与惩罚保持一致——罚款、谴责甚至坐牢。对于大型学习系统来说,等价的是什么?

毫无疑问,计算机研究的美学也将改变。我的一位亲爱的同事过去常常夸耀说,他根据定理与定义的比率来评价论文——包括他自己的论文。随着我们的目标变得更像自然科学,如生物学,我们肯定需要发展新的方法论美学(因为零定理与零定义之比不会有那么大的区别!)已经有迹象表明,计算复杂性分析在人工智能研究中已经退居次要地位(https://bit.ly/3P5sJQZ) !

回到顶部

作者

苏巴拉奥Kambhampati是亚利桑那州立大学计算与人工智能学院的教授,也是人工智能进步协会的前任主席。他研究规划和决策的基本问题,特别是受人类感知AI系统挑战的激励。人们可以在Twitter上关注他@rao2z


©2022 0001 - 0782/22/9 ACM

允许为个人或课堂使用部分或全部作品制作数字或硬拷贝,但不得为盈利或商业利益而复制或分发,且副本在首页上附有本通知和完整的引用。除ACM外,本作品的其他组件的版权必须受到尊重。允许有信用的文摘。以其他方式复制、重新发布、在服务器上发布或重新分发到列表,都需要事先获得特定的许可和/或费用。请求发布的权限permissions@acm.org传真(212)869-0481。

数字图书馆是由计算机协会出版的。版权所有©2022 ACM, Inc.


没有发现记录

Baidu
map