acm-header
登录

ACM通信

瑟夫的

益普索托管公司?


谷歌副总裁兼首席互联网传教士Vinton G. Cerf

归因于羽毛未丰的,一个片名翻译过来就是“谁来监视守望者?”在21当我们越来越多地投资于机器学习方法、平台、应用程序和设计时,我们很可能会问这个问题。当我们看到人工智能(AI)在军事应用方面日益增长的兴奋和投资时,这一点就更加明显了。在某种程度上,这是一个古老的故事。早期的计算机被用来改进弹道设置的计算,随着雷达的发明,自动火控系统成为进攻和防御系统的重要组成部分。一场国际“人工智能竞赛”正在进行,这是无可争议的。当然,这并不是故事的全部。机器学习方法已经产生了令人震惊的科学结果,例如Deep Mind最近宣布的约200万个蛋白质的计算折叠。b自然语言识别、语音合成、对话式聊天机器人、“深度造假”以及无数其他应用正在从已经开发的深度学习工具中涌现出来。

其中更有趣的发展是“生成对抗网络”的概念,在这个概念中,一个神经网络试图欺骗另一个神经网络来识别它不是的东西。c这个过程可以用来加强辨别(例如,识别)神经网络的正确操作。当然,这个概念也可以用来击败成功的认可。对汽车标志或标志的微小修改可能会导致识别失败(例如,伪装)。这些例子有时说明了人类和机器图像识别之间的区别。当然,也有大量的例子表明,人类的视觉是如何被欺骗和混淆的——莫里斯·埃舍尔的画立即出现在我的脑海中。d

这一切和尤维纳利斯的话有什么关系?我对神经网络和识别或决策的潜在脆弱性思考得越多,我就越想知道我们如何能够判断神经网络的选择或决策是否错误?使用神经网络进行面部识别、贷款申请评估或假释决定的例子越来越多。在许多这种情况下,用于确定神经网络中“神经元”权重的所谓训练集的统计数据由于数据中反映的人类的错误决策而存在偏差。实际上,训练集在应用到新的应用程序时,会使结果产生偏差。

在某些情况下,这些缺陷可能会导致严重的伤害。自动驾驶汽车的错误,对友军的攻击,癌症的错误诊断,以及产生负面后果的不公平决定,这些都来自现实世界的例子,应该让我们停下来。当然,人类也会犯同样的错误。这在我脑海中提出的问题是,是否有可能训练独立的神经网络,在这类错误造成伤害之前发出警告。生成对抗网络的概念听起来似乎在这样的推理路线中扮演了一个角色。

本专栏的读者都很清楚,我通常不是所提出的主题的专家,这里肯定是这样。尽管如此,无知从未阻止我猜测,所以现在我想知道是否有可能建立“观察者网络”,可以吸收反馈,可能来自人类或人工观察者,这将加强神经网络的能力,以检测或至少发出信号,表明可能已经做出了错误的决定或选择。谷歌的同事告诉我,神经网络的不确定性估计有一个完整的子领域,e因此,模型本身可以给出一个关于输出的确定程度的估计。我很高兴地听到,通过应用该技术来提高强大神经网络的鲁棒性,似乎有机会将其潜在的弱点最小化。解决方案的种子藏在最初制造问题的技术中,这已经不是第一次了。

回到顶部

作者

文顿·g·瑟夫是谷歌的副总裁兼首席互联网传教士。2012-2014年,他担任ACM总裁。

回到顶部

脚注

a.罗马诗人尤维纳利斯讽刺诗(讽刺六,第347-348行)

b。https://bit.ly/3QHtUaB

c。https://bit.ly/3ColujT

d。https://en.wikipedia.org/wiki/Relativity_ (M._C._Escher)

e。https://arxiv.org/pdf/2011.06225.pdf


版权归作者所有。
向所有者/作者请求(重新)发布权限

数字图书馆是由计算机协会出版的。版权所有©2022 ACM, Inc.


没有发现记录

Baidu
map