合著者Thomas G. Dietterich讨论了“对人工智能的担忧的兴起”(www.eqigeno.com/magazines/2015/10/192386),他和Eric J. Horvitz的观点专栏,摘自ACM 2015年10月通讯。
---
00:00对于人工智能来说,俄勒冈州东部茂密的森林似乎是个奇怪的地方。但人工智能现在无处不在,甚至在管理这些自然资源的系统中。
00:15随着人工智能逐渐成为我们生活的背景,它所带来的危险也越来越大。
00:23加入我们,我们将与ACM研究员Thomas Dietterich就人工智能担忧的兴起展开对话。
00:32(介绍图形/音乐)
00:421910年的大火烧毁了太平洋西北部地区后,林务局致力于扑灭所有林地大火。这矛盾地导致了更严重的火灾,因为未燃烧的材料堆积起来。
00:59我们在俄勒冈州姊妹市萨特尔湖小屋(The Lodge at Suttle Lake)采访了迪特里希博士和他的同事。他告诉我们他们是如何应用人工智能来扭转这一趋势的。
01:10戴利:嗯,我们能做的一件事是,我们可以付钱让人们进入森林,清除一些积累的植被。这就是所谓的“机械燃料处理”。不过,这是相当昂贵的,所以我们不太可能做很多。但有一个非常有趣的计算问题:如果你可以把机械燃料处理放在景观中,你应该在哪里做?
01:31因此,迪特里希博士显然很欣赏人工智能在解决复杂问题方面的价值。与此同时,他和合著者埃里克·霍维茨(Eric Horvitz)指出,公众和媒体对人工智能的恐惧日益加剧,甚至来自科学界内部。
01:48戴利:我们这些在人工智能领域工作的人,多年来一直习惯于听到人们说:“你做的事情太荒谬了,永远不会成功的,计算机太愚蠢了。”突然间,我们遇到了这样的人:“哦,计算机变得太聪明了,它们现在对人类构成了威胁。”
02:06所以Drs。迪特里希和霍维茨研究了他们所认为的人工智能的真正危险,并将它们分为几类。
02:14戴利:人们对人工智能存在短期担忧,我认为这是完全有道理的。这些都源于AI是软件,而软件可能会有bug。软件可以被网络罪犯攻击。我们可能会在用户界面. ...出现问题我们也会有问题…人类司机和人工智能司机之间可能会有交接。
02:38这些担忧很复杂,因为人们对人工智能的普遍看法往往与现实不符。
02:45戴利:你可以看到,好莱坞对人工智能的描述通常有两条主线。有一种指挥官数据的故事线,这是真正的匹诺曹故事. ...另一方面是弗兰肯斯坦的怪物,我们创造了一些我们无法控制的东西。这两个故事在科幻小说和好莱坞都是很好的情节。但它们与我们日常使用人工智能的经验相去甚远,我们可以问Siri或Cortana一个问题,然后得到答案,比如“这部电影什么时候开始。”
03:18但随着人工智能超越Siri和Cortana,风险也在增加。
03:24戴利:如果Siri给你一个错误的电影开始时间,这是一回事。如果你的自动驾驶汽车发生了事故,或者你的手术机器人杀死了病人,那就完全是另一回事了。
03:36与此同时,dr。迪特里希和霍维茨驳斥了人们对人工智能最普遍的担忧之一:即“奇点”事件将导致人工智能驱动的机器在智能和能力方面突然爆发。
03:50戴利:没有理由认为会出现某种门槛现象。我认为这是对核连锁反应比喻的误用。如果你将足够多的AI“智慧元素”整合在一起,你便能够获得智能连锁反应。
04:09但Drs。迪特里希和霍维茨警告说,还有一类危险是人工智能研究人员自己都没有资格处理的:人工智能可能会产生不可预见的社会经济影响,我们所有人都必须应对。
04:25戴利:工作岗位会消失吗?这些人工智能系统会被极少数人控制吗?他们基本上控制着这些资本,并从中获得所有的经济利益?
04:38事实上,对外界的普遍关注可能是人工智能的一个新目标。
04:45戴利:所以如果我们考虑系统在世界上的作用,也许是提出医疗建议,它们需要为病人患新疾病的可能性做好准备……我认为“未知的未知”才是最大的挑战。
05:00从博士那里了解更多关于这个问题的意见。Dietterich和Horvitz在本月的ACM通讯中,在观点文章“人工智能担忧的兴起:反思和方向”。
05:14(结尾部分和学分)