acm-header
登录

ACM通信

评论文章

可解释机器学习技术


翻腾的颜色在打开的黑色盒子

资料来源:Peter Crowther Associates

在集成模型和深度神经网络(dnn)等复杂模型的推动下,机器学习正在以惊人的速度发展。这些模型在现实世界中有着广泛的应用,比如Netflix的电影推荐、谷歌的神经机器翻译、亚马逊Alexa的语音识别等。尽管取得了成功,但机器学习也有自己的局限性和缺点。最重要的一个是它们的行为背后缺乏透明度,这使得用户对这些模型是如何做出特定决策的知之甚少。例如,考虑到一辆配备了各种机器学习算法的先进自动驾驶汽车在面对一辆停着的消防车时不会刹车或减速。这种意想不到的行为可能会让用户感到沮丧和困惑,让他们想知道为什么。更糟糕的是,如果汽车在高速公路上行驶,错误的决定可能会导致严重的后果,并可能最终撞上消防车。对复杂模型黑箱性质的担忧阻碍了它们在我们社会中的进一步应用,尤其是在自动驾驶汽车等关键决策领域。

回到顶部

关键的见解

ins01.gif

可解释机器学习将是缓解这些问题的有效工具。它使机器学习模型能够以人类可以理解的方式解释或展示它们的行为,10这被称为可解释性或可解释性,我们在这篇文章中互换使用它们。为了更好地服务人类,造福社会,可解释性将是机器学习模型不可缺少的一部分。对于最终用户来说,解释会增加他们的信任,并鼓励他们采用机器学习系统。从机器学习系统开发人员和研究人员的角度来看,提供的解释可以帮助他们更好地理解问题、数据和模型可能失败的原因,并最终增加系统的安全性。因此,学术界和工业界对解释机器学习模型并深入了解其工作机制的兴趣越来越大。


没有找到条目

登录阅读全文

登录

如果您是ACM会员、通信订阅者或数字图书馆订阅者,则使用您的ACM Web帐户用户名和密码登录以访问优质内容。

需要访问吗?

请选择以下其中一个选项以访问优质内容和功能。

创建一个网络帐户

如果您已经是ACM会员,通信订阅用户,或数码图书馆订阅用户,请设立网上帐户,以便阅览本网站的优质内容。

加入ACM

成为ACM会员可以充分利用ACM卓越的计算信息资源、网络机会和其他优势。

订阅ACM杂志通讯

获得完全访问超过50年的CACM内容,并每月收到印刷版杂志。

购买物品

非会员可以购买这篇文章或它出现的杂志的副本。
登录全面存取
忘记密码? »创建ACM Web帐户
Baidu
map