在集成模型和深度神经网络(dnn)等复杂模型的推动下,机器学习正在以惊人的速度发展。这些模型在现实世界中有着广泛的应用,比如Netflix的电影推荐、谷歌的神经机器翻译、亚马逊Alexa的语音识别等。尽管取得了成功,但机器学习也有自己的局限性和缺点。最重要的一个是它们的行为背后缺乏透明度,这使得用户对这些模型是如何做出特定决策的知之甚少。例如,考虑到一辆配备了各种机器学习算法的先进自动驾驶汽车在面对一辆停着的消防车时不会刹车或减速。这种意想不到的行为可能会让用户感到沮丧和困惑,让他们想知道为什么。更糟糕的是,如果汽车在高速公路上行驶,错误的决定可能会导致严重的后果,并可能最终撞上消防车。对复杂模型黑箱性质的担忧阻碍了它们在我们社会中的进一步应用,尤其是在自动驾驶汽车等关键决策领域。
可解释机器学习将是缓解这些问题的有效工具。它使机器学习模型能够以人类可以理解的方式解释或展示它们的行为,10这被称为可解释性或可解释性,我们在这篇文章中互换使用它们。为了更好地服务人类,造福社会,可解释性将是机器学习模型不可缺少的一部分。对于最终用户来说,解释会增加他们的信任,并鼓励他们采用机器学习系统。从机器学习系统开发人员和研究人员的角度来看,提供的解释可以帮助他们更好地理解问题、数据和模型可能失败的原因,并最终增加系统的安全性。因此,学术界和工业界对解释机器学习模型并深入了解其工作机制的兴趣越来越大。
没有找到条目