acm-header
登录

ACM通信

ACM新闻

机器学习的草率使用正在导致科学领域的“可重复性危机”


人们对人工智能潜力的兴奋促使一些科学家押注人工智能在研究中的应用。

来源:PM Images/Getty Images

历史表明,内战是人类最混乱、最可怕的事情之一。因此,普林斯顿大学教授阿尔温德·纳拉亚南和他的博士生萨伊什·卡普尔去年开始怀疑,因为他们发现了一系列政治学研究,声称预测内战何时爆发的准确率超过90%人工智能

一系列的论文描述了使用这种方法的惊人结果机器学习这项技术深受科技巨头的喜爱,是现代人工智能的基础。据称,将其应用于一国的国内生产总值和失业率等数据,在预测内战爆发方面比更传统的统计方法高出近20个百分点。

然而,当普林斯顿大学的研究人员更仔细地观察时,许多结果都是海市蜃楼。机器学习包括向算法输入过去的数据,然后对其进行调整,使其对未来看不见的数据进行操作。但在几篇论文中,研究人员未能正确分离用于训练和测试代码性能的数据池,这一错误被称为“数据泄漏”,导致系统使用以前见过的数据进行测试,就像学生在得到答案后进行测试一样。

卡普尔说:“他们声称近乎完美的准确性,但我们发现,在每一个案例中,机器学习管道都存在错误。”当他和纳拉亚南修正这些错误时,他们发现现代人工智能几乎没有任何优势。

《连线》杂志
查看全文


没有找到条目

登录全面存取
忘记密码? »创建ACM Web帐户
Baidu
map