acm-header
登录

ACM通信

ACM新闻

IBM:与人工智能偏见的斗争永远不会结束


人工智能有可能帮助人类做出更公平的决定,但前提是我们必须认真努力,让人工智能系统也变得公平。

解决人工智能中的偏见问题不是一件简单的事情。

资料来源:麦肯锡公司

尤其是偏见的问题种族而且性别偏见算法和人工智能系统正通过源源不断的不受欢迎的故事流入公众意识。根据IBM研究中心的人工智能伦理主管表示,解决这个问题不是一件简单的事情。

“解决这个问题真的是一个过程,”弗朗西斯卡·罗西周二在巴黎巴黎大学说《财富》杂志巴黎全球论坛。“当你交付一个人工智能系统时,你不能只在产品准备部署时考虑这些问题。不仅仅是训练数据,每个设计选择都可能带来无意识的偏见。”

罗西是在回应IBM的AI公平360工具包——该公司去年发布的一套指标,旨在检测和消除数据集和机器学习模型中的隐藏偏见——可能会鼓励使用该指标的公司形成一种“清单心态”。

她说:“没有一个时刻是你检查了某件事就完事了。”“对我们来说,这些工具包是研究人员群体共同了解解决问题的最佳方法的一种方式。”

但罗西强调,解决方案不会仅仅来自人工智能研究人员。“重要的是要明白,这些问题中的任何一个都不是人工智能专家可以单独识别和解决的,”她说。“它往往是在一个非常多学科的背景下和一个非常多利益相关者的背景下解决的。”

罗西和Facebook人工智能研究部门的联席董事总经理安托万·博尔德斯还讨论了确保算法做出的决策是可解释的问题——这是监管机构,尤其是欧洲的监管机构,越来越热衷于实现的。

“这是可解释性还是可解释性?”“我们更关注的是可解释性……更多的是内部诊断。”

然而,IBM的罗西却有不同的看法。

“我们两家公司的商业模式完全不同,”罗西说。他解释说,企业人工智能的用户把这个问题视为根本问题。

罗西说:“你可以把人工智能注入那些决策风险非常高的公司,比如公共部门、司法系统或医疗保健。”“你需要提供问责和补救的可能性。”她补充说,在医疗保健领域,“对于每个决定,你可能想要向不同的接受决定的人提供不同的解释,比如医生、病人和亲属。”

《财富》杂志
查看全文


没有发现记录

登录为完全访问
»忘记密码? »创建ACM Web帐号
Baidu
map