英国阿兰·图灵研究所(Alan Turing Institute)的研究人员正在开发一个框架,以识别和消除算法偏差。
公平的算法是对一个人做出相同的决定,无论其人口背景如何。
研究人员在数据集中列出了不同的变量,并测试了它们可能如何扭曲决策过程。他们将这种方法应用于2014年纽约市警察局的拦截搜身数据,对影响警察拦截某人决定的变量进行建模。
该团队分析了被拘留者的肤色和外貌,发现警察普遍认为非裔美国人和西班牙裔男性比白人男性更容易犯罪,这一结论可以让机器学习分析推断出犯罪行为与肤色有关。
研究人员认为,这种方法可以应用于其他需要保持其流程不受歧视的组织。
从《新科学家》
查看全文
版权所有©2017公司的信息。美国马里兰州贝塞斯达
没有发现记录