种族和其他偏见越来越被认为是困扰软件算法和数据集的一个问题。9,12这很重要,因为算法和数字平台组织了越来越多的社会、政治和经济生活领域。算法已经在不断扩大的数据集中进行筛选,以提供信用评级、提供个性化广告、配对约会网站上的个人、标记不寻常的信用卡交易、推荐新闻文章、确定抵押贷款资格、预测未来犯罪的地点和罪犯、分析résumés、为求职者排名、协助保释或缓刑程序,以及执行各种各样的其他任务。数字平台由在软件中执行的算法组成。正如劳伦斯·莱西格(Lawrence Lessig)所观察到的,在执行这些功能时,“代码”在构造人类活动方面的作用就像法律一样。算法和在线平台不是中立的;它们是用来框定和驱动行动的。8
如果没有适当的缓解,预先存在的社会偏见将嵌入到做出或构建现实世界决策的算法中。
算法“机器”是建立在关于人和物之间关系的特定假设之上的。随着机器学习等技术的广泛应用,人们的担忧正变得越来越尖锐。对于工程师和政策制定者来说,了解算法过程中如何以及在哪里会出现偏差,有助于解决这个问题。我们的贡献是引入了一个可视化模型(见附图),它扩展了以前的研究,以定位算法过程中可能发生的偏差。6
没有发现记录