acm-header
登录

ACM通信

ACM的意见

消除公共部门人工智能偏见的风险


扎卡里·贾维宁是OpenText的产品营销、人工智能和分析主管。

OpenText的产品营销、人工智能和分析主管扎卡里•贾维宁(Zachary Jarvinen)表示,在人工智能系统中防止偏见的最好方法是在数据收集阶段实施道德规范。

信贷:扎卡里·贾维

公共部门正面临着数据爆炸。数字公民服务、物联网设备和企业应用程序正在以比以往任何时候都快得多的速度收集大量数据。尽管公共部门以前依赖人力官僚机构来收集、管理和处理为公民服务所需的信息,但这已不再是一种选择。当今的海量数据意味着,没有人工辅助的分析是不可行的。相反,公共部门正在转向技术。

公共部门机构必须满足对信息透明度和以较低成本提供更好服务的要求,以适应预算限制。虽然这带来了一定的挑战,但技术的进步使人工智能(AI)成为解决其中一些问题的创新方式。人工智能系统能够以更快的速度处理更复杂的信息。它们提供了规模和精确度,以增强人类决策,并使组织能够从其数据中获得可操作的见解,以改善公民服务。

然而,当我们开始进一步依赖机器和人工智能支持的决策时,必须考虑某些伦理问题。考虑到其对公民自身和更广泛的经济的影响,这对于希望实现职能自动化的政府部门和公共机构尤为重要。那么,可以采取哪些实际步骤来推动公共部门使用合乎道德、公正的人工智能呢?

保护数据集不受偏见影响

鉴于我们越来越依赖人工智能,英国警方对使用有偏见的人工智能工具表示担忧这可能会放大偏见,并可能导致警察工作中的歧视。受英国政府委托数据伦理与创新中心,这份最新的报告揭示了一些潜在的问题。英国警察的一个主要担忧是,使用现有的警察记录来训练机器学习工具可能会导致人工智能系统被逮捕的警官自己的偏见扭曲。这种情况的潜在后果令人不安。例如,某些社会成员可能更经常成为“拦截和搜查”警察战术的目标。

这种潜在的人工智能偏见是一个合理的担忧。人工智能系统是建立在数据基础上的,这意味着它们只会和我们输入的数据一样客观和公正。如果在数据集中引入人为的偏见,将会在这些数据集的应用结果中产生偏见。

在AI系统中防止偏见的最好方法是在数据收集阶段实施道德准则。这必须从足够大的数据样本开始,以产生可信的见解并减少主观性。因此,需要一个能够收集和处理最丰富和最复杂的信息集(包括结构化和非结构化数据)的健壮系统来产生最准确的见解。数据收集原则也应该由包含不同背景、观点和特点的成员的团队来检查。

然而,即使是这种谨慎的、预防性的方法也不能在任何时候都完全保护数据不受偏见的影响。所以结果必须监测偏见的迹象,并调查种族、性取向、性别、宗教、年龄和其他类似因素之间的任何显著相关性。如果检测到偏差,组织可以实施缓解策略,如调整样本分布。

为合乎道德的AI雇佣不同的团队

英国最近成为首个试行多样性法规的国家为政府使用的人工智能项目的工作人员提供服务。这些指导方针指出,从私营公司委托使用这项技术的团队应该“包括来自不同性别、种族、社会经济背景、残疾和性取向的人”。在我看来,这是朝着确保合乎道德的实施和使用人工智能技术的正确方向迈出的可喜一步。为了获得尽可能广泛的视角,企业还应该考虑聘请人力资源或伦理专家与数据科学家合作,以确保人工智能建议与企业的文化价值观一致。

在未来几年里,我们将看到人工智能技术完全改变公共部门,因为更多卑微的任务将通过人工智能和流程自动化实现数字化。然而,这不应该成为恐惧的理由。这将提高效率,同时减轻员工的日常压力。如果组织实施正确的原则和流程,对人工智能偏见的担忧可以得到解决。最终,人工智能系统的好坏取决于输入的数据,因此必须从一开始就制定道德准则。通过从一个与组织价值观一致的明确目标开始,并定期监测人工智能系统产生的结果,公共部门将能够获得人工智能和自动化的回报,而不会让公民面临人工智能偏见的风险。

扎卡里·贾维他是OpenText的产品营销、人工智能和分析主管。


没有发现记录

登录为完全访问
»忘记密码? »创建ACM Web帐号
Baidu
map