acm-header
登录gydF4y2Ba

ACM通信gydF4y2Ba

首页gydF4y2Ba /gydF4y2Ba 的意见gydF4y2Ba /gydF4y2Ba 文章gydF4y2Ba /gydF4y2Ba 运作AI伦理原则gydF4y2Ba /gydF4y2Ba全文gydF4y2Ba
计算伦理gydF4y2Ba

运作AI伦理原则gydF4y2Ba


两个金属齿轮,插图gydF4y2Ba

信贷:StarlinegydF4y2Ba

从医疗到执法,人工智能(AI)已经成为我们日常生活的一部分。人工智能相关的伦理挑战迅速增长,从算法偏见和数据隐私到透明度和问责制。作为对这些日益增长的道德问题的直接反应,一些组织已经发布了他们的AI道德实践原则(超过100套,而且还在增加)。然而,将这些模糊表述的原则相乘并没有证明对指导实践有帮助。只有将AI原则用于伦理实践,我们才能帮助计算机科学家、开发人员和设计师发现和思考伦理问题,并认识到复杂的伦理问题何时需要深入的专家分析。这些可操作的AI道德实践原则也将帮助组织面对不可避免的价值权衡,并有意识地设置优先级。首先,我们应该认识到,人工智能伦理原则作为任何基于原则的框架,从本质上来说都不是伦理决策的完整系统,也不适合解决复杂的伦理问题。但一旦付诸实施,它们就会为发现、概念化和设计伦理问题的解决方案提供一个有价值的工具。gydF4y2Ba

为了实现人工智能原则的运作和指导伦理实践,2020年2月,我们在人工智能伦理实验室创建了gydF4y2Ba人工智能原理的动态gydF4y2Ba,gydF4y2Ba一个gydF4y2Ba交互式工具箱,具有以下功能:(1)排序、定位和可视化显示时序、区域和组织发展的AI原则集;(2)比较不同原则的要点;(3)展示核心原则的分布;(4)将原则之间的关系系统化。gydF4y2BabgydF4y2Ba通过收集、排序和比较不同的AI原则集,我们发现了操作化的障碍:许多AI原则集混合在一起gydF4y2Ba核心gydF4y2Ba而且gydF4y2Ba仪器gydF4y2Ba原则不考虑它们之间的关系。gydF4y2Ba


这些哲学理论回答了应用伦理学的核心问题:什么是正确的/好的行动或政策gydF4y2Ba


在任何一套给定的人工智能原则中,我们都可以发现诸如隐私、透明、公平和自治等广泛的概念。这种清单混合了具有内在价值的核心原则和功能是保护这些内在价值的工具原则。gydF4y2BacgydF4y2Ba例如,人的自主性是一种内在价值;它本身就是有价值的。另一方面,同意、隐私和透明度是工具性的:我们对它们的重视程度取决于它们保护自主权和其他内在价值的程度。理解这些类别及其彼此之间的关系是实现AI原则的关键,这些原则可以告知开发者和组织。gydF4y2Ba

回到顶部gydF4y2Ba

核心原则与工具原则gydF4y2Ba

应用伦理学中应用最广泛的一套核心原则是:尊重自主、行善(避免伤害和行善)和正义。gydF4y2BadgydF4y2Ba这些哲学原则规定了对某些价值观的适当态度:尊重自主、行善、确保正义。他们是gydF4y2Ba核心gydF4y2Ba原则,因为它们引用了道德和政治哲学理论认为具有内在价值的价值观,这意味着它们的价值不是来自其他东西。这些理论回答了应用伦理学的核心问题:“选择什么是正确的/好的行动或政策?”核心原则通过将这些理论的内在价值封装在一种态度设定格式中,帮助我们立即认识到我们是否面临道德挑战:任何不尊重自主、造成伤害或歧视的行为,如果不是直接的不道德,都是道德问题。gydF4y2Ba

当我们将所有已发表的AI原则归类为这三个核心原则时,我们发现了一个惊人的平衡和一致的画面。在不同的行业和地区,这些原则的权重大致相同,没有一个比另一个更重要:截至2020年10月,大约25%-30%的原则以自主为重点,大约32%-36%的原则以避免伤害和利益最大化为重点,大约36%-42%的原则以公正为重点。gydF4y2BaegydF4y2Ba

与包含内在价值的核心原则相比,gydF4y2Ba仪器gydF4y2Ba原则建立在概念的基础上,这些概念的价值来源于它们在保护和促进内在价值方面的工具性作用。以透明度为例。我们不认为某物本身是有价值的,仅仅因为它是透明的。相反,透明度是有价值的,因为它让我们了解、参与和审计影响我们的系统。换句话说,透明度有助于维护人类自主和正义的内在价值。同样,问责本身不是目的,而是通过分配责任和通过威慑避免伤害来维护正义的手段。gydF4y2Ba

回到顶部gydF4y2Ba

操作AI原则来指导AI实践gydF4y2Ba

为了指导人工智能实践,区分核心原则和工具原则很重要,因为工具原则是可互换的。个人和组织可以权衡工具原则,以确定优先级,以及如何使用它们来最好地实现核心原则。gydF4y2Ba

例如,对于道德AI来说,可解释性的工具原则可能是必需的,也可能是可选的,这取决于情况。可解释性是关于理解一个系统的技术过程以及它如何达到其结果。它是一个工具性原则,可以通过允许个人与系统进行有意义的互动来维护人类的自主性。它还可以使人们更容易发现错误和偏见,从而有助于最大限度地减少伤害并维护正义。可解释性对于帮助法官在刑事司法系统中设置保释和假释的风险分析AI系统至关重要。在这里,可解释性使法官和被告能够自主地参与系统,并更好地监督其公平性。相比之下,对于优化汽车能源使用的人工智能系统来说,可解释性并不是必需的。司机需要结果和安全相关的信息来行使他们的自主权,而开发人员需要严格的安全性和准确性测试,以最大限度地减少伤害。在这种情况下,不应该优先考虑可解释性,特别是如果它会损害准确性和安全性。gydF4y2Ba

一般的观点是,当工具原则不适合某一特定情况时,就不存在深刻的伦理困境。一旦我们正确地将原则分类为核心原则和工具性原则,我们就可以将许多模糊的AI原则变成指导实践的操作清单。我们创建了一个简化的交互式清单gydF4y2Ba这个盒子gydF4y2BafgydF4y2Ba供计算机科学家、开发人员和设计人员用于基本伦理分析(参见gydF4y2Ba数字gydF4y2Ba这里)。Box帮助他们确定相关的伦理问题,并权衡适用的工具原则,以确定如何通过用另一个工具原则替代或支持一个工具原则来最好地满足核心原则。gydF4y2Ba

uf1.jpggydF4y2Ba
数字这个盒子。gydF4y2Ba

Box还为计算机科学家、开发人员和设计人员提供了一种工具,以识别核心原则之间的伦理冲突。因为每个核心原则都具有内在价值,我们不能为了另一个而忽略其中一个。当核心原则指向相反的方向时,我们面临一个真正的道德困境。在这些情况下,伦理问题是复杂的,不能简单地通过原则的指导来解决;应引入伦理专家应用伦理理论。一个例子可能是开发用于诊断一种危险的高传染性疾病的人工智能系统。为了将伤害和痛苦降到最低,科学家们需要快速创建一个高度精确的系统。为了训练算法,他们需要大量无法完全匿名的个人数据。征求适当的同意会延误项目,造成更多的感染和更多的痛苦。然而,回避同意和无视隐私将是对个人自主权的侵犯。 An AI ethics framework that relies solely on principles is unable to solve this ethical dilemma suggesting that this complex problem should involve ethics experts who can conduct an in-depth analysis and apply ethical theories. Principle-based frameworks only provide a list of considerations rather than a complete and coherent decision-making tool.ggydF4y2Ba另一方面,伦理理论为决策提供全面的指导,伦理专家可以利用这些详细的理论深入分析复杂的问题。gydF4y2Ba


基于原则的框架只提供一系列考虑因素,而不是一个完整而一致的决策工具。gydF4y2Ba


当合理运作时,AI原则为伦理分析提供了一个有益的开端,它们可以指导开发人员和组织解决许多伦理问题,尽管它们不足以解决复杂的伦理问题。我们需要了解人工智能的原则是什么:一系列基本的、有帮助意义的伦理考虑,但是gydF4y2Ba不gydF4y2Ba一个复杂伦理决策的完整系统。分类和使用人工智能原则确保我们不会忽视一个至关重要的伦理问题。当一个案例呈现核心原则而非工具性原则之间的冲突时,原则也可以帮助我们认识到当我们面对一个复杂的案例时,需要全面的伦理分析。当我们实施人工智能原则时,我们需要利用它们的优势并认识到它们的局限性,承认人工智能原则只是开发和部署合乎道德的人工智能的第一步。gydF4y2Ba

回到顶部gydF4y2Ba

制定组织的人工智能原则gydF4y2Ba

最后,让我们回到AI原则的扩散。如我们所见,如果内容基本相同,那么公司特定的原则集有什么意义?如果做得好,关键在于,拥有自己定制的AI原则集的组织可以决定如何权衡竞争原则,以及当核心原则(和理论)发生冲突时,应该优先考虑哪些内在价值。当即使在全面的伦理分析之后,也没有一个论点成为最强有力的论点时,开发人员和其他组织决策者必须在同样的伦理允许的选项中做出选择。这时候,组织的核心原则立场就会显露出来。当到了紧要关头,这个组织会优先考虑个人自主还是将伤害降到最低?一个组织的人工智能原则可以指导这一决定,对计算机科学家和伦理专家在决定一个困难的案例时都很有用。为了帮助他们明确自己的价值观,我们邀请组织使用我们的工具箱,将他们的努力与他人进行比较,系统化他们的AI原则,并与专家进行深入的伦理分析,以确定他们自己连贯一致的伦理决策的优先事项。gydF4y2Ba

回到顶部gydF4y2Ba

作者gydF4y2Ba

Cansu CancagydF4y2Ba(gydF4y2Bacansu@aiethicslab.comgydF4y2Ba)是一位哲学家,也是美国马萨诸塞州波士顿AI伦理实验室的创始人和主任。gydF4y2Ba

回到顶部gydF4y2Ba

脚注gydF4y2Ba

a. AI伦理实验室,gydF4y2Ba人工智能原理的动态gydF4y2Ba,发表于2020年2月,gydF4y2Bahttps://bit.ly/3k7VgpNgydF4y2Ba

b.以前也做过类似的工作,我们将我们的清单与这些其他作品进行了交叉核对。参见Fjeld等人,“有原则的人工智能:在基于道德和权利的AI原则方法中绘制共识,”gydF4y2Ba伯克曼·克莱因中心研究出版物gydF4y2Ba(2020),gydF4y2Bahttps://bit.ly/2T2sivGgydF4y2Ba;Jobin, Ienca和Vayena,“人工智能伦理准则的全球前景”,gydF4y2Ba自然机器智能1gydF4y2Ba(2019), 389 - 399,gydF4y2Bahttps://go.nature.com/3jcvtMcgydF4y2Ba;曾、卢、皇甫,“链接人工智能原理”,gydF4y2Ba人工智能安全研讨会gydF4y2Ba(2019),gydF4y2Bahttps://bit.ly/3j6fjUjgydF4y2Ba.这些作品关注的是原则出现的频率,而不是概念上的分类。gydF4y2Ba

c.唯一对原则进行概念性分类的文献是AI4People的论文,它列举了四个“核心”原则(仁慈、非伤害、自主和公正),并将可解释性原则作为“使能”原则。Floridi等人,“AI- 4people -一个良好AI社会的道德框架:机会、风险、原则和建议,gydF4y2Ba头脑和机器28gydF4y2Ba、(2018)689 - 707;gydF4y2Bahttps://bit.ly/343poNtgydF4y2Ba

d. 1978年,美国国家生物医学和行为研究保护人类受试者委员会发表了《生物医学和行为研究》gydF4y2Ba贝尔蒙特的报告gydF4y2Ba;gydF4y2Bahttps://bit.ly/3dwyOV5gydF4y2Ba.的gydF4y2Ba报告gydF4y2Ba阐述了人类主体研究的三个核心伦理原则:尊重人、行善(又分为“不伤害”和“最大可能的利益和最小可能的伤害”两个一般原则)和正义。1979年,哲学家汤姆·比彻姆(他是委员会的合著者gydF4y2Ba报告gydF4y2Ba),詹姆斯·柴尔德里斯出版了这本权威著作gydF4y2Ba生物医学伦理学原则gydF4y2Ba,他们确定了四个基本的伦理原则:尊重自主、仁慈、非伤害和公正(见比彻姆和柴尔德里斯,gydF4y2Ba生物医学伦理学原则gydF4y2Ba, 8gydF4y2BathgydF4y2Ba牛津大学出版社2019年版)。书中的原则和报告中的原则在内容和形式上重叠,也就是现在常说的“传统生命伦理原则”。gydF4y2Ba

e.正义原则占最大的蛋糕(约40%)。这并不奇怪,因为正义原则比其他两个原则更普遍,因为它涉及各种正义理论和它们的主要公平主张,如平等待遇、平等机会和保护最坏的人。gydF4y2Ba

f. AI伦理实验室。“工具:盒子。”《工具箱:AI原理的动力学》(2020年6月);gydF4y2Bahttps://bit.ly/2HKKqZ5gydF4y2Ba

关于这个问题,Clouser和Gert写了一篇优秀的论文《原则主义的批判》,gydF4y2Ba医学和哲学杂志gydF4y2Ba, 2 (1990), 219-236;gydF4y2Bahttps://bit.ly/342fITBgydF4y2Ba


版权归作者所有。gydF4y2Ba
向所有者/作者请求(重新)发布许可gydF4y2Ba

数字图书馆是由计算机协会出版的。版权所有©2020 ACM股份有限公司gydF4y2Ba


没有发现记录gydF4y2Ba

登录gydF4y2Ba为完全访问gydF4y2Ba
»忘记密码?gydF4y2Ba *创建ACM Web帐户gydF4y2Ba
文章内容:gydF4y2Ba
Baidu
map