acm-header
登录

ACM通信

BLOG@CACM

AI和自动化的治理和监督:AI系统的独立审计


瑞安航空公司

对各种形式的人工智能(AI)和自动化的设计和实施进行治理和独立监督,是信息技术和计算领域即将全面突破的一个高潮。

如果这让你感到惊讶,那么在过去三到五年间的无数新闻报道中,你可能只看到一棵树,而忽略了整片森林。随着世界各地的企业在其组织中部署越来越多的人工智能,隐私失败、网络安全漏洞、决策引擎中的不道德选择和有偏见的数据集不断涌现。

从广义上讲,全世界以及立法机构、监管机构和AI安全领域的专门学术机构一直在推动这一问题的解决。现在,指导方针正在以一种实用的形式发挥作用。

IEEE的伦理上一致的设计是汇集全球声音的黄金标准,使用开源众包技术来维护一些核心道德准则。此外,标准机构正在深入研究创建13套不同的标准,涵盖从儿童和学生数据治理到算法偏差等领域。

其他人也加入了这一行列。欧盟最近创建了一个道德指引工作小组,最初的努力之一包括《生命的未来》的AI原则与2017年的阿西洛玛会议一起创建。甚至一些特定的公司,如谷歌,也参与进来,创建了他们自己的一套公共道德的指导方针.这些工作表明了治理和监督来自全球各个角落的AI和自动化的重要性和大量努力。

人工智能系统的独立审计是这种治理的下一步发展:真正的问责制。它将建立在这些全球社区指南的基础上,让审计和保证公司有能力评估使用人工智能和自动化的公司之间的合规性。让我来解释一下这是怎么回事。

ForHumanity是一个非营利性组织,它将成为从世界领先的审计/保证公司到全球学术界再到公司本身的关键支持者的中心。然而,ForHumanity的“客户基础”只有人性(因此得名)。ForHumanity的运营收入来自捐赠,以及那些希望在合规后批准审计流程和SAFEAI品牌的公司。与信用机构(Credit Agency)的业务模式不同,在这种模式下,被评级的实体为其评级“付费”,从而产生了内在的利益冲突,ForHumanity的存在不是为了从审计合规中获利。这使得ForHumanity能够纯粹以整个社会的最佳利益为出发点,在以下领域(竖井)寻找“最佳实践”:

  1. 道德
  2. 偏见
  3. 隐私
  4. 信任
  5. 网络安全

ForHumanity团队将在全球范围内办公,并为每个审计部门配备专门的工作人员,寻找、采购、整理、审核和促进“可审计最佳实践”的搜索。“Auditable”表示二进制,既不符合也不符合审计规则。如果我们无法制定可审计的规则,它们就不会成为审计的一部分。灰色区域不是法规遵循或不法规遵循的领域。在发现灰色地带的地方(将来会有很多),这将是ForHumanity团队的目标,与全球社区合作,将这些问题提炼成二元部分和/或简单地将透明度和披露(这是一个合规/不合规的概念)引入到过去不透明的领域,即使它们仍然是灰色的。有了透明度和信息披露,至少公众可以选择他们喜欢的灰色阴影。

审计部门负责人每周将有两个小时的办公时间。时间的安排将适应世界各地的工作日。此外,那些注册的人可以参与一个在线的、永久的聊天,旨在让人们在他们方便的时候随时跟踪讨论。

人工智能系统独立审计的创建和维护将是一个持续和动态的过程。它将对所有选择参与的人完全透明,只要他们加入讨论,并有礼貌地参与。每个审计竖井负责人都将参与社区,并就可审计的最佳实践寻求共识。一旦他们相信自己找到了审计规则,就会向整个社区提出意见,征求同意或提出异议。异议也将被跟踪并提交董事会考虑。审计部门负责人的职责是管理异议,并随着时间的推移努力减少和消除异议。如果达成共识,那么该审计规则将被提交给ForHumanity董事会。审计委员会将按季度对目前的一套审计最佳做法规则作出最后决定。ForHumanity致力于确保董事会在种族、性别和地域上的多元化。

ForHumanity的存在是为了为所有人取得尽可能好的结果。它不因所提供的工作而获得报酬;相反,它是在非营利的基础上运营,向那些提交并通过SAFEAI审核的实体授权SAFEAI标志和SAFEAI审核品牌。从本质上讲,我们是在要求那些从审计中受益的人把信息传递出去,这样我们就可以继续和扩大我们的工作。一旦审核通过,公司就可以选择授权该品牌/标志,以向世界证明其符合SAFEAI审核。品牌/标志也可能被希望销售符合safei标准的特定产品的公司使用。品牌/标志可能用于其包装上,以提高其营销和销售产品的能力,而竞争对手可能没有达到SAFEAI审计合规。

这些规则是100%透明的,因此当进行审计时,应该遵守这些规则。然而,审计的某些领域可能需要补救。公司将有一个弥补不足的机会。不遵守将导致公开的“失败”和不遵守的透明度。这一元素对于保护SAFEAI品牌,以及保护人类免受不安全、危险或不负责任的人工智能的影响至关重要。随着时间的推移,我们预计SAFEAI的批准印章将成为消费者购买产品和服务决策过程中的重要组成部分。理论很简单:

如果我们能让好的、安全的、负责任的人工智能有利可图,同时让危险的、不负责任的人工智能代价高昂,那么我们就为人类实现了可能的最佳结果。

1973年,主要的会计师事务所聚在一起,成立了FASB(财务会计准则委员会),其工作的结果是公认会计准则(GAAP),它在今天仍然管理着财务会计。这项工作最终被美国证券交易委员会(以及世界各地的其他司法管辖区)授权给所有上市公司。通过这种清晰和统一,投资界得到了显著改善。第三方监督为那些审查金融账户的人提供了很大的信心,以告知他们的决定。这是一个强劲市场经济的基石。

ForHumanity正与主要参与者合作,通过对人工智能、算法和自动化同样强大和全面的监督和问责,实现人工智能系统独立审计。这样的努力并不能消除欺诈和不负责任的行为。世界仍然遭受安然和世通财务会计丑闻的影响,但总的来说,问责制和通用规则将在很大程度上减少危险、不负责任和不公平的行为,这些行为已经挑战了技术世界。微软和谷歌最近通知他们的投资者,道德、偏见、隐私和其他“风险因素”可能会发生,将这些公司的股东置于危险之中

对于任何公司来说,独立审计都是审查其是否遵守最佳实践规则并做出改变、降低下行风险的最佳机制。我们期待与他们合作。我们也要求你们每一个人也参与进来。有很多方法可以做到这一点:

  1. 跟踪国家SAFEAI的审核进度,当符合要求的企业开始使用批准章时,购买这些产品。
  2. 使用符合安全标准的公司的服务。
  3. 参与制定审计规则;它是开放的,所有人都可以加入。你可能不是技术专家,也没有什么想法可以提出来,但是你的投票和其他人的一样重要。
  4. 捐赠ForHumanity;我们是非营利性的,你可以在http://forhumanity.center
  5. 告诉其他人SAFEAI的品牌,并帮助我们传播。

客人的博客瑞安航空公司他是ForHumanity的执行董事,这是一家非营利组织,旨在研究和减轻与人工智能和自动化相关的下行风险。人工智能系统独立审计就是这样一种降低风险的工具。


没有发现记录

登录为完全访问
»忘记密码? *创建ACM Web帐户
Baidu
map