acm-header
登录

ACM通信

的观点

医疗人工智能:欧洲法律视角


医疗图标

信贷:Supphachai Salaeman

2020年2月底,欧盟委员会发布了一份关于人工智能的白皮书,一个以及一份有关人工智能、物联网(IoT)和机器人的安全和责任影响的附带报告。b在白皮书中,欧盟委员会强调了对人工智能的“欧洲方法”,强调“至关重要的是,欧洲的人工智能要基于我们的价值观和基本权利,如人类尊严和隐私保护。”2021年4月,一项名为“人工智能法案”的法规提案被提出。2本条例将管理“高风险”人工智能应用的使用,其中将包括大多数医疗人工智能应用。

回到顶部

基本权利是医疗人工智能的法律准则

参考上述陈述,这一观点旨在表明,欧洲的基本权利已经为医疗人工智能的发展和应用提供了重要的法律(而不仅仅是伦理)指导方针。7

由于医疗人工智能可以非常严重地影响一个人的身心完整,任何故障都可能造成严重后果,从基本权利的角度来说,这是一个特别相关的人工智能领域。在此背景下,应该强调的是,基本权利(又称人权)不仅保护个人不受国家干预,也责成国家保护某些自由不受第三方干预。这些所谓的“义务来保护"在医学中特别重要:例如,欧洲人权法院一再指出,基本权利意味着国家有义务管理保健服务的提供,以采取预防措施,防止因服务质量差而对健康造成严重损害。例如,在此基础上,国家必须责成保健服务提供者实施质量保证措施。


因此,基本权利构成了在医学中使用人工智能的具有约束力的法律框架。


因此,基本权利构成了在医学中使用人工智能的具有约束力的法律框架。符合欧洲的格言"曼联在多样性《欧洲基本权利宪章》(CFR)是该框架的核心组成部分,适用于医疗人工智能的使用,因为根据欧洲法律提供服务的自由涵盖了医疗服务的提供。就CFR而言,它强烈模仿了欧洲人权公约(ECHR),后者也适用于所有欧盟国家。欧盟各国宪法的基本权利也包含类似的保障。因此,我们把这个观点集中在CFR上。

回到顶部

作为关键标准的人力监督

这已被HLEG的道德准则所强调4“欧洲人工智能”必须尊重人的尊严(CFR第1条),这意味着医疗人工智能不能把人仅仅当作物体。由此,可以推导出计算机科学中对人类监督的要求1也是欧盟基本权利的要求(另见人工智能法案草案第14条)。医疗人工智能的决定需要人类的评估,然后才会在其基础上采取任何行动。欧盟也在备受争议的GDPR第22条中实施了这一基本要求,该条款允许“完全基于自动化处理的决策“只是有相当大的限制。换句话说,欧洲医疗人工智能在法律上需要人类监督。"一个人在这个圈子里"5).

回到顶部

可解释性,设计隐私和非歧视

然而,对于医疗人工智能来说,更重要的是第3条第2款。2a) CFR,要求“自由和知情同意“病人。这指向一个“共同决策“由医生和病人共同决定,病人有最终的发言权。因此,医疗人工智能只能在事先告知患者其基本功能的情况下使用——必须以可理解的形式。然而,这表明,欧洲的基本权利基本上要求在医学中使用可解释的人工智能(另见第13条第2款)。人工智能法案的第1条)。

医学领域的最新研究68从侵权法的角度进行的法律研究也非常证实了这一结论。3.9因此,欧洲医疗AI不应该基于“机器决策”,而应该基于“人工智能支持的决策、诊断发现或治疗建议”。我们的结论是:欧洲的医疗人工智能需要人类监督而且explainability。

欧洲人工智能(不仅是医疗)必须根据保护数据和隐私的要求(《欧洲法典》第8和7条),因此必须符合《通用技术法规》,这一点得到了广泛认可,无需进一步讨论。尽管如此,值得一提的是,GDPR第25条不仅要求AI的控制器(“用户”),还间接要求AI开发者在设计AI应用程序时考虑这些要求(“设计隐私”)。

《CFR》中有大量的基本权利条款,要求法律面前人人平等和不歧视,包括性别、儿童、老年人和残疾人(第20-26条)。从这些规定中,可以推断出欧洲医疗AI的发展和运行的进一步要求:不仅要彻底检查训练数据是否存在偏差,还必须不断监测正在进行的AI的运行是否存在偏差。如果医疗人工智能应用于培训数据中没有充分代表的人口中的某些群体,则必须特别严厉地质疑结果的有用性。


欧洲的医疗AI需要人类的监督和解释。


与此同时,必须谨慎行事,确保以尽可能好的方式向这些群体提供有用的医疗人工智能。换句话说:欧洲的医疗人工智能必须面向所有人。无论是在编程还是在应用中,都必须考虑到人员的多样性,以避免缺点。

回到顶部

使用医疗人工智能的义务?

然而,如果医疗AI应用程序满足这里描述的要求,可能有必要明确地为所有人的利益而强制使用它。欧洲基本权利——首先是生命保护权(《欧洲法典》第2条)和私人生命保护权(《欧洲法典》第7条)——使国家有义务如前所述,确保保健设施的工作仅按照相应的医疗应有的"护理标准"(简称"护理标准")进行。“先进水平”)。这还包括有义务禁止在没有人工智能参与的情况下无法再提供所需质量的医疗方法。10在不久的将来,这可能会适用于医学图像处理领域。

回到顶部

责任的公开问题

这是否意味着现有的基本权利框架能够回答使用医疗人工智能所产生的所有法律问题?不幸的是,有一个主要的例外,涉及到责任法的问题,这尤其让人工智能社区感到不安。当医疗人工智能造成伤害时,谁将承担法律责任?软件开发人员、制造商、维护人员、IT提供商、医院、临床医生?的确,严格责任——无过错责任——在欧洲法律中并非不存在,特别是对于危险物品或活动。CFR既不要求也不禁止这种方法,因此不能从基本权利的角度确定地回答民事责任问题。欧盟委员会意识到了这一挑战,并在之前提到的关于人工智能的安全和责任影响的报告中宣布,它将评估引入一种严格的责任制度,以及对特别危险的人工智能应用的强制保险——这可能将覆盖大多数医疗人工智能。这样一个系统当然可以帮助消除关于医疗人工智能应用程序的责任的许多现有的歧义。


欧盟委员会希望进一步促进人工智能在欧洲的发展和使用。


回到顶部

结论

欧盟委员会希望进一步促进人工智能在欧洲的发展和使用。在2020年发布的人工智能白皮书中,它强调了“欧洲的方法,特别是指欧盟的基本权利。作者以医疗人工智能为例,认为这些基本权利中的许多与计算机科学家的要求是一致的,尤其是人类的监督、可解释性和避免偏见。与此同时,医疗人工智能很可能很快不仅会被自愿使用,而且还必须由卫生保健提供者使用,以达到应有的护理标准。这使得解决医疗AI应用缺陷的责任问题变得更加紧迫。在这方面,委员会已经宣布,它将很快提出一个严格的责任方法,并对人工智能的故障强制保险计划,以提供清晰度。尽管存在一些悬而未决的问题,但应该强调的是,使用医疗人工智能的法律要求今天已经比计算机科学通常认为的更加明确。

回到顶部

参考文献

1.Etzioni, A.和Etzioni, O.设计遵循我们的法律和价值观的AI系统。Commun。ACM 599(2016年9月),29-31。

2.欧盟委员会:“关于制定人工智能协调规则的监管提案(人工智能法案)”;https://bit.ly/3AcDsCa

3.Hacker, P.等人。合同和侵权法下的可解释AI:法律激励和技术挑战。人工智能与法律2020, 415 - 439。

4.人工智能高级别专家组:“值得信赖的人工智能伦理准则”;https://bit.ly/3Ad2vov

5.卫生信息学的交互式机器学习:我们什么时候需要人在循环中?大脑信息3, 2(2016), 119-131。

6.Holzinger等人。人工智能在医学中的因果性和可解释性。数据挖掘与知识发现4(2019)。

7.米勒,H.等。道德医疗人工智能的十诫。IEEE计算机54, 7(2021), 119-123。

8.奥沙利文等人。人工智能(AI)和自主机器人手术标准制定的法律、监管和伦理框架。国际医学机器人与计算机辅助外科杂志, 1(2019), 1 - 12。

9.普莱斯,W.N.医疗事故和黑箱医学。在科恩,G.等人。Eds。大数据、卫生法和生物伦理学(2013), 295 - 306。

10.Schönberger, D.人工智能在医疗保健:法律和伦理影响的批判性分析。国际法律和信息技术杂志, 2(2019), 171-203。

回到顶部

作者

卡尔Stogerkarl.stoeger@univie.ac.at)是奥地利维也纳大学医学法教授。

大卫Schneebergerdavid.schneeberger@univie.ac.at)是维也纳大学的助理研究员,目前正在攻读可解释AI的博士论文。

Andreas Holzingerandreas.holzinger@medunigraz.at)是格拉茨医科大学以人类为中心的AI实验室的负责人,目前是加拿大埃德蒙顿阿尔伯塔机器智能研究所的可解释AI客座教授。

回到顶部

脚注

一个。https://bit.ly/393uYkM

b。https://bit.ly/3k7y11J

作者非常感谢审稿人和编辑的意见。部分工作已通过项目:P-32554“医疗领域可解释人工智能参考模型”获得了奥地利科学基金(FWF)的资助。


版权归作者所有。
向所有者/作者请求(重新)发布权限

数字图书馆是由计算机协会出版的。版权所有©2021 ACM, Inc.


没有发现记录

Baidu
map