acm-header
登录

ACM通信

的观点

医学人工智能:欧洲法律视角


医疗图标

信贷:Supphachai Salaeman

2020年2月下旬,欧盟委员会发布了人工智能白皮书(AI)。一个以及一份关于人工智能、物联网(IoT)和机器人技术的安全和责任影响的报告。b在白皮书中,欧盟委员会强调了人工智能的“欧洲方法”,强调“欧洲人工智能以我们的价值观和基本权利为基础,如人类尊严和隐私保护,这是至关重要的。”2021年4月,提出了一项名为“人工智能法案”的法规提案。2本条例应规范“高风险”人工智能应用的使用,其中包括大多数医疗人工智能应用。

回到顶部

《医疗人工智能法律准则的基本权利》

提到上述声明,这一观点旨在表明,欧洲的基本权利已经为医疗人工智能的发展和应用提供了重要的法律(而不仅仅是道德)指导方针。7

由于医疗人工智能可以非常严重地影响一个人的身心完整性,任何故障都可能造成严重后果,因此就基本权利而言,它是人工智能特别相关的领域。在此背景下,应该强调的是,基本权利(又称人权)不仅保护个人不受国家干预,而且也要求国家保护某些自由不受第三方干预。这些所谓的“义务来保护"在医学上具有特别重要的意义:例如,欧洲人权法院一再指出,基本权利要求国家有义务对保健服务的提供进行管理,以采取预防措施,防止由于服务提供不良而对健康造成严重损害。在此基础上,国家必须责成保健服务提供者实施质量保证措施。


因此,基本权利构成了在医学上使用人工智能的具有约束力的法律框架。


因此,基本权利构成了在医学上使用人工智能的具有约束力的法律框架。与欧洲的格言“曼联在多样性,"这一框架分布在各种法律文本中,但其内容相当统一:其核心组成部分是《欧洲基本权利宪章》(CFR),该宪章适用于医疗人工智能的使用,因为根据欧洲法律提供服务的自由涵盖了医疗服务的提供。就其本身而言,CFR严格模仿了同样适用于所有欧盟国家的《欧洲人权公约》(ECHR)。欧盟各国宪法的基本权利也有类似的保障。出于这个原因,我们将这个观点集中在CFR上。

回到顶部

人力监督是关键标准

HLEG的道德准则已经强调了这一点4"欧洲人工智能"必须尊重人的尊严(《联邦法典》第1条),这意味着医疗人工智能不得将人仅仅视为物体。由此,可以推断出计算机科学中对人工监督的需求1也是欧盟基本权利所要求的(另见拟议的《人工智能法案》第14条)。医疗人工智能的决定需要在作出任何行动之前对人进行评估。欧盟也在备受争议的《GDPR》第22条中实施了这一基本要求,该条款允许“完全基于自动化处理的决策“只是有相当多的限制。换句话说:欧洲医疗人工智能在法律上需要人类监督。“在循环中的人”5)。

回到顶部

可解释性、隐私设计和非歧视

然而,对于医疗人工智能而言,更重要的是第3条第款。2a) CFR,要求"自由和知情同意“病人的。这指向一个"共同决策“通过医生和病人,病人有最终决定权。因此,医疗人工智能只有在事先告知患者其基本功能的情况下才能使用——当然,必须以一种可理解的形式。然而,这清楚地表明,欧洲的基本权利基本上要求在医学上使用可解释人工智能(另见第13条第3款)。人工智能法案提案1)。

医学领域的最新研究68以及从侵权行为法角度进行的法律研究,也很好地印证了这一结论。3.9因此,欧洲医疗AI不应该建立在“机器决策”的基础上,而应该建立在“人工智能支持的决策、诊断发现或治疗建议”的基础上。我们的结论是:欧洲的医疗人工智能需要人类的监督而且explainability。

欧洲人工智能(不仅是医疗)必须按照数据和隐私保护的要求(CFR第8条和第7条)并因此与GDPR一起开发和运行,这是公认的,无需进一步讨论。然而,值得一提的是,第25条GDPR不仅要求AI的控制者(“用户”),而且间接要求AI的开发者在设计AI应用时考虑这些要求(“设计隐私”)。

《公约》中有大量要求法律面前平等和不歧视的基本权利条款,包括性别、儿童、老人和残疾人(第20-26条)。从这些规定可以推断出欧洲医疗AI发展和运行的进一步要求:不仅要彻底检查训练数据是否存在偏差,还要不断监测AI正在进行的运行是否存在偏差。如果医疗人工智能应用于在训练数据中没有充分代表的特定人群,则必须特别严格地质疑结果的有效性。


欧洲的医疗人工智能需要人类的监督和解释。


与此同时,必须注意确保以最好的方式向这些群体提供有用的医疗人工智能。换句话说:欧洲的医疗人工智能必须面向所有人。无论是在编程还是在应用中,都必须始终考虑到人员的多样性,以避免不利因素。

回到顶部

使用医疗人工智能的义务?

然而,如果医疗人工智能应用程序满足这里所述的要求,可能有必要明确规定为所有人的利益使用它。欧洲的基本权利——尤其是保护生命的权利(《欧洲保护法》第2条)和私人生活的权利(《欧洲保护法》第7条)——使国家有义务,如前所述,确保卫生保健机构的工作只按照相应的医疗应有的"护理标准"(又称"护理标准")开展。“最先进的”)。这还包括禁止在没有人工智能参与的情况下无法提供所需质量的医疗方法的义务。10在不久的将来,这可能也适用于医学图像处理领域。

回到顶部

未决的责任问题

这是否意味着现有的基本权利框架能够回答因使用医疗人工智能而产生的所有法律问题?不幸的是,有一个主要的例外,涉及责任法的问题,这尤其让AI社区不安。当医疗人工智能造成伤害时,谁将承担法律责任?软件开发人员、制造商、维护人员、IT供应商、医院、临床医生?的确,严格责任——无过错责任——在欧洲法律中并非未知,尤其是对危险物体或活动。CFR既不要求也不禁止这样的做法,因此民事责任的问题不能从基本权利的角度得到最终的回答。欧盟委员会已经意识到这一挑战,并在其之前提到的关于人工智能的安全和责任影响的报告中宣布,它将评估引入严格的责任系统,并为特别危险的人工智能应用提供强制保险——这可能会覆盖大多数医疗人工智能。这样的系统当然可以帮助消除许多现有的关于医疗人工智能应用程序的责任的模糊性。


欧盟委员会希望进一步推动人工智能在欧洲的发展和使用。


回到顶部

结论

欧盟委员会希望进一步推动人工智能在欧洲的发展和使用。在其于2020年发布的人工智能白皮书中,它强调了“欧洲的方法,特别是指欧盟的基本权利。两位作者以医疗人工智能为例,认为这些基本权利中的许多都符合计算机科学家的要求,尤其是人类监督、可解释性和避免偏见。与此同时,医疗人工智能很可能很快不仅会被自愿使用,而且还将被卫生保健提供者使用,以满足应有的护理标准。这使得解决关于有缺陷的医疗人工智能应用的责任的剩余不确定性变得更加迫切。在这方面,欧盟委员会宣布,它将很快提出一种严格的责任方法,并为人工智能故障提供强制性保险计划。尽管存在一些悬而未决的问题,但应该强调的是,今天对使用医疗人工智能的法律要求已经比通常在计算机科学中假定的更明确。

回到顶部

参考文献

1.Etzioni, A.和Etzioni, O.设计遵守我们的法律和价值观的人工智能系统。Commun。ACM 59, 9(2016年9月),29-31。

2.欧盟委员会:“提议制定一项关于人工智能的统一规则(人工智能法案)”;https://bit.ly/3AcDsCa

3.Hacker, P.等人。合同法和侵权法下的可解释AI:法律激励和技术挑战。人工智能和法律2020, 415 - 439。

4.人工智能高级别专家组:“值得信赖的人工智能伦理准则”;https://bit.ly/3Ad2vov

5.用于健康信息学的交互式机器学习:我们什么时候需要人在回路?大脑信息3, 2(2016), 119-131。

6.Holzinger等人。医学领域人工智能的因果性和可解释性。数据挖掘与知识发现4(2019)。

7.穆勒等人。道德医疗人工智能的十诫。IEEE计算机54, 7(2021), 119-123。

8.奥沙利文等人。制定人工智能(AI)和自主机器人手术标准的法律、监管和道德框架。国际医学机器人和计算机辅助手术杂志, 1(2019), 1 - 12。

9.普莱斯,W.N.医疗事故和黑盒药物。Cohen, G.等人。Eds。大数据、健康法律和生物伦理学(2013), 295 - 306。

10.Schönberger, D.医疗保健中的人工智能:法律和伦理影响的批判性分析。国际法律和信息技术杂志, 2(2019), 171-203。

回到顶部

作者

卡尔Stogerkarl.stoeger@univie.ac.at)是奥地利维也纳大学医法教授。

大卫Schneebergerdavid.schneeberger@univie.ac.at)是维也纳大学(University of Vienna)的副研究员,目前正在攻读一篇关于可解释人工智能的博士论文。

Andreas Holzingerandreas.holzinger@medunigraz.at)是格拉茨医科大学以人为中心的人工智能实验室的负责人,目前是加拿大埃德蒙顿阿尔伯塔机器智能研究所可解释人工智能的客座教授。

回到顶部

脚注

一个。https://bit.ly/393uYkM

b。https://bit.ly/3k7y11J

作者非常感谢审稿人和编辑的评论。这项工作的部分工作已经通过项目:P-32554“医学领域的可解释人工智能参考模型”获得了奥地利科学基金(FWF)的资助。


版权归作者所有。
向所有者/作者请求(重新)发布许可

数字图书馆是由计算机协会出版的。版权所有©2021 ACM, Inc。


没有发现记录

Baidu
map