acm-header
登录

ACM通信

贡献的文章

人工智能与神经技术:从人工智能伦理中学习以解决扩大的伦理格局


神经元漂浮在电路板上,插图

来源:Spooky Pooka / Debut Art

人工智能(AI)是一个科学领域,是一种由多种技术支持的技术,例如机器学习、推理、知识表示和优化,并且在日常生活的几乎每个方面都有应用。当我们刷信用卡、搜索网页、用相机拍照、对手机或其他设备发出语音指令,以及与许多应用程序和社交媒体平台互动时,我们都会使用某种形式的人工智能。世界各地的各种规模和商业模式的公司都在采用人工智能解决方案来优化其运营,创建新的服务和工作模式,并帮助其专业人员做出更明智和更好的决策。

回到顶部

关键的见解

ins01.gif

回到顶部

vwin德赢AC米兰官网网址人工智能伦理的当前问题

毫无疑问,人工智能是一项强大的技术,它已经在我们的生活方式中留下了积极的印记,并将在未来几年继续如此。与此同时,它给我们的个人生活和职业生活带来的改变往往是重大的、快速的,而且并不总是透明的或容易预见的。这引发了人们对人工智能对我们社会影响的质疑和担忧。人工智能系统的设计必须意识到并遵循重要的人类价值观,这样技术才能帮助我们做出更好、更明智的决定。让我们来考虑一下主要的AI伦理问题,以及它们与AI技术的关系:

数据问题。人工智能通常需要大量数据,因此关于数据隐私、存储、共享和治理的问题是这项技术的核心。世界上的一些地区,如欧洲,有具体的规定规定了儿童的基本权利数据对象-人类将个人数据发布给人工智能系统,然后人工智能系统可以利用这些数据做出影响个人生活的决定。15

可解释性和信任。通常,最成功的人工智能技术(例如基于机器学习的技术)在允许人类理解如何从输入数据得出结论方面是不透明的。当试图在人类和机器之间建立一个信任系统时,这是没有帮助的,所以充分解决与透明度和可解释性相关的问题是很重要的http://bit.ly/3CIgJ42为这些问题提供解决方案的工具示例)。例如,如果没有信任,医生就不会听从决策支持系统的建议,而决策支持系统可以帮助患者做出更好的决定。

问责制。机器学习是基于统计的,所以它总是有一个百分比的错误,即使很小。即使没有程序员在开发AI系统时犯了错误,这种情况也会发生。那么,当错误发生时,谁负责?我们应该向谁要求补救或赔偿?这就提出了与责任和问责有关的问题。

公平。基于围绕人类每一项活动的大量数据,人工智能可以获得有关人类的决策或向人类推荐决策的见解和知识。然而,我们需要确保人工智能系统理解并遵循做出此类决定的背景下的相关人类价值观。一个非常重要的人类价值观是公平:我们不希望人工智能系统做出(或推荐)可能歧视或持续伤害人群的决定——例如,基于种族、性别、阶级或能力。我们如何确保人工智能在每个应用场景中都能按照最合适的公平概念(或任何其他人类价值)行事?请参阅在线附录,了解开源库的示例以及人工智能公平性的多个(尽管不是详尽的)维度的描述。与所有道德问题一样,公平是一种复杂的、受社会影响的价值观,既不能仅靠技术来定义,也不能仅靠技术来解决。17

分析和操作。人工智能可以解释我们的行为和我们在网上分享的数据,以建立我们的个人资料,这是一种对我们的一些特征、偏好和价值观的抽象描述,用于个性化服务——例如,向我们展示我们最有可能欣赏的帖子或广告。如果没有适当的护栏,这种方法可能会扭曲人类和在线服务提供商之间的关系,因为这种方法设计的服务更清楚地描述了我们的偏好,并使个性化更容易计算。这就引发了人类能动性的问题:我们真的能控制自己的行为吗?还是人工智能被用来推动我们达到操纵我们的地步?

对就业和社会的影响。由于人工智能渗透到我们的工作场所,它显然会对工作产生影响,因为它可以执行一些通常由人类完成的认知任务。需要更好地理解和处理这些影响4确保人类不处于不利地位。如前所述,人工智能无处不在,其适用性迅速扩大;这项技术的任何负面影响都可能对个人和社会造成极大的危害。人工智能在工作场所内外的应用速度也让人们担心,人们和机构是否有足够的时间来了解使用人工智能的真正后果,并避免可能的负面影响。

控件和值对齐。尽管人工智能有很多应用,但它距离达到接近人类(甚至动物)的智能形式还很远。然而,公众对这项技术知之甚少的事实引起了人们的担忧,即是否能够控制它,并使它与更大的、有时是不同的社会价值观相一致,如果它实现了更高形式的智能。34图1列出了这些问题,并将它们与人工智能能力和方法联系起来。

f1.jpg
图1。主要的AI伦理问题。

没有任何一个组织可以单独解决所有这些问题,这就是为什么人工智能伦理包括许多科学和技术学科的专家。事实上,人工智能伦理社区包括人工智能专家、哲学家、社会学家、心理学家、律师、政策制定者、民间社会组织等。只有包括所有的声音——那些生产人工智能的人、那些使用人工智能的人、那些监管人工智能的人、那些受人工智能决策影响的人,以及那些懂得如何评估一项技术对人类和社会的影响的人——我们才能理解如何识别和解决人工智能伦理问题。

解决人工智能伦理问题的技术解决方案当然是必要的,例如检测和减轻偏见的软件工具和算法,或将可解释性嵌入人工智能系统。但这些还不够。非技术解决方案,如指导方针、原则、最佳实践、教育和再培训活动,12标准,18审计,法律,15也正在审议和通过。最重要的是,有必要指定实施人工智能伦理原则的方法,并围绕它们创建适当的治理。

回到顶部

人工智能与神经科学

随着我们对神经系统的了解越来越多,并解开了我们外部环境和内部环境之间的具体和双向互动,对新工具和能力的需求也在增加。这不仅是为了通过创造更先进的方法和材料来捕捉神经信号和计算神经特征来满足基础实验、转化和临床神经科学研究的需求,而且还提供了新的治疗方法,开发了恢复或生成人体功能的新方法,并创造了资源来增强和丰富我们现有的技能和经验。与此同时,由于计算能力的不断进步,人工智能的能力正在不断扩展,变得更复杂、更高效、更快。

人工智能,尤其是机器学习,正越来越多地应用于神经科学领域。但自从人工智能作为一个研究领域出现以来,人工智能和神经科学之间的概念联系就一直很强。这两个领域交织在一起的轨迹体现在:通过能够“学习”的机器来模拟和增强人类智能的目标,常见且经常有争议的“大脑即计算机”和“计算机即大脑”的比喻(以及相关的俗语,如“我没有带宽”或“我的计算机内存不足”),以及最近的计算技术,如神经网络、神经形态算法和深度学习。随着人工智能几乎渗透到我们生活的方方面面——从我们的“智能”手机到我们的“智能”冰箱,从我们的购物习惯到我们的社交媒体,我们的大脑和机器之间的联系只会越来越强。神经或大脑启发的隐喻渗透到我们的工作、家庭、交通、医疗保健和互动中。随着大型科技公司和初创公司投资于神经科学研究和见解,以改进算法和相关功能,受神经科学影响的人工智能应用可能会增加。


随着人工智能几乎渗透到我们生活的方方面面,我们的大脑和机器之间的联系只会越来越强。


计算和神经科学之间不可避免的超越推测的联系,进入现实世界的相互作用的运动已经开始。虽然是间接的,但人工智能已经通过影响、加强和改变我们的行为和认知过程,广泛地与我们的神经系统相互作用。虽然“扩展思维”的概念并不新鲜(参见Clark和Chalmers8),直到最近,人类在很大程度上仅限于通过符号、文字、艺术或空间标记(存储在洞穴墙壁上、画布上、书籍和日记中,或作为环境中的标志)等表征将思想扩展到物理领域。这些工具和遗物的功能是思想、记忆、方向的辅助,以及我们内在自我的外在表达。然而,现在我们正在将神经系统扩展到数字系统,19人工智能和数字技术越普及,它们与我们的神经系统以及相关能力和心理的联系就越紧密,几乎不可分割。20.大量研究表明,我们对智能手机、社交媒体和GPS的使用不仅使我们更加依赖这些技术,还极大地影响了我们的注意力,39空间导航,10记忆功能,13甚至是潜在的神经生理学。21

回到顶部

脑科学

与此同时,人工智能和神经科学之间的间接(通常是理论上的)联系正在转变为直接和有形的联系,从我们的思想向数字空间的单向延伸,到神经系统和计算机之间的双向连接。在过去的几十年里,我们看到了设备的开发和部署的增长neuro-technologies(神经科技)-利用计算的进步和人工智能的普遍性来收集、解释、推断、学习,甚至修改整个神经系统(称为神经技术)产生的各种信号neuro-dataneuroinformation).神经技术可以通过不同种类的外科植入物(如植入神经元组织或附近的电极或设备)侵入性和直接地与神经数据相互作用,也可以通过位于皮肤表面的可穿戴设备非侵入性和间接地相互作用,从头部、身体或四肢接收信号或这些信号的代理。一般来说,神经科技被分为三类:

  • Neurosensing它本质上是通过收集、监测或解释神经数据来“读取”神经数据。
  • Neuromodulating它通过改变神经系统的电活动、化学组成和/或结构来“写入”数据。
  • 组合或者可以说是双向的,可以读取和写入神经数据。

神经调节和组合/双向神经技术设备将越来越多地使用和依赖人工智能来解释神经数据,实时推断和复制神经信号代理,并为自动和自主控制设备的闭环系统做出贡献。

图2展示了侵入性和非侵入性神经技术应用的例子,包括神经传感、神经调节和组合应用。这些设备和其他设备被广泛应用于基础研究、医学、游戏等领域。例如,许多侵入性神经技术正在应用于神经疾病的医疗保健,包括癫痫(侵入性脑电图)和帕金森病(侵入性神经调节和组合)。相比之下,许多非侵入性技术(包括TMS和fMRI等神经成像技术)正被用于回答基本的神经科学问题。非侵入性双向神经技术正在被开发,以集成到日常过程中,如工作和视频游戏。在图2它是一种腕式设备,可以感知周围神经信号,利用它们推断预期的动作,并提供触觉反馈,以改善体验,使其更直观。有关概述和了解其他许多例子,请参阅在线附录中引用的英国皇家学会2019年报告。

f2.jpg
图2。侵入性和非侵入性神经技术应用的例子横跨三个类别的神经传感,神经调节,和组合。

由于神经技术仍处于新兴阶段,目前的技术水平也在不断发展,目前的神经技术设备和应用在技术成熟度、稳健性和可扩展性方面涵盖了所有领域——从基础科学和早期转化或临床研究一直到目前可用的消费产品。目前,科学家可以同时侵入性地记录数百个神经元。随着neuralace、neural dust和neural threads等接口的出现和越来越多的采用,这可能很快就会变成数千个。这些界面功能的改进,以及所用材料的进步,将极大地改变计算和神经科学的未来前景。它们将实现更准确和特定的记录,增强的信噪比,更好的靶向干预的有效性和精度,更持久的设备功能,并改善重要的安全考虑因素,包括最大限度地减少组织损伤和抵抗来自内部物质环境、各种体液和设备刺激参数的腐蚀。

今天,神经技术最常在临床科学和医疗保健领域开发或使用,用于监测和治疗一系列慢性疾病或神经和心理疾病的损伤,包括帕金森病(脑深部刺激)16)、慢性疼痛(脊髓刺激35)、癫痫(神经节律)、抑郁症(经颅直流电刺激)25),以及更多。一些神经科技设备开始帮助四肢缺失或受损的人恢复运动和感觉;38脊髓分离;14或者那些有感觉丧失、障碍或个人想要改善的差异的人——例如,耳聋的人工耳蜗植入7或者植入视网膜来治疗某些视力障碍。5

神经技术可以解码和投射非常具体的、通常是基本的思维形式,比如想象的笔迹,40打字,27以及其他有意的和定向的动作。28他们还可以非常粗略地重建有意识和无意识的心理意象。24目前正在研究这些方法,主要用于医疗领域,帮助有沟通障碍的人2功能性运动问题28但最近也用于商业空间和改善日常工作生活环境。32神经科学家还展示了脑对脑交流的技术能力;也就是说,转移感觉和知觉经验的能力26和记忆11直接在动物之间使用侵入性技术,以及操纵31控制他们。6这种能力正在人们之间缓慢而初步地开发和测试,用于游戏和增强现实(AR)/虚拟现实(VR)等应用程序。尽管应用仍在不断涌现,但有证据表明,人们对神经技术和/或神经数据收集的广泛兴趣超出了本文所述的各种市场部门,包括但不限于教育、工作、营销和军事用途。

虽然一度被归为科幻小说的领域,但由于神经科学和人工智能带来的技术进步,机器、身体和心灵的融合即将出现。然而,在上面总结的大多数最先进的例子中,在这些神经技术能够可靠地或合乎道德地实施之前,还需要进行额外的研究和大量的工作。例如,在获取和分析神经数据的容易程度和速度(为了未来的可扩展性)、方法的标准化、神经设备的可行性和可访问性(例如,使它们更直观、更不麻烦、更负担得起、更适应人体差异)、构建未来代表性模型的神经数据集的大小和多样性方面,都需要进行相当大的改进。30.并对现有结果进行验证,建立鲁棒性和复制性。

回到顶部

Neuroethics

考虑到神经科技对社会的重要影响,技术和推理的相对不成熟,对其能力的炒作和错误信息的增加,以及对其能力的直接面向消费者的推动,人们担心神经科技的商业化和神经数据的商品化正在以一种速度和规模推进,如果没有适当的政策和法规来保护未来的消费者。同样,如果历史是未来的任何迹象,人工智能应用导致社区伤害和反动缓解策略的警示故事的增加只会加强在人工智能支持的神经技术领域中开发主动护栏的必要性。

然而,为了将商定的标准和最佳实践付诸实施,我们必须首先了解与神经技术相关的伦理问题,以及它们与人工智能技术的比较情况。与神经技术(以及相关的神经科学研究和神经数据)的开发、部署和使用相关的伦理原则和影响的研究通常被称为neuroethics这是20世纪90年代末和21世纪初从医学和生物伦理学中出现的一个相对新兴但不断增长的研究领域。22神经伦理学是神经技术和神经科学发现背后的假设和意图的关键。它还关注神经科技对人类自我理解的影响,以及这种基本理解变化对我们生物学、心理学和社会的下游影响。


人工智能已经通过影响、加强和改变我们的行为和认知过程,广泛地与我们的神经系统相互作用。


围绕神经技术的伦理考虑仍在研究中;关于神经系统以及神经技术将如何影响人类、影响到何种程度,还有很多东西有待我们去了解。然而,至少有八个核心神经伦理学问题不断出现,可能会带来重大的社会、技术和法律挑战。这些在下面的概念、权利和价值列表中被简要定义,这些概念、权利和价值可能受到使用神经技术的影响:

  • 精神隐私:一个人的神经数据不受第三方或未经授权的神经技术设备未经同意的观察、入侵、解释、收集或干扰所满足的条件。
  • 人的能动性和自主性:在没有强迫或操纵的情况下,有意图地行动或思考的能力,有足够的信息对自己的身心做出理性决定。
  • 人类身份:主观的、复杂的、动态的人类现实的各个方面的体现,包括但不限于生物学、文化、生态学、生活经验和历史社会政治状况,这些共同产生了每个人对意义的独特想法,与他人和世界的关系,以及自我和生命所有权的概念。这种现象是独特的,并且字面上铭刻在神经系统中,同时也受到外部力量的影响和构建,例如公共/社会需求。
  • 公平(包括准入问题):公平公正地对待个人或社区,不论他们是否选择或是否有能力使用神经技术,或是否参与神经数据收集,以及有关神经技术可用性的方式;获得神经科技的好处;和/或参与神经科技设计影响、神经科技解决方案和神经数据解释。
  • 准确性:神经数据测量的正确性,由神经科技公司提供的解释,或由神经科技公司为修改神经系统而生成的代码。
  • 透明度:对神经科技的能力、神经数据的使用以及从中得出的任何推论(与可解释性和知情同意有关)保持清晰和开放的质量。
  • 安全:一套技术、标准和程序,用于保护神经数据和从神经技术推断的数据不被未经授权的用户访问、披露、修改或破坏。
  • 幸福:通过在设计或实施神经技术(或相关神经数据的使用)中避免疏忽和防止伤害(广义)、伤害或不合理风险,实现身心满足(包括个人和/或社区的健康、安全、幸福和舒适)的优先状态。这还包括心理安全因素以及更大的社会和环境考虑因素,如文化或社区保护或避免有毒或不可降解的废物。

重要的是,这些问题并非相互排斥,而是相互关联的。例如,获得收集神经数据的知情同意将涉及精神隐私、人类自主性和能动性、透明度和数据安全保证。同样,当所有其他问题都得到充分解决时,幸福才会得到满足。这些概念中的许多还援引了先前建立的与慈善、无害、尊严和正义有关的生物伦理和医学原则,表明它们与神经技术以外的更广泛的应用有关。在实践中,对这些担忧的回应通常意味着在背景、社会和历史信息的基础上,逐案回答具有挑战性的问题,因为风险的程度取决于:

  • 感兴趣的神经数据
  • 神经数据是如何被处理的——例如,它是被读,被写,还是两者都有?
  • 谁的神经数据正在被收集(由谁收集,目的是什么)
  • 参与者和最终用户的整体素养——例如,他们是否了解神经技术的能力或他们的神经数据有多敏感?
  • 讨论或应用的位置——例如,具体受影响的社区、文化规范和价值观、社会期望、相关的政治和法规、经济或金融背景,或任何环境考虑(如适用)。

回到顶部

人工智能和神经科技时代的伦理

当在人工智能伦理的特定背景下考虑前面的列表时,很明显,神经技术提出了熟悉的伦理挑战,并且两者在价值一致性和透明度问题上基本一致。像这些领域的伦理问题重叠,强调这些领域很重要,因为它们表明人工智能使用的一些现有解决方案或策略(技术或其他)可能应用于神经技术应用,以减轻这些特定的问题。然而,神经科技也带来了现有人工智能法规、治理框架、最佳实践或公司政策可能无法充分覆盖的风险,这可能表明需要更新或开发新的预防战略、政策和解决方案。其余的神经伦理学考虑都属于这种分歧,因为它们强调的挑战虽然可能与人工智能构成的挑战相同,但考虑到神经技术的潜在能力和神经数据的敏感性,这些挑战也可能有明显的不同、放大或扩大。

例如,解决心理隐私、人类身份、人类能动性和自主性问题,在神经技术领域可能比在人工智能领域更具挑战性。考虑到神经技术有一天可以直接收集神经数据,并将新信息写入我们的神经系统,所有这些都可能不会被发现,这一点尤其令人担忧。这与目前与人类互动的人工智能技术形成了鲜明对比,后者可能只会间接影响我们的神经系统和相关的思想或行为,或者影响速度更慢,或者需要多步才能实现。此外,我们神经系统的大多数信号是无意识的,在我们的意识或控制之外,这使得精确地确定神经技术收集、解释或调节的数据类型在技术上具有挑战性。然而,在人工智能应用程序中,数据选择、收集和管理可能不那么难以确定或控制。

同样,确定我们同意分享什么样的神经数据可能也很困难,在不知不觉或无意中向神经技术人员提供私人信息可能是合理的。如今人工智能系统可以访问的大多数行为数据也是如此,但我们要注意这一点,因为在一个人的思想中仍然存在一种对隐私的假设,而其他人或技术似乎无法访问。然而,随着神经技术的进步,这种假设可能不再是必然的。此外,一些神经技术可以直接修改正在进行的神经活动,并直接将数据实时输入(或写入)神经系统,这一事实提出了我们如何更好地保护和确保身体/精神自主权和决策能力的问题。这包括改变我们心理过程完整性的可能性(有意或无意,可量化或不可量化),包括我们对身份的概念。因为神经技术可能有一天能够直接影响一个人的行为、思想、情绪、记忆、感知或这些现象之间的关系,它提出了关于自由意志、认知自由、代理和自我概念的挑战性问题,人工智能可能还没有真正解决到这种程度,尽管有生物伦理学研究的遗产表明,身份一直是其他生物技术领域的一个基本问题。比如器官移植和药物增强。

同样,公平是人工智能伦理的一个重要组成部分,围绕设计和解释中的公平获取和包容的一些相同问题也存在于神经伦理学中。但是,神经技术可能有一天会让我们直接推断并对我们不知道的神经数据(例如,无意识的偏见或压抑的记忆)或无法控制的神经数据采取行动,以及显著增强或改变我们的心理和身体能力。因此,神经科技对公平的风险更大,因为这些能力可能会延续现有的不平等和偏见,或为歧视或恶意攻击创造新的途径,更难发现,因为它们实际上隐藏在我们体内。此外,关于什么构成“规范”神经数据或哪些神经技术结果被认为是可取的,潜在的和未受挑战的假设也可能对具有隐性残疾或神经差异的人有偏见(在讨论遗传技术和生物识别技术时也提出了这一担忧)。出于类似的原因,规范性假设也可能导致复杂的文化和社区内困境。

此外,神经技术接口可能会加剧或加剧我们目前在人工智能方面看到的问题:设备传感器不能充分考虑不同的头发类型或肤色,指令和接口的设计方式扩大了而不是弥合了当前的数字或技术鸿沟,设备不是所有人都能获得或负担得起,或者神经技术的好处没有在适当的时候公平分配。公平问题不仅是在我们考虑神经科技设备可能有意取代能力/感觉并恢复基线功能时,而且在极端情况下,当我们考虑神经科技增强超出人类现有功能或能力的能力时。公平性也是本文所使用的概念的基础,因为所列出的许多伦理问题和价值观都受到西方规范和教育学的严重影响,神经数据通常是在西欧起源中产生和管理的。30.这意味着一些概念可能无法与不同的文化、社会标准或全球背景产生共鸣或适用。为了使神经技术治理更加公平,需要更好地理解与神经技术有关的社会和技术问题如何在地方、国家和国际社会中不同、重新定义或重新确定优先级。


神经技术的商业化和神经数据的商品化正在以一种速度和规模发展,如果没有适当的政策和法规,可能会继续下去。


至少,这里列出的许多关于神经技术的问题可能会与包括人工智能在内的其他技术的问题复杂化,因为它们有重叠性和社会相关性。例如,人工智能和数据科学经常与数据隐私和去身份识别实践相冲突。根据技术和数据格式的不同,神经数据可以用来合理地识别一个人9以超越传统PII或人口统计的方式。虽然这一特性并非神经数据所独有(它也适用于遗传学和其他生物测量数据类型),但它提出了许多人工智能方法无法处理的挑战。神经数据去识别在技术上是否比其他数据形式更具挑战性还有待观察。同样,神经技术的应用使现有技术对健康的危害变得复杂。就像我们今天使用的许多技术一样,神经科技也需要影响材料采购、资源分配、能源消耗和供应链运营的元素。

然而,一些神经技术与环境的相互作用可能也没有得到充分研究,而人工智能可能不必面对。例如,许多医学神经技术(例如正电子发射断层扫描和一些CT或MRI扫描)需要造影剂才能可视化某些类型的神经数据。其中一些对比剂,如氟-18,具有放射性,在环境中不会降解,而其他物质,如钆,随着时间的推移,随着浓度的增加,对环境和人类有毒。不幸的是,由于垃圾管理不善和明显的污染,它们越来越多地出现在废水、地下水、河流和海洋中,33最终进入我们的饮用水和我们消费的食物——例如作物、牲畜、水生生物。这对我们的星球和社区的普遍福祉和健康有明显的影响,只是在技术造成的现有负面环境影响清单上又增加了一个。

关于神经科技和人工智能引发的伦理问题的研究以及在这一领域采取行动的必要性并不新鲜,也没有讨论说明人工智能与神经科技在方法和应用方面的交集。3637然而,据我们所知,我们是第一个总结和比较这两种技术之间的核心道德问题的人,并从一家积极参与这两个领域的科技公司的具体角度提供指导和经验教训。神经科技和人工智能之间伦理问题的初步比较总结在表格中。然而,请注意,这个表格可能并不详尽;随着人工智能和神经技术的发展,可能会出现更多的考虑和差异。

图3提供了一个在依赖人工智能的双向神经技术应用中可能出现的伦理问题的例子。具体来说,这两个应用场景指的是一个系统,在一个例子中旨在预防癫痫发作,在另一个例子中旨在阻止帕金森震颤。神经科技组件用于从大脑读取和传递信号,人工智能系统根据传入数据提供分类和预测功能,以影响传出的神经科技行动。这些类型的闭环自适应神经技术,结合人工智能,并不遥远;它们目前正在研发中,用于治疗帕金森病3.还有顽固性癫痫。23重要的是,图3说明伦理考虑与技术功能(右边)和嵌入和使用它们的上下文(左边)相关联。例如,公平性问题可以在整个应用程序中找到,无论是:

f3.jpg
图3。结合神经科技和人工智能应用场景的闭环示例,以及跨上下文和技术考虑的相关伦理问题。

  • 确保有一组有代表性的患者参与试验,并让他们共同制定治疗目标。
  • 包括一组不同的工程师和设计师在创造技术和相关的方法。
  • 在一组具有代表性的患者身上测试硬件和软件,以确保在未来的试验中以相同的方式收集个体的神经信号。
  • 减少学习信号并适应刺激的AI算法中的潜在偏差。
  • 验证相关的神经调节作用在不同患者组中是公平的,某些人群没有受到其副作用的不成比例的影响。
  • 从不同的患者、护理人员和临床医生那里获得反馈和输入,作为技术影响评估的一部分。

此外,一些伦理问题在整个过程中并不常见,而只在某些情况下出现。例如,关于人类身份的神经伦理学问题最有可能出现在应用程序的后期,在长时间的神经调节之后,并且只能通过与患者的互动来看到(参见在线附录中的真实示例)。所有这些考虑都强调了参与式设计等方法的重要性和必要性,以及从一开始就纳入多方利益相关者的考虑——不仅有助于创造对个人、社区和整个社会有用和需要的神经技术,而且有助于在问题出现之前和出现时识别问题。

一旦我们确定了人工智能和神经技术结合使用的问题,我们如何解决它们?如前所述,与人工智能相比,一些问题已经或可能会大大扩展,因此我们可能需要部署更新的甚至新的解决方案以及缓解或预防战略来解决这些问题,包括技术上的和非技术上的——例如,社会、政治、制度和经济方法。然而,好消息是我们不需要从头开始。在过去五年左右的时间里,已经完成了许多基础工作,开始解决许多人工智能伦理问题。我们构建并使用多方利益相关者方法来确定相关问题及其影响;指定的最佳实践、原则和指导方针;构建技术解决方案,可以考虑、重用或更新神经技术或神经数据(例如,联邦学习实践或去偏见技术);采用教育/培训方法;创建治理框架和国际标准;甚至根据人工智能伦理考虑制定了硬性法律,比如欧盟委员会最近制定的法律15).在做这些工作的同时,我们吸取了一些教训,发现了挑战,列出了失败的地方,并报告了成功的方法。这里的“我们”指的是整个社会,而不仅仅是人工智能专家:来自许多科学学科的专家、商业领袖、政策制定者和民间社会组织。此外,国际神经伦理学社区已经创建了20多个由神经伦理学研究所(IoNx)编制的伦理指南、原则和最佳实践,我们可以也应该从中吸取教训。

因此,我们可以也应该利用这些知识和已开发的能力,加速解决人工智能和神经科技结合所带来的问题。第一步是清楚地映射常见问题和放大问题之间的关系,这是我们在前几节中开始做的,并在本文中进行了总结表格.然后,我们将能够更新和增强当前的人工智能伦理框架和行动,以涵盖许多(如果不是全部的话)扩展的问题。为了充分理解当前神经科技的发展现状,对人类和社会的真正影响,以及与现有监管和治理战略的交集,我们需要让其他学科的专家参与进来,比如神经科学和神经伦理学,这些学科现在很少出现在现有的人工智能伦理计划中。19如果我们想要在更广泛的技术/科学背景下正确地识别问题,确定相关的原则和价值观,然后建立必要的具体行动,就必须大大扩展所谓的“多方利益相关者”。如果我们要了解神经技术应用的广度和潜在问题,对话和考虑不仅需要包括神经科学、伦理学和计算机科学/人工智能学科的专家,还需要包括社会学和人类学、医学、科学和技术研究、法律、商业、人机交互、国际政治等领域的专家。此外,这些努力还需要最有可能使用或受神经技术影响的个人和社区的专业知识,以及那些可能被排除在使用或接触技术之外的人,或者那些在技术讨论中一直处于不利地位或被忽视的人。他们的需求和生活经验应该被视为额外形式的专业知识,对于理解和衡量神经技术的影响,以及创造更好的技术和减少危害至关重要。

ut1.jpg
表格人工智能与神经科技的伦理问题。

回到顶部

结论

通过这篇文章,我们想指出人工智能和神经技术的共同进化,以及它们对那些积极思考和研究人工智能和人工智能伦理的人的潜在契合点。我们的目的是发起更广泛的对话,并为解决已确定的神经伦理学问题开辟一条道路。我们希望通过确定神经科技领域的核心伦理问题,将这些问题与人工智能领域的问题进行比较,并强调现有的人工智能伦理倡议和工具可能足以满足或可能需要新的或不同方法的地方,我们可以鼓励多个领域和社区之间的跨学科和跨利益相关者合作,及时采取具体行动,最大限度地减少这一新兴技术的负面影响。

人工智能在我们的生活中已经是一项强大且通常是积极的技术。与神经科技相结合,它将在医疗、工作、休闲等方面带来巨大的新好处。但我们知道,权力越大,责任也越大。知识应该与智慧和对人类价值和社会力量的认识同步发展,这样技术进步才能造福于我们所有人。鉴于神经技术仍在兴起,我们有机会继续从过去学习,积极思考潜在的问题,并在问题出现之前开发出预防性的技术、法律、社会和教育解决方案。

uf1.jpg
数字请在独家报道中观看作者对这项工作的讨论通信视频。//www.eqigeno.com/videos/ai-and-neurotechnology

回到顶部

参考文献

1.欧洲的人工智能方法。欧洲委员会(2021年);http://bit.ly/3ZAKVbo

2.Anumanchipalli, g.k., Chartier, J.,和Chang, E.F.语音合成从神经解码口语句子。大自然568年(2019), 493 - 498。

3.自适应闭环神经调节和帕金森病的神经信号。迈克尔·福克斯基金会(2021年);http://bit.ly/3vZxOTy

4.Brynjolfsson, E.和McAfee, A。第二次机器时代:辉煌技术时代的工作、进步与繁荣。W.W.诺顿公司(2015)。

5.新的人工眼睛模仿视网膜的自然曲线。科学美国人(2020);https://bit.ly/3XqEKEN

6.Carrillo-Reid, L.等人。通过皮层整体全息回忆控制视觉引导行为。单元178(2019), 447 - 457。

7.人工耳蜗。国家耳聋和其他交流障碍研究所;http://bit.ly/3ZInhK2

8.克拉克,A.和查默斯,D.扩展的思想。分析58(1998), 7-19。

9.da Silva Castanheira, J., Orozco Perez, h.d., Misic, B.和Baillet, S.神经生理活动的简短片段使个体分化。自然通讯12(2021), 5713。

10.Dahmani, L.和Bohbot, V.D.习惯性使用GPS对自主导航过程中的空间记忆产生负面影响。科学报告10(2020), 6310。

11.戴德维勒,检察官等人。大鼠海马中供体/受体记忆的增强。系统神经科学前沿(2013), 120。

12.人工智能的日常伦理。IBM (2018);https://ibm.co/3ISrbd0

13.从数字健忘症到增强思维。卡巴斯基实验室(2016);http://bit.ly/3iv4ZLB

14.甘瑟,P.D.等人。使用感觉运动解复用神经接口恢复触觉。单元181(2020), 763 - 773。

15.《一般资料保护规例》。Intersoft咨询;https://gdpr-info.eu

16.见鬼,f等人。深度脑刺激编程2.0:目标识别和自适应闭环刺激的未来展望神经学前沿10(2019), 314。

17.霍夫曼,A.L.《公平失败的地方:数据、算法和反歧视话语的局限性》。信息、传播与社会(2019), 900 - 915。

18.IEEE P7000标准系列。IEEE伦理行动;https://ethicsinaction.ieee.org/p7000

19.Ienca M.和Malgier G.精神数据保护和GDPR。(2021);http://bit.ly/3kdQ7Br

20.Illes J。神经伦理学——预测未来。牛津大学出版社,纽约,纽约(2017)。

21.数字革命对人类大脑和行为的影响:我们处于什么位置?临床神经科学对话(2020), 101。

22.Leefmann, J., Levallois, C.和Hildt, E.神经伦理学1995-2012。一个新兴研究领域的指导主题的文献计量学分析。人类神经科学前沿(2016), 336。

23.NeuroPace;http://bit.ly/3kdWWmy

24.西本等人。从自然电影唤起的大脑活动中重建视觉体验。当代生物学21(2011), 1641 - 1646。

25.Nitsche, m.a., Boggio, p.s., Fregni, F,和Pascual-Leone, A.经颅直流电刺激(TDCS)治疗抑郁症:综述。实验神经病学21914 - 19(2009)。

26.佩斯-维埃拉,等人。用于实时共享感觉运动信息的脑对脑接口。科学报告3(2013), 319。

27.Pandarinath, C.等人。瘫痪患者使用皮质内脑机接口进行高性能通信。eLife 6(2017), e18554。

28.Pereira, J.等人。目标导向运动意图的脑电图神经相关。科学杂志149(2017), 129 - 140。

29.Petrini, F.M.等人。增强下肢假体的功能能力和认知整合。科学转化医学11(2019), eaav8939。

30.雷尼,s。和厄登,y。j。矫正大脑?神经科学、神经技术、精神病学和人工智能的融合。科学与工程伦理26(2020), 2439 - 2454。

31.Ramirez, S.等人。在海马体中制造错误记忆。科学341(2013), 387 - 391。

32.Facebook展示了如何在AR眼镜上使用它的神经腕带。The Verge (2021);http://bit.ly/3QIkP1V

33.Rogowska, J., Olkowska, E., Ratajczyk, W.和Wolska, L.钆是水生环境中一种新出现的污染物。环境毒理学与化学37(2018), 1523。

34.罗素。人类的兼容性:人工智能和控制问题。维京人(2019)。

35.罗素等人。脊髓闭环刺激持续的长期结果:前瞻性、多中心、开放标签阿瓦隆研究的12个月结果。神经外科87年(2020), 485 - 495。

36.样本,M.和拉辛,E.实用主义的数字社会:人工智能和神经技术的(在)意义。在神经伦理学进展:临床神经技术遇到人工智能。施普林格(2021)。

37.人工智能和神经科学如何相互推动。大自然571年(2019), S15。

38.斯科菲尔德,J.S.等人。长期家庭使用感觉-运动一体化双向仿生义肢可促进功能、感知和认知的改变。神经科学前沿14(2020), 120。

39.Ward, A., Duke, K., Gneezy, A.和Bos, M.W.人才流失:仅仅是自己的智能手机的存在就会降低可用的认知能力。2 .答案为c(2017)。

40.威利特,F.R.等。通过想象的笔迹进行高性能的脑-文本通信。大自然593年(2021), 249 - 254。

回到顶部

作者

莎拉·e·伯杰是美国纽约州约克敦高地IBM T.J.沃森研究中心的研究人员、科学家和负责任的技术主管。

弗兰西斯卡罗西francesca.rossi2@ibm.com)是美国纽约州约克敦高地IBM T.J.沃森研究中心的人工智能伦理全球领导者。

回到顶部

脚注

更多的网上:完整的参考资料及补充资料载于网上附录(网址http://bit.ly/3CIgJ42i


©2023 acm 0001-0782/23/03

本论文部分或全部的电子版或硬拷贝供个人或课堂使用的许可是免费的,前提是副本不是为了盈利或商业利益而制作或分发的,并且副本的第一页上必须有本通知和完整的引用。除ACM外,本作品的其他组件的版权必须受到尊重。允许有署名的摘要。以其他方式复制,重新发布,在服务器上发布,或重新分发到列表,需要事先特定的许可和/或费用。请求发布权限permissions@acm.org或传真(212)869-0481。

数字图书馆是由计算机协会出版的。版权所有©2023 ACM, Inc.


没有找到条目

Baidu
map