acm-header
登录

ACM通信

新闻

科技对道德的影响


人头上的电子电路,插图

来源:盖蒂图片社

科技能影响人类道德吗?

这不是大学哲学课上的深奥考题,而是顶尖技术专家和思想家们真正日益关注的问题。社交媒体、智能手机和人工智能等技术可能会引发大规模的道德问题,而技术专家和整个社会都在努力应对这些问题。

一方面,当我们使用互联网研究如何减少我们的环境足迹时,技术可以让我们更好地了解我们行为的后果。在过去,这些信息可能无法获取或无法获取,但今天,我们可以轻松地用数据武装自己,帮助我们做出我们认为更道德的选择。

另一方面,科技会带来我们最糟糕的行为。社交媒体平台可以为我们提供让我们愤怒或沮丧的内容,使我们更有(或更少)可能基于我们的感受而做出不道德的行为。这些平台也可以被不良行为者用来更容易地做出不道德的行为。

更不用说,科技公司本身可能会有意无意地以某种方式使用他们的发明,造成真正的伤害。

科技如何影响道德的一个突出例子是Facebook。该公司的社交媒体平台让我们更容易与我们关心的人和事情联系起来,这使我们能够采取道德行动,如支持一个有困难的朋友或为一项重要的事业筹集资金。

然而,正如Facebook的告密者弗朗西斯·豪根(Francis Haugen)告诉美国国会的那样,允许道德选择的功能也会导致不道德的选择。豪根在2021年10月作证称,Facebook故意向用户提供包含仇恨言论和错误信息的内容,因为这增加了用户参与度。一些收到这些内容的用户决定以仇恨的方式说话和行动,这对其他人造成了精神和身体上的伤害。豪根说,在一种情况下,该公司的技术甚至被用来煽动缅甸的种族灭绝,实际上是在付出生命的代价。


没有道德的技术是野蛮的;没有技术的道德是无能为力的。freeman Dyson


豪根对国会说:“结果是更多的分裂、更多的伤害、更多的谎言、更多的威胁和更多的战斗。”“在某些情况下,这种危险的网络言论已经导致了实际的暴力,伤害甚至杀死了人。”

像Facebook这样的例子让专家们越来越担心我们的技术和我们的道德行为之间的联系(或缺乏道德行为)。

事实上,如今的问题不应该是“可以科技影响我们的道德?”如何科技影响我们的道德?”

回到顶部

科技的道德风险

道德行为始于大脑,始于我们的思考方式。

科技可以影响我们的神经化学。美国国立卫生研究院(National Institutes of Health)支持的一项研究发现,当高中生发布的照片被点赞时,Instagram会刺激他们大脑的奖励中枢,从而直接影响他们的神经化学。

“用科技改变我们神经化学的某些方面必然会影响我们的道德行为,”哈佛大学肯尼迪政府学院阿什中心的访问学者若昂·法比亚诺(Joao Fabiano)说,他研究新科技的道德影响。这些影响可以激励我们做出积极的道德决定,也可以激励我们做出错误的决定。

这并不意味着我们的行为是无可指责的,因为科技侵入了我们的大脑。这意味着科技对我们的思维和行为方式有着深远的影响,而我们才刚刚开始了解这种影响。

首先,不道德的行为者可以在知情的情况下以有害的方式使用技术,要么对危害视而不见,要么故意利用平台制造负面结果。

Jean-François Bonnefon是法国图卢兹经济学院研究道德心理学和人工智能(AI)的研究主任,他说:“如果我想做一些不道德的事情,技术可以为我提供更好的信息和更好的工具来实现我的不良目标,给我没有技术帮助我不会追求的机会。”

Bonnefon说,技术也可以用来推卸道德决策的责任。他说:“例如,我可能会决定购买一辆永远把我的安全放在第一位的自动驾驶汽车,即使它会不成比例地增加其他道路使用者的风险。”“我自己那样开车可能会有负罪感,但如果是机器替我开车,我就不会有负罪感了。”

当你考虑到当技术放大我们自身的道德缺陷时会发生什么时,关于技术对道德影响的辩论就变得更加模糊了。

加州帕洛阿尔托半岛圣经教堂(Peninsula Bible Church)的牧师保罗·泰勒(Paul Taylor)说:“就像任何技术一样,社交媒体只是让我们在更大程度上做我们已经做过的事情。”在成为牧师之前,他在旧金山从事软件开发工作,曾一度担任科技巨头甲骨文公司的产品经理。

泰勒说,人类倾向于以一种特定的方式呈现自己,在隐藏其他细节的同时透露一些信息。“但我们对披露什么样的信息所做的选择最终在很大程度上塑造了我们。社交媒体技术的设计激励了某些信息,而抑制了其他信息。”

这些技术性的决定最终塑造了我们在如何展示自己方面的选择,而这反过来又塑造了我们如何看待自己和他人。

当机器自己告诉我们应该如何行动时会发生什么?

马克斯普朗克人类发展研究所(Max Planck Institute for Human Development)研究伦理和人工智能的博士后Nils Köbis说:“我们应该更多关注(人工智能)如何塑造我们的道德行为。”

以亚马逊的Alexa语音助手为例。根据Köbis网站的研究,亚马逊的首席科学家罗希特·普拉萨德表示,该公司设想Alexa的角色将从语音助手转变为值得信赖的顾问。Köbis说:“很快,人们可能不仅会要求电脑播放他们最喜欢的音乐或打开灯,还会在做出涉及道德后果的决定前咨询它。”


泰勒说:“如果技术创造者对人类的意义有一个坚实的理解,他们就可以在努力中更负责任。”


Köbis和其他研究人员“进行了一项大规模的、经济激励的、预先注册的实验”,通过测试人工智能产生的建议是否会腐蚀人,来判断机器如何影响我们的道德。他们让研究参与者玩一个游戏,在游戏中,他们会得到关于如何作弊和获得成功的不诚实建议,这些建议有时是由人类提出的,有时是由人工智能提出的。研究参与者接受了不诚实的建议,撒谎以赢得游戏。

根据这项研究,“人工智能产生的建议的效果与人类写的建议没有区别。”该研究得出的结论是,人类被人工智能系统腐蚀的程度可能和被其他人类腐蚀的程度一样严重。

回到顶部

快速行动,打破常规

技术导致模糊的道德困境的一个原因是,它的创造者并不总是考虑它的后果。

Köbis说:“对于许多人工智能工具来说,存在一种‘先创新,后求饶’的心态。”“压力测试技术是否以及如何影响人们的道德行为是重要的一步。”一种方法是让研究人员和民间社会组织审计主要技术参与者发布的代码,但这说起来容易做起来难,Köbis说。

许多公司使用他们小心保护的专有数据和代码。这使得人们很难理解他们的技术是如何工作的,也很难确定它可能造成的道德陷阱。这一点在豪根向国会的证词中表现得很明显,她在证词中主张对Facebook的算法进行监管。然而,监管机构需要对Facebook的算法、代码和数据进行前所未有的访问,才能实施这样的政策。

像Algorithm-Watch的DataSkop这样的项目试图绕过这些限制。通过DataSkop,用户可以从他们的台式机或笔记本电脑中捐赠数据,以帮助研究人员了解算法决策系统是如何工作的。在2021年秋季的一个项目中,DataSkop被用于分析用户贡献的数据,以发现德国竞选季期间YouTube推荐和搜索结果算法中的模式,以及个性化所发挥的作用。

另一种解决技术如何影响道德问题的方法是提出更好的问题之前技术是发达的。

法比亚诺说:“哲学为解决创新者应该提出的宏观问题开发了工具。”这些工具包括一些基本问题:什么是对后代最好的?科技造成的伤害应由谁负责?

泰勒说,这也意味着要考虑作为人类意味着什么。他说:“如果技术创造者对作为人类意味着什么有一个坚实的理解,他们就可以在努力中更负责任。”

这意味着要问这样的问题:我们人类的哪些方面正受到科技的威胁?哪些方面太重要而不能牺牲?我们要培养什么样的理想?我们要避免什么样的诱惑?

“有了这些问题的一些答案,将为设计对我们的行为产生积极影响的技术提供基础。”

如果我们到那一步,我们可能会看到道德是技术的一个特征,而不是一个缺陷。

*进一步的阅读

阿林,B。
以下是Facebook举报人在国会作证的4个要点,美国国家公共电台2021年10月5日,https://www.npr.org/2021/10/05/1043377310/facebook-whistleblower-frances-haugen-congress

Leib, M.等。
人工智能产生的建议的腐败力量,康奈尔大学2021年2月15日,https://arxiv.org/abs/2102.07536

塞缪尔·S。
做一个有道德的人很难。科技让这变得更加困难。Vox2021年8月3日,https://www.vox.com/the-highlight/22585287/technology-smartphones-gmail-attention-morality

谢尔曼等。
通过Instagram的同伴影响:对青少年和青年时期大脑和行为的影响,儿童发展1月/ 2月。2018,https://srcd.onlinelibrary.wiley.com/doi/10.1111/cdev.12838

回到顶部

作者

洛根Kugler是美国佛罗里达州坦帕市的自由科技作家。他是中国中医药大学的定期撰稿人,为近100家主要刊物撰稿。


©2022 0001 - 0782/22/4 ACM

允许为个人或课堂使用部分或全部作品制作数字或硬拷贝,但不得为盈利或商业利益而复制或分发,且副本在首页上附有本通知和完整的引用。除ACM外,本作品的其他组件的版权必须受到尊重。允许有信用的文摘。以其他方式复制、重新发布、在服务器上发布或重新分发到列表,都需要事先获得特定的许可和/或费用。请求发布的权限permissions@acm.org传真(212)869-0481。

数字图书馆是由计算机协会出版的。版权所有©2022 ACM, Inc.


没有发现记录

Baidu
map