acm-header
登录

ACM通信

观点

当技术操纵我们的情绪


当技术操纵我们的情绪,插图

资料来源:Facebook / Flickr

在极少数情况下,一项学术研究受到了媒体的疯狂关注,这通常表明该话题在某种程度上触及了社会恐惧。2014年6月17日美国国家科学院院刊(PNAS)发表了一篇由Facebook和康奈尔大学的研究人员撰写的论文,提出了在线社交网络中普遍存在情绪传染的证据。脸书的研究操纵了脸书用户动态消息中出现的正面或负面帖子的百分比,并报告称,他们的操纵产生了预期的效果,证明了大规模的情绪传染。这项研究为一个服务不足的研究领域提供了有趣的结果,但它引发了一场可以理解的担忧,因为在试图影响参与者的情绪之前,未能获得他们的同意。大多数人不知道Facebook已经过滤了用户的新闻源(由于规模庞大,这是必要的),人不知道该公司拥有如此空前的影响力,人不知道这种操纵涉及到像感觉和情绪这样的私人事物,这也加剧了公众的担忧。

缺乏对信息过滤的意识支持了一种技术设计中立的错觉,即默认情况下计算机程序被剥夺了价值或道德意图。在与研究伦理有关的批评浪潮中,这个问题和其他重要问题受到的关注较少(谷歌Scholar指出的120篇论文中,大多数引用了伦理研究)。一些公开的问题包括由于数据访问限制而缺乏透明度,以及由于缺乏facebook级别的资源而难以进行系统复制。这一观点采用了不同的方法,讨论了技术设计研究的含义以及技术人员应该基于其设计决策的标准。


没有找到条目

登录阅读全文

登录

如果您是ACM会员、通信订阅者或数字图书馆订阅者,则使用您的ACM Web帐户用户名和密码登录以访问优质内容。

需要访问吗?

请选择以下其中一个选项以访问优质内容和功能。

创建一个网络帐户

如果您已经是ACM会员,通信订阅用户,或数码图书馆订阅用户,请设立网上帐户,以便阅览本网站的优质内容。

加入ACM

成为ACM会员可以充分利用ACM卓越的计算信息资源、网络机会和其他优势。

订阅ACM杂志通讯

获得完全访问超过50年的CACM内容,并每月收到印刷版杂志。

购买物品

非会员可以购买这篇文章或它出现的杂志的副本。
Baidu
map