acm-header
登录

ACM通信

的观点

媒介网络话语的美丽新世界


语音表情符号的金属表示

资料来源:Andrij Borys Associates;Stutterstock

在最近的一次通信列,9Moshe Vardi询问如何规范社交媒体平台上的言论。瓦尔迪提醒我们,鉴于Facebook平台庞大的用户数量和贡献,Facebook的5万名员工需要算法来实现内容审核。虽然挑战是显而易见的,但算法本身可能不是解决方案。我们正面临着一个大规模的集体问题,这不仅需要技术解决方案,而且需要深入考虑一些社会最基本的价值观。言论自由是这样一种价值,它需要对如何在数字世界中保障言论自由进行深思熟虑的讨论——包括言论自由的界限应该在哪里,由谁来定义这些界限,以及如何执行这些界限。这包括内容审核的技术方法问题,有害内容的定义,以及更根本的问题,从网络公共话语中期待什么?

在线社交媒体平台已经成为我们社会的重要组成部分,成为意见的塑造者。小型区域论坛和大型社交网络都为数字公共领域的公共话语提供了关键的基础设施。8有些网站,如Facebook,拥有相当大的影响力,用户超过20亿人,甚至达到某些国家总人口的90%。一个网络在很大程度上可以在管理话语方面行使自由裁量权,例如,通过选择或优先处理评论。尽管一些国家已经制定了相关规定,但大多仅限于鼓励平台删除非法内容,最近则是为了回应投诉而删除内容。b通常情况下,这些法律并没有直接规定删除内容或如何删除,而是鼓励平台通过潜在的惩罚方式来存放非法内容。c大多数监管都是负面的,也就是说,几乎没有监管会授予在社交媒体上发表文章的权利。除此之外,例如Facebook就使用了一套单一的全球社区指南。

考虑到网络话语的庞大数量,塑造网络话语需要信息技术的帮助,以及针对不同目的的一整套算法。9它们可以用于删除不需要的内容或帮助确定显示给用户的消息的优先级。它们可以根据用户的历史上网行为来评估用户的可信度。他们甚至可以评估引发严肃讨论或情感回应的可能性。小型区域性网络和大型国际网络都使用算法。事实上,对于较小的媒体来说,在没有大量员工的情况下管理内容是至关重要的。

一个重要的新出现的问题是,算法应该在什么程度上和以什么目标监督数字公共领域?一个多管齐下的方法是使用算法来保持讨论的真实性和友好性,删除非法和有害的内容,支持那些否则可能被忽略的内容,并保持每个人都感兴趣。对一些人来说,算法调节的话语带来了一种勇敢的新世界对话和高质量的讨论。在这样的世界里,每个人都力求举止得体,只以事实为依据进行辩论,谨慎而深思地表达观点,从不使用任何辱骂或仇恨的语言。不幸的是,这种由算法监管的在线话语的愿景是行不通的不明智的不现实的和不公平的。让我来解释一下原因:

这个愿景是不现实的因为现在使用的人工智能通常都很简单,事实上,很多都很糟糕。以一个著名的例子为例,一个白噪音视频上传到YouTube时制造了5个虚假版权声明。19鉴于谷歌收集了各种语言的在线文本,它可以构建一些出色的语言处理工具,但用于内容审核的许多算法都是仅对句子操作的简单模式匹配器。许多公司使用关键词来检测仇恨言论,或使用大型数据库和文件哈希比较来删除受保护的知识产权。9今天,在语境识别方面,在较长时间的对话中追踪争论,或在幽默或更糟的讽刺等情况下消除语言微妙含义的歧义方面的努力很少,后者是出了名的难以识别(例如华莱士)13).据报道,商业工具只能提供大约70%到80%的准确率,这意味着五分之一的评论会被错误分类。5此外,在战胜基于人工智能的内容审核方面,人们很聪明。他们创造了“k!”或者使用图形文本模式等等。虽然某些过滤器对其中一些结构的检测达到了令人惊讶的水平,但这似乎只会助长网络喷子的创造力。


在线社交媒体平台已经成为我们社会的重要组成部分,成为意见的塑造者。


在内容审核中使用AI算法也可以不公平的。语言技术是强烈依赖于语言的。统计算法只适用于最常见的语言。这个问题很可能是罗兴亚人丑闻背后的根本原因——这是缅甸历史上的一段悲剧,在一定程度上是由网络仇恨言论引发的。1011虽然在一个只说英语的国家,优先过滤英语可能是可以接受的,但在更罕见的语言中,糟糕的算法可能会加剧现有的歧视和不公平的内容审核,不管这是否意味着删除或多或少的内容。

虽然人工智能和自然语言处理已经取得了很大的进展,但是否有任何应用技术真正掌握了语言的意义是有争议的。理解语言是一个非常困难的问题,即使对人类也是如此。关于我们的意思的争论(更多的是关于我们的意思)可能会导致国内讨论和法庭程序。人类语言反映了生活的所有复杂性,是我们描述计划、追求伴侣、点餐、结束关系、祈祷、玩耍、唱歌、希望等等的通用工具,引用维特根斯坦的一些著名例子。完全理解所有这些不同的语言实践可能是AI-hard这意味着我们需要类似人类的人工智能来解决它。因此,算法可能会在两方面出错:它们会漏掉一些参与者希望删除的内容,也会删除无害的内容。后者可以从越来越多的用户投诉中得到证明,他们希望看到被删除的内容得到恢复。4大流行病使情况更加恶化,因为减少的工作人员被迫处理日益增加的内容;一些在线媒体没能处理好由此产生的针对错误监管内容的投诉数量。

鉴于这些挑战,重要的是:承认人工智能的缺点;相应地通知政策制定者;确保获得有关现行做法的数据;并预见适当的申诉机制和程序。作为计算机科学家,我们有责任告知潜在的技术缺陷,就像告知算法的明显成功一样。尽管存在这些缺点,一些政策制定者可能希望平台在删除非法内容之外走得更远。英国最近的网络安全法案被强烈批评为“审查的处方”。7因为这将要求平台删除有害(但合法)的内容。虽然他们通常不会规定使用算法工具,但他们显然意识到了这一点;但有一个危险是,政策制定者高估了算法的效能和精确度。在最近与欧洲议会一名议员的讨论中,我指出了人工智能在在线内容审核方面的缺点。这位政治家的回答是:“我们知道。但我们必须做点什么。”这听起来很绝望,但可能是真的。接下来的问题是,算法是否是唯一的答案,以及我们应该在多大程度上真正寻求自动删除有害内容。

让人工智能删除有害内容也有可能不明智的。关于“有害”内容的一个担忧是,谁来定义它?如果我们要求平台通过算法删除其所有者或人工智能专家认为有害的内容,我们就会如履薄冰。今天,当Facebook删除城市公共场所的裸体雕像图片时,我们已经在嘲笑它了。另一个更原则性的担忧是,我们是否应该以算法监管内容为目标,以使在线话语失去锋刃。德裔韩国哲学家韩炳哲(Byung-Chul Han)认为,数字世界往往会带来完全的流畅,因为它的目标是对我们的意图不提供任何阻力。3.我们当然还没有在网络话语中达到这样的状态,但抵制和一些粗鲁可能是良好和富有成效的话语的必要成分。如果言论从来都不是有害的,那么就不需要言论自由权。告发腐败政客的抗议者和揭露反民主阴谋的告密者都需要言论自由。这同样适用于在独裁统治下为自由而战的民权活动家。这样的言论可能会伤害到那些被攻击的人,尤其是那些当权者。发明言论自由作为一项人权是为了实现自由民主和民主话语。这可能包括冒犯、震惊或干扰的信息。意见可能需要“与官方当局或很大一部分公众舆论所捍卫的观点背道而驰。”d此外,话语可能需要从根本上动摇社会基础。

请注意,言论自由并不是无限的。许多宪法都有规定,为立法者提供了监管这种自由的空间,并合理地禁止恐怖主义宣传。这种定义良好的限制显然是必需的。但如果以内容可能“有害”为理由删除内容,而内容仍然不明确,也不清楚是谁认为它有害,那就完全是另一回事了。今天,我们甚至可能不知道什么东西被切除了,为什么切除。414我担心,我们正在把在当前技术状态下不应该下放的责任交给人工智能,因为它可能导致不公平对待人们,可能会建立不切实际的期望,可能会改变天平,有利于压制意见。更重要的是,它可能赋予删除者潜在的不民主的权力。

讨论了算法的替代方案。一个想法是取消匿名。至少在人权得到适当保护的民主社会,这可以产生积极的影响。但是,这并不能完全解决问题。经常有人提出教育(例如媒体素养教育),但一些研究表明,在评估内容时几乎没有影响,甚至过度自信是有害的。2一些在线媒体为可信的在线贡献者使用排名系统,但它们有被攻击的风险,因为社交评分。然后是审计或治理委员会,这是社交媒体目前的趋势,需要民主监督,可能有助于改善这种情况。最后,还有大量关于平台监管的讨论,包括对在线内容的规定。6这些建议还有很大的改进空间,可以进行进一步的研究,也可以采用新的方法。我们需要更多聪明的头脑来从事这样的技术选择,我们试图通过我们的数字人文主义倡议来鼓励这一点。e但首先,在迎接人工智能控制内容的“美丽新世界”之前,我们必须更好地理解我们对网络话语的期待。语篇服务于许多不同的目的,因此可能需要比今天使用的更有区别的算法审核方法。

回到顶部

参考文献

1.Baraniuk, C. YouTube上的白噪音视频遭到五起版权索赔。BBC新闻(2018年1月5日);https://bbc.in/3eiGQlL

2.媒介素养的承诺、挑战与未来。数据与社会研究所。(2018);https://bit.ly/3q6xu1J

3.Byung-Chul汉Im Schwarm。中文:在蜂群中:数字前景。麻省理工学院出版社,剑桥,马萨诸塞州,2017。

4.Cowls, J.等人。在数码公共领域的言论自由[政策概要]。人工智能与内容审核研究冲刺(2020年);https://bit.ly/3IZ5INn

5.杜阿尔特,N,兰索,E,卢普。自动化社交媒体内容分析的局限性,民主与技术中心。(2017);https://bit.ly/3mdXFCB

6.even t和Donders k调节数字平台功率。数字媒体与政策杂志, 3(2020), 235-239。

7.活动人士说,网络安全法案是“审查制度的处方”。《卫报》。(2021年5月12日);https://bit.ly/32cOnzJ

8.Mazzoleni G.等人,主编。数字公共领域。在《国际政治传播百科全书》,威利·布莱克威尔,2015,322。

9.裁缝,G。在线内容过滤或审核算法的影响。公民权利和宪法事务政策部,总干事内部政策,2020年;https://bit.ly/32gvYle

10.梭伦,O。“Facebook在缅甸的失败是一个浮躁的孩子的杰作。”《卫报》(2018年8月16日);https://bit.ly/3ISXrup

11.为什么Facebook在缅甸的反仇恨言论战争中失败了?路透社特别报道(2018);https://reut.rs/3GSaElo

12.如何应对社交媒体?Commun。ACM 63, 11(2020年11月),5;DOI: 10.1145 / 3424762。

13.计算反讽:一项调查和新观点。Artif。智能。启43(2015), 467 - 483;https://doi.org/10.1007/s10462-012-9392-5

14.纽约,J.C.硅值。Verso,英国伦敦,2021年。

回到顶部

作者

Erich过犹不及prem@eutema.com)是维也纳大学的研究员和eutema GmbH的董事。

回到顶部

脚注

一个。https://bit.ly/3m9HsOP

b.例如,欧洲议会和理事会关于防止恐怖主义内容在网上传播的拟议条例或《2019年数字单一市场指令》版权第17条。

c.例如,德国《网络执法法》包括了高达5000万欧元的罚款。

d.《欧洲人权公约》第10条指南。欧洲人权法院;https://bit.ly/33u1RaG

e。https://bit.ly/3e3Sel6


版权归作者所有。
向所有者/作者请求(重新)发布权限

数字图书馆是由计算机协会出版的。版权所有©2022 ACM, Inc.


没有发现记录

登录为完全访问
»忘记密码? »创建ACM Web帐号
文章内容:
Baidu
map