acm-header
登录

ACM通信

BLOG@CACM

Facebook的麻烦


CMU Jason Hong教授

来源:卡内基梅隆大学

2021年11月12日https://bit.ly/3qu5C9H

最近,一名举报者公布的Facebook文件证实,该公司的领导人早就知道他们的社交媒体引发的问题,包括虚假信息、不实信息、仇恨言论、抑郁等。很多人都在谈论监管机构的介入,Facebook可能会允许监管机构检查他们在Instagram和Newsfeed上排序和推荐内容的算法。作为计算机科学家和技术人员,我们如何在这方面提供帮助呢?我们的社区可以向这些监管者提供什么样的问题、见解或建议?

回到顶部

仅仅开放算法是不够的

我要提供的第一条建议是,是的,Facebook应该向监管机构开放其算法,但这远远不够。如果监管机构想要遏制仇恨言论、虚假信息和抑郁症等内容的传播,他们还需要密切关注Facebook开发产品的流程以及他们衡量的指标。

Facebook的算法中可能有些部分是可以理解的,比如屏蔽特定网站的代码,或者对商家付费的赞助帖子进行优先排序的代码。然而,Facebook算法的核心很可能是使用机器学习模型,而这些模型无法以任何有意义的方式进行检查。大多数机器学习算法都是大型n维矩阵,我们可怜的原始大脑根本没有机会理解。

Facebook也很有可能会考虑数百个因素来建立他们的机器学习模型,比如一个帖子的最近度、点赞数、来自与你相似的人的点赞数、帖子中文字的情感效价等等。这些因素都没有明显的错误,也没有与Facebook面临的虚假信息或其他问题直接相关。

从举报人披露的信息和其他研究人员的调查来看,一个关键问题是,Facebook的算法似乎会优先考虑那些可能具有高参与度的帖子。问题是,让人们愤怒的帖子往往有很高的参与度,传播速度也很快,这包括关于政治的帖子,尤其是错误信息和虚假信息。但你不能只屏蔽参与度高的帖子,因为这也包括关于新生儿出生、毕业和婚姻的帖子,以及可能与社区高度相关的事实新闻。

因此,开放算法是良好而重要的第一步,但这还远远不够。

回到顶部

Facebook采取了“打破玻璃”的措施,以减缓虚假信息和极端主义的传播。为什么这些功能没有一直打开呢?

脸书此前曾披露,该公司在2020年美国大选期间启动了几项安全措施。虽然细节还不完全清楚,但这种安全模式似乎优先考虑了更可靠的新闻来源,减缓了分享大量错误信息的政治团体的发展,降低了可能煽动暴力的帖子和评论的可见性。

如果Facebook已经有了这些措施,为什么它们没有一直打开呢?如果Facebook已经知道他们的一些在线群体传播极端主义和暴力,为什么他们不采取更多措施来屏蔽这些群体呢?仇恨言论、极端主义、虚假信息和虚假信息不仅仅出现在选举季。

回到顶部

Facebook是一个优先考虑用户粘性的大规模机器学习算法

Facebook的论文表明,Facebook的领导层将用户参与度置于所有其他指标之上。从商业模式的角度来看,这是有道理的,因为用户粘性导致他们在网站上花更多的时间,因此可以显示更多的广告,从而获得更高的收益。你可以把整个公司想象成一个大规模的机器学习算法,它主要是为了用户粘性而优化产品和功能。

这里的部分问题在于,用户粘性等指标很容易衡量,而且与收益明显相关。然而,参与忽略了其他重要的事情,例如个人的幸福,或繁荣,感觉支持,感觉联系和信息灵通。这些是很难衡量的指标,但可以想象,如果Facebook的产品团队优先考虑这些或其他类似的指标,我们将拥有一种非常不同的社交媒体体验,一种对个人和社会都更有可能是积极的。

回到顶部

不能完全相信Facebook能自我监督。它需要:向合格的研究人员开放其算法和平台。

上述指标的问题在于,我怀疑是否有可能迫使公司使用新类型的指标。相反,我想建议的是,Facebook必须向世界各地一批合格的研究人员开放它的算法、指标和平台。

Facebook一再表明,它无法自我监督,并关闭了许多旨在收集其平台数据的外部努力。对Facebook的一次性审查也不太可能改变他们的长期发展方向。此外,监管机构没有持续监控Facebook的专业知识或资源。相反,让我们让科学家和公共倡导团体更容易收集更多数据,增加透明度。

也就是说,Facebook内部可能仍会优先考虑用户参与,但如果产品团队和董事会也看到研究人员发布的“仇恨言论传播”或“虚假信息的半衰期”等公开指标,他们将被迫更多地面对这些问题。

现在,这些科学家和公共倡导团体需要相当数量的资金来支持这些活动。谁有资格,如何确保数据的完整性和防止敏感数据的意外泄露,以及如何确保分析的透明度和质量,都存在许多问题。然而,我认为这是改变Facebook内部激励机制的最佳方式。

回到顶部

结论

Facebook向监管机构开放算法是不够的。相反,我的建议是审视其现有的安全措施,并要求Facebook向合格的研究人员开放其平台。我现在把这个问题交给你们:你们会向监管机构提出什么问题和建议?

回到顶部

评论

好的文章!我同意向监管者开放算法是不够的这一观点。对监管机构、研究人员和用户增加透明度将有助于改善社交平台。即使Facebook开放了自己的算法和平台,要想弥合高层次的社会公益政策与低层次的算法设计和软件实现之间的差距仍然是一个挑战。作为一名安全研究人员,我看到了跨学科合作的巨大机遇,也看到了为我们的下一代塑造更好的未来社交网络的责任。在起草社交网络法规时,监管机构可能希望听到计算机科学研究人员、社会科学研究人员、开发人员和用户的声音,以定义可执行的法规。

- - - - - -元田

回到顶部

作者

杰森在香港是卡内基梅隆大学计算机科学学院和人机交互研究所的教授。


©2022 0001 - 0782/22/2 ACM

允许为个人或课堂使用部分或全部作品制作数字或硬拷贝,但不得为盈利或商业利益而复制或分发,且副本在首页上附有本通知和完整的引用。除ACM外,本作品的其他组件的版权必须受到尊重。允许有信用的文摘。以其他方式复制、重新发布、在服务器上发布或重新分发到列表,都需要事先获得特定的许可和/或费用。请求发布的权限permissions@acm.org传真(212)869-0481。

数字图书馆是由计算机协会出版的。版权所有©2022 ACM, Inc.


没有发现记录

Baidu
map