acm-header.
登入

ACM的通讯

博客@cacm.

关于Facebook应该做些什么?


卡内基梅隆大学副教授杰森洪

信誉:卡内基梅隆大学

举报人最近发布的Facebook文件已经证实,公司领导人始终如一,他们的社交媒体促进的问题已经令人满意,包括消毒,错误信息,仇恨言论,抑郁症等。有很多关于监管机构踩到的谈话,与Facebook允许他们检查他们的算法,以便在Instagram和Newsfeed上进行优先顺序和推荐内容。我们如何担任计算机科学家和技术人员在这里帮助?我们的社区可能提供这些监管机构的哪些问题,见解或建议?

开放算法还不够

我提供的第一件建议是,是的,Facebook应该向监管机构开辟算法,但这不够靠近。如果监管机构想要遏制仇恨言语,但不诚实和抑郁等东西的传播,他们还需要仔细看看Facebook用于开发产品和测量指标的过程。

可能会有一些人的Facebook的算法,例如,可以理解阻止特定网站或优先考虑业务支付的赞助帖子的代码。然而,Facebook的算法核心可能会使用机器学习模型,这些模型不会以任何有意义的方式检查。大多数机器学习算法是大型的N维矩阵,即我们糟糕的原始大脑没有机会理解。

Facebook也很有可能考虑到数百个因素来建立他们的机器学习模式,例如帖子的新近度,喜欢的人数,与您相似的人的人数,帖子中的单词的情感价值等。这些因素都没有明显是错误的或与伪造或其他问题有直接相关的Facebook正在面临。

从举报者和其他研究人员透露的内容,其中一个关键问题是Facebook的算法似乎优先考虑可能具有高参与的帖子。问题是让人们愤怒的帖子往往有很快的参与和迅速传播,而且包括关于政治的帖子,特别是错误信息和欺骗。但你不能只是阻止具有高参与的帖子,因为这也包括关于新婴儿,毕业,婚姻的诞生的帖子,以及可能与社区高度相关的事实新闻。

因此,开放算法是一个好的和重要的第一步,但绝不是足够的。

Facebook有“打破玻璃”措施,减缓误导和极端主义的传播。为什么这些功能一直都在开启?

Facebook先前披露,在美国2020年选举期间有几种安全措施。虽然细节并不完全清楚,但这种安全模式似乎优先考虑更可靠的新闻来源,减缓了分享大量错误信息的政治团体的增长,并降低了可能煽动暴力的员额和评论的可见性。

如果Facebook已经有了这些措施,他们为什么一直都没有打开?如果Facebook已经知道他们的一些在线群体传播极端主义和暴力,他们为什么不做更多来阻止他们?讨厌言语极端主义,错误信息,并不是只有在选举季节出现的东西。

Facebook是一个大型机器学习算法,优先级参与

Facebook论文表明Facebook的领导能力优先于所有其他指标的参与。从商业模式的角度来看,这是有道理的,因为订婚导致在现场花费更多的时间,因此可以显示更多的广告,从而更高的收入。人们可以将整个公司本身视为一种大型机器学习算法,可以优化其产品和特征,主要用于参与。

这里的部分问题是,像订婚的东西很容易测量和明显与收入相关联。然而,参与忽视了其他重要的事情,例如个人的福祉,或蓬勃发展,感觉支持,感觉连接并充分了解。这些是衡量标准更难的,但可以想象,如果Facebook的产品团队优先考虑这些或其他类似的指标,我们会有一种非常不同的社交媒体体验,一个更容易为个人提供积极态度社会。

Facebook不能完全信任警察本身。它需要:将其算法和平台开放到合格的研究人员

我上面提议的指标的问题是我怀疑它可能强迫公司使用新的指标。相反,我建议的是Facebook必须将其算法,指标和平台开放到世界各地的一套合格的研究人员。

Facebook一再展示它不能警察本身,并且已经关闭了许多外部努力,旨在收集有关其平台的数据。对Facebook的一次​​考试也不可能在长期内改变他们的方向。此外,监管机构没有持续监控Facebook的专业知识或资源。相反,让我们更轻松地让科学家和公共倡导团体收集更多数据并提高透明度。

即,在内部,Facebook可能仍然会尝试优先考虑参与,但如果产品团队和董事会也看到了像研究人员出版的“仇恨讲话传播”或“无名的半衰期”等公共指标,他们将被迫面对面这些问题更多。

现在,这些科学家和公共宣传群体需要公平的资金来支持这些活动。还有许多问题是谁将有资格,如何确保数据完整性并防止敏感数据的意外泄漏,以及如何确保分析的透明度和质量。然而,这种方法将我作为在Facebook内部改变激励的最佳方式。

结论

Facebook向监管机构开放算法还不够。相反,我的建议是看他们现有的安全措施,并要求Facebook向合格的研究人员打开他们的平台。我现在将把这个问题传给你:你会提供什么问题和建议,你会提供监管机构吗?

杰森洪是计算机科学学院教授,​​Carnegie Mellon University的人力计算机互动研究所。


评论


元田

伟大的帖子!我同意向监管机构开放算法的建议还不够。监管机构,研究人员和用户更透明地将有助于改善社交平台。即使在Facebook开辟了他们的算法和平台上,弥合了社会良好和低级算法设计和软件实现之间的高级所需政策之间的差距仍然有挑战性。作为一个安全研究员,我看到跨学科合作和责任为我们的下一代进行更好的未来社交网络的责任机会。在起草社交网络的规定时,监管机构可能希望听到计算机科学研究人员,社会科学研究人员,开发人员和用户的声音,以确定可执行的规定。


展示1评论

登入完全访问
“ 忘记密码? »创建ACM Web帐户
Baidu
map