我们都看到了关于以色列和哈马斯之间冲突的大量夸大、分裂和虚假内容在网上传播。为此,记者、监管机构、政治人物和公民社会组织都敦促社交媒体公司增加内容审查力度,通过发现和处理违反平台政策的个别内容。我在Meta工作了4年多,致力于改善平台对各种冲突的影响。离职后,我开始关注平台设计,部分原因是内容审查的限制在高风险时期尤为明显。当然,存在一些应该被审查的内容,平台也可以做得更好。但是审查只能处理很小一部分有害内容,所以专注于此无法实质性改善网上言论。

下面是一个《纽约时报》中指出为虚假的与当前冲突相关内容的例子。

对于像此类帖子,教会官方发表声明说“加沙的圣波菲里奥斯教堂完好无损”,但这只能做到是因为该声明指明了具体事件(几天后,该教堂实际上被空袭击中)。网上言论更常见的是更为泛泛地指责对方广泛和无差别使用磷弹或性侵。这类泛泛地煽动恐惧的说法很难有效进行审查,原因如下:

  1. 无法证明泛泛地否定某事。如果没有指明任何具体事件,如何去证明某事从未发生?
  2. 不想审查可能涉及人权的重要内容。这类说法可能涉及人权问题,记录下来对了解事件也很重要。人们也可能依靠此类信息保护自己安全。错误地下架此类内容可能造成严重后果。
  3. 人们会传播此类有利于自己一方的内容。在冲突环境下,传播对方负面信息是各方自然会采取的策略之一。此类内容会快速传播和被支持自己一方的人分享,无法及时核实事实。
  4. 人们渴望获取最新信息。追求最新信息的心态意味着,即使对事件一无所知,一些人也会竞相第一时间提供最引人注目的信息,以吸引关注和获得收益。他们很少考虑信息是否真实。如果内容被下架,他们可以用新的账号再试一次。

我不是说内容审查完全无用。但如EU对Meta和Twitter所做,要求公司加强力度,效果很有限。大部分有害内容不违反政策,也常与合法政治表达混杂在一起。平台内部文件指出,“大量有害内容,如个人故事、引导性问题或嘲讽,通常完全无法执行。随着平台整改工作深入和知名度提高,问题制造者会转向这些漏洞”。在这些漏洞中,平台也承认内容往往通过靠近虚假信息和仇恨的边缘来获得更多传播。

事实上,平台过于依赖审查也会产生新问题。我们知道,以色列和巴勒斯坦冲突期间加强审查曾导致可信报告指出存在审查和偏见。对明确的有害内容(如错误图片)进行小范围精准审查是重要工具。但大多数情况下,有害内容不明确,一旦在紧急情况下扩大审查范围,需要更多细致判断,错误就难以避免。

这就是为什么平台通常会采取内容中立的“破窗”措施应对危机。我们可以从这些建议中吸取教训,提出不依靠严格区分内容好坏的替代方案。一些可以更有规模地应对虚假信息的步骤包括:限制所有账号活动以阻止少数人操纵系统;取消对更夸张内容的奖励机制;增强权威信息源在线隐私保护;优先推送信誉良好的长期账号过新账号等。

Last modified: November 1, 2023