屏幕背后的……阴影与“幕后之人”

《幕后之人:社交媒体时代的内容审核》,[美]莎拉·罗伯茨著,罗文译,广东人民出版社/万有引力,2023年5月出版,248页,68.00元


美国学者莎拉·罗伯茨(Sarah T. Roberts)被誉为“数字时代的先锋研究者”,她在2010-2018年长达八年的时间里持续展开了对互联网公司中的商业性内容审核员群体的工作状况及生存环境的访谈调查与实例研究,《幕后之人:社交媒体时代的内容审核》(原书名Behind the Screen:Content Moderation in the Shadows of Social Media,2019)是一部具有开创性的互联网田野调查与社会学研究的专著。作者的调查对象与研究主题指向全球性的商业化社交媒体的内容审核运作:针对互联网上日益巨量而良莠混杂的内容,商业性内容审核是必要的工作,因此互联网公司要雇用数以百万计的内容审核员评估社交平台用户上传的信息,筛选和删除色情、暴力、仇恨言论等不良内容。但是由于各种原因,这个工作群体一直隐身于幕后,其游离于社会、薪资低微、劳累过度、精神创伤等生存状况亦一直未能引起社会关注与疗救。莎拉·罗伯茨克服了互联网公司保密协议、地域限制等重重困难,对从硅谷到菲律宾、从专业审核公司到主要社交媒体的一线员工进行了深度采访,全面考察、分析了互联网商业性内容审核工作的不同类型(短期合同工、专业公司、外包、零工)及作为“幕后之人”的审核员群体的工作与生存状况,同时也对内容审核与相关政策争议、对现实影响的关系进行了分析和阐述。“打开了一扇了解内容审核这一晦暗不明世界的窗口。……是数字经济这一关键领域的权威著作,必将影响未来几年的政策和研究。”联合国特别报告员大卫·凯依(David Kaye)对该书的这一评语是客观、中肯的。

原著书名是Behind the Screen:Content Moderation in the Shadows of Social Media,其中的content moderation(内容审核)在措词上值得注意,因为moderation原意是“适度;节制”,用来表达“审核”之意不太常见。就此我和一位青年学子、留美的法律博士讨论过,他认为这种用法的确不太常见,Moderation在英式英语中有考试、资格审核的意思;而常用的censorship(审查)不好听,带有负面含义,因此换一个不太常用的词汇,这是互联网公司老板喜欢听的。我想起作者在序言中谈到需要创造一个描述性的词汇,最终决定使用“commercial content moderation”(商业性内容审核)来指代这种工作和现象。(2页)原著书名直译是“屏幕背后:社交媒体阴影下的内容节制”,该书中译本译作“幕后之人:社交媒体时代的内容审核”,强调了“人”无疑是更符合原著的研究宗旨;另外把content moderation译作“内容审核”更是对的,把被moderation淡化的“审查”之意还原出来。但是也应该注意到在中文语境中的“审核”还是与“审查”不同,而在用户上网语境中显然是“审查”更接地气。这样看起来,无论原著还是译本都在书名的用词上有所推敲,都有一种moderation的考虑。再看看原书与中译本的封面设计,显然在设计构思上有很大差异。原书封面是一幅双手紧紧捂着脸的头像照片,设计者的意念是突出被遮蔽的“内容审核员”群体,这当然也符合原著的研究主旨。问题是如果只看封面就看不出是有关互联网的用户与审核。中译本的封面设计则不但有鲜明的键盘感,而且在这个平台与用户之间的界面——亲密互动或短兵相接的空间中,突出了“delete”(删除),标示出隐藏在某地的 “幕后之人”每天、每分钟最基本的职责,是用户与平台之间最接地气的符号之一。应该说,中译本的封面设计更有互联网平台与用户的视觉符号感,也更符合跨文化的阅读语境和读者的在地经验。

原著封面


作者在“序言”中说,“本书的目的就是要揭开这层面纱,将审核员和他们的工作公之于世,让更多人了解到一线审核工作的焦虑和艰难。读者也能从书中获得有用信息,从而能带着更多细节、更多洞察力去讨论社交媒体对于人际关系、公民生活和政治生活的影响。如果不了解互联网的幕后运作,我们就很难有效地参与到这类讨论之中。”(序言,第2-3页)这是理解本书主旨的重要提示。但是在阅读中读者更容易接受到的信息和印象更深刻的无疑是关于内容审核员群体的工作状况,以及在媒体平台与用户之间的商业性关系,而关于“社交媒体对于人际关系、公民生活和政治生活的影响”则需要更细心留意——这里所说的“影响”指的是在美国互联网运营语境中的“商业性内容审核”(commercial content moderation)给用户参与社交、公共政治生活所带来的具体影响,实际上就是从社交媒体平台的商业性指向了社会生活的公共性和政治性,因而在阅读中需要在具体内容审核案例中获取这一方面的信息。

所谓“商业性内容审核员”是一群职业化员工,主要分为短期合同工、专业公司、外包和零工四种类型。主流社交媒体公司为了吸引用户,需要创造一个尽可能不出现色情、暴力、仇恨的垃圾内容的数字空间,因而要雇用职业化的内容审核员负责评估用户上传的在线内容,并决定保留还是删除它们。更常见的是面对来自用户的投诉举报,需要尽快作出审核决定。比如在硅谷的一家大型互联网公司MegaTech(化名)每分钟收到的用户上传内容多达数百个小时,只要有某用户点击视频下方那个举报按钮,一个自动审核流程便会启动,“比如运用文本屏蔽词自动搜索工具来搜索违禁词(常见于对文字评论区的审核),通过‘皮肤过滤器’(skin filters)识别图片和视频中的大面积裸体来判定色情内容(尽管不一定都准确),或者使用一些工具来匹配、标记和删除侵权内容。……但大部分用户生成内容还是需要进行人工审核评估,尤其是被其他用户举报的内容”(34页)。那么,人工审核流程是这样的:“我们会成批地收到视频,每十个一组。 对每个视频会自动生成大约30张缩略图,这样你就不需要看视频的大部分内容,一般看截图就行了。你审核完一组十个视频后点击提交,然后审核下一组视频。我每天审核视频的数量大约有1500-2000个。”(78页)这种工作强度以及对精神的负面影响之大无需赘言,但是在该项调查案例中的三位服务于 MegaTech的内容审核员的年薪只有五万美元,甚至连这份工作也缺乏保障。除了工作强度和精神受创之外,审核员群体难以在社会生活中获得身份认同,由于保密协议、职业隔阂和工作带来的羞耻感以及工作团队往往是分散于各地,他们被迫游离于社会生活之外。因此莎拉·罗伯茨的调查和撰写本书的一个强烈的伦理动机就是要为这个“打工人”群体伸张正义:“本书旨在填补以往对商业性内容审核员的忽视,把他们的贡献摆在与其他那些更广为人知、更受推崇的知识性工作同等重要的位置。”(25页)“我要感谢所有从事这份工作的商业性内容审核员,因为我很庆幸做这些工作的不是自己。我希望他们可以离开阴影处,从屏幕后面走出来,走到有光亮的地方来。”(194页)与这种“商业性内容审核员”相比,在全球互联网语境中当然还有其他性质与类型的内容审核员,他们之间既有相同的地方,也有各自不同的处境,要从阴影处“走到有光亮的地方来”的可能性也大不相同。正如微软发言人在2013年对全国公共广播电台的丽贝卡·赫舍打趣说的,“审核工作是一种‘脏活’”,许多内容审核员不会不知道用户在很多场合中对他们的“delete”行为发出的绝望诅咒。因此莎拉·罗伯茨的开创性调查与研究更具有启发性意义,更多的“阴影”和“幕后”有待关注网络媒体内容生产的研究者与媒体人揭秘。

说到“感谢”,显然要在作者所处的互联网文化语境中来理解。自从网络社交空间诞生以来就有内容审核,在早期就出现有些用户社群自行制定规范和管理的形式、选定自己的网络管理员,对上线内容进行审核。当互联网成为全球性的商业和经济领域的超级巨大信息平台的时候,商业性内容审核不但变得不可或缺,而且其覆盖规模也必然要扩大,庞大的职业化员工群体的出现也是势在必行。说“感谢”既是因为这是不可缺少的环节,同时更是因为该员工群体所付出的巨大代价和风险。但是莎拉·罗伯茨并没有让自己的感受和思考停留在感情与伦理的层面上,而是进一步追问和阐释更深层次的问题:“我希望可以通过发掘这些不为人知的中间工作者,来引出这样一个问题:数字媒体的幕后还有哪些人存在?我确信我们对数字媒体当中广泛存在的人为痕迹所知甚少,如果真的想衡量我们在数字平台中逃避现实(escapism)所造成的影响,就必须了解得更多。数字平台的特点是有趣、迷人、容易访问、永远在线,但我们却不曾对它们的真实代价进行诚实的评估。”(192页)这是对眼睛盯着屏幕的“内容审核员”之上的其他人、其他的“人为痕迹”以及整个内容审核体制所产生的“真实代价”的追问,读到这里我们才能更加理解原书名“屏幕背后”(Behind the Screen)以及副题中的“阴影”(Shadows)的深刻涵义。

社交媒体屏幕背后的“阴影”、真正的“幕后之人”以及“代价”,这些都是在全球化互联网时代中跨语境的大问题。莎拉·罗伯茨在谈到今天社交媒体公司的影响力前所未有、网络传播经常会对现实世界产生生死攸关影响的时候,举了一个“令人沮丧且难过的例子”:在网络仇恨运动的煽动下,缅甸少数群体罗兴亚人(Rohingya)遭受了持续的歧视和暴力,而这些煽动主要是在Facebook上进行的,最终导致了暴徒们的残忍杀戮,迫使许多罗兴亚人逃往邻国。作者指出:“而这些言论有可能是缅甸政府为了巩固政治权力而操纵媒体蓄意策划的。Facebook这个全世界最大的社交媒体公司,它的商业性内容审核活动能够有效抵挡这种致命的操纵、利用和宣传吗?还是说,由于它身处这个不惜一切代价吸引用户生成内容的社交媒体行业当中,最终会助长这类行为?”在国家权力操纵下的邪恶行为有意利用商业媒体传播信息,作者认为这“对于执政者来说是个难以抵挡的诱惑,其他各方也希望利用平台的能力进行某些未知的宣传,或者达到其他可能更加邪恶的目的”(181-182页)。在这种语境中拒绝还是放任, 这是独立的商业媒体公司必然要面对的道德考验。  

但是还有一种更大的阴影来自本国政府与媒体公司之间关系的灰色地带,后者的内容审核政策和在具体案例中的选择反映了在某种价值观影响下的自由裁量权,而不仅仅是出于经济利益的考量。比如在MegaTech的全球内容传播中,政治危机、冲突和战争罪行是最受人们关注的信息,保留或删除的决策往往会对现实形势的发展产生很大影响。这类事件的内容常常是非常血腥和暴力的,明显与公司的审核禁令相抵触,“但在当时,那些国家的活动人士唯一能够上传内容的地方就是这里,所以我们保留了这些内容,并附上警示性说明,比如‘必须年满18岁才能观看’”(87页)。这是一种例外的处理方式,莎拉·罗伯茨从地缘政治与国家外交的视角进行了阐释:“对于与地缘政治冲突相关的用户生成内容,MegaTech的内部政策会根据全球事件和政治立场的变幻无常做出反应。显而易见,这些政策的制定在政治上是以美国为中心的,因此,选择保留或删除某些内容的过程,很容易会变成默许或公开支持美国外交政策的过程。”(88页)可以发现,在涉及地缘政治的冲突事件中,国家主义价值观影响下的审核政策还是比较容易占了上风。那么在国内政治事件的信息传播中,激烈的党派斗争当然会在屏幕背后的审核政治中投下更浓重的阴影。按照莎拉·罗伯茨的说法,直到2016年美国总统大选之后,社交媒体平台的角色以及它们在线传播的信息才引发了公众的广泛质疑。“这是公众第一次如此大规模地对社交媒体的内容生产方式感到担忧。‘假新闻’(fake news)一词进入公众的话语之中。”(23页)这令我感到有点惊讶,在号称互联网技术与传播网络最发达的美国,何以到这时才会引起公众对网络信息的传播、审核与删除的广泛关注与质疑?有可能这只是作者从她感受最深的公共舆情中作出论述,而不是来自更全面的、历史性的考量。其实早在二十一世纪来临之际,关于互联网的审查、过滤就是美国法律界与公共舆论的热门话题之一。“不仅是具有性的性质的材料被《传播庄重法》一类法律锁定,而且含有仇恨性讯息的网站也受到了威胁。不是每一个人都与推销反犹以及其他种族主义观点的网站的价值看法一致。一些人认为,过滤软件是一种选择,有了它就可以将性材料和仇恨性言论统统屏蔽。……然而,许多专利过滤公司不发布其被阻隔的网站和搜索条目一览表,而一直有人暗示一些阻隔行为是带有政治动机的。在20世纪90年代末的国会中拟议的各种议案,就包括希望选民在公共图书馆可以上网的计算机上安装过滤软件的要求。”(埃默里等著《美国新闻史:大众传播媒介解释史》,第九版,展江译,中国人民大学出版社,2004,672页)可以说明对于网络媒体平台的信息传播的真实性与危害性的警惕早已出现。不过应该承认的是,在2016年美国总统大选后出现的“假新闻”的确成为网络信息传播的突出现象。

在今天我们又面临新的挑战。人类创造了AI,但是假如AI是以虚假的垃圾数据为依据的话,所生成的内容无疑是低劣、虚假的,互联网社会媒体平台已经关注了AI生成低劣内容的问题。如何制订相关的审核与限制规定,以减少AI虚假、垃圾信息的爆炸已成为新的重大课题。可以设想的是,除了在技术上开发能自动鉴别AI生成内容的方法之外,人工审核也将是“内容审核员”的新任务。

从美国法律的角度来看社交媒体的内容审核,对我们来说也是一个很有启发性的思考角度。作者指出根据1996年的《通信规范法案》(Communications Decency Act ) 第二百三十条的规定,社交媒体公司基本上无需对其网络、平台和网站上传播的内容负责,但是“这并不意味着社交媒体平台在控制其网站、应用和平台的内容方面没有既得利益,相反,它们希望对内容进行控制,这是商业性内容审核存在的原因”。也就是说,利益驱动使媒体公司要自觉进行内容审核,而法律赋予的豁免权则使互联网获得自由裁量权,使得公司可以按照自己的利益和标准保留或删除内容(186页)。但是随着社交媒体公司的全球化进程,媒体公司不仅要对美国政府和法律制度负责,还要对全球各地的政府和法律制度负责,许多国家都要求它们承认当地的司法管辖权和主权,遵守当地的法律(187页)。这就是有些国际互联网巨头在我们的视野与关注中变化迁移的时代背景。

实际上,从“屏幕背后”的视角来看,还有一个重要议题作者在书中尚未论述,那就是在美国政府对国内人民的网络监控中,媒体公司的选择与责任。哥伦比亚大学法学与政治学教授伯纳德·E.哈考特(Bernard E.Harcourt)敏锐地指出,“在今天的美国,普通公民面临的是一个全方位的监视网络。社交媒体、零售电商、智能手机应用程序、互联网提供商和网络浏览器都在收集我们的隐私数据,并提供给情报机构。”“不仅是美国国家安全局,还有脸书、谷歌、微软、苹果等机构和公司……对我们私生活进行令人惊叹的监控,向我们营销。数字时代已经将监视能力有效地融入几乎每一个人的日常生活之中。”(伯纳德·E.哈考特《镇压革命——美国政府针对其公民的战争》,李思达译,社会科学文献出版社,2021年,152、158页)那么,从内容审核到公民监控,美国政府与媒体公司之间的灰色地带上的“幕后之人”恐怕就不仅仅是那些可怜的“打工人”审核员,而是还有更多身份不明、雇主不同、行为准则不一、公众更无从了解的人物角色。

所幸的是,从莎拉·罗伯茨讲述她从事该项调查和研究过程中的研究语境的变化中,我们可以看到除了值得同情和为之伸张正义的审核员群体之外,“屏幕背后”的各种“阴影”也逐步被关注和被审视。那些对美国政府与媒体公司抱有警惕和不懈研究的人“包括民间活动人士、关心互联网自由的人、致力于推动言论自由和人权的人、关心劳工福祉的人,还有对互联网管辖权、管理、隐私和流程问题感兴趣的法律学者……”(180页)莎拉·罗伯茨于2017年12月在UCLA召集举办了首次以内容审核为主题的面向公众开放的会议,与会者包括学者、活动人士、学生、记者、商业性内容审核员等约有一百人。从那以后,一些关于网络内容审核政策和实践的会议和活动相继举办,“民间活动人士、学者和政策专家已经联合起来向社交媒体行业施压,要求它们在删除用户内容方面上表现得更加透明,其中最引人注目的是2018年初在圣克拉拉的内容审核会议上起草的《圣克拉拉原则》(S nta Clara Principles )”(190页)。2018年由莫里茨·里泽维茨(Moritz Riesewieck) 和汉斯·布洛克(Hans Block) 执导的纪录片《网络审查员》(The Cleaners)在犹他州帕克城的圣丹斯(Sundance)电影节上首映,莎拉·罗伯茨是这部电影的顾问。从著作到影片,始终贯穿一个核心问题,“那就是我认为任何关于当代互联网性质的讨论都绕不开以下问题:用户创建的哪些内容是允许保留的?哪些要删除?由谁来决定?决定是怎样做出来的?谁是这些决定的受益者?”(25-26页)从逻辑与法律的角度来说,这是让另一类“幕后之人”暴露在光天化日之下的有效质疑。

读书推荐

读书导航