Total Pageviews

Saturday 10 August 2019

互联网数字宣传战(对策就是多翻墙,多了解信息)

在信息时代,政治宣传(propaganda)早已超越了传统的【官方渠道推播亲政府的政治信息】的手段,而常常以水军/網軍(astroturfer)介入公共讨论的方式来推广特定的政治理念,进行政治宣传。这种手法对多数中文使用者来说恐怕并不陌生。简体中文世界里,大家嘲讽的五毛就是在进行这种政治宣传;港台中文世界我了解不多(@王銘宏 在Matters上发表过相关研究),但我想大家也应该对翻墙到FB、INS刷屏的中国水军有所耳闻或者目睹。
这里可能首先会引起一个有趣的争议,什么是政治宣传(political propaganda)。我倒无意于进行定义上的争论,因为前人已经做得太多。只是想说明,在学界的共识里政治宣传并不一定来自于政权机构,而只是强调“systematic / 系统性的“ (Jowett and O’donnell 1986)。因此,哪怕翻墙而来的中国水军(或者叫自干五、小粉红)真是自发组织的,那也可以被视为是政治宣传。

大概从2016年美国大选开始,社交媒体上的水军和虚假信息突然得到了极大的重视,同时也被认为互联网上的政治宣传的一部分。虽然无法实际衡量它们(特别是俄国水军)对美国大选的实际影响,但确实不少研究(就不一一列举了)都或多或少地表明这种手段的有效性。而且,这种利用水军和虚假信息进行政治宣传以影响社会观念和现实的事情远远不限于美国或者是英文互联网世界(eg. 英国脱欧),甚至也不只是中文互联网世界(不胜枚举)。委内瑞拉、巴西、印度、韩国、乌克兰……可以说,利用社交媒体进行政治宣传进而影响现实政治已经是一个普世的现象了。
但有时候水军的出现,甚至都不一定是为了推播某种观念。Molly Roberts 在她的书里提到了中国审查有一种方法叫做flooding(灌水)。大意就是在出现负面新闻时,用大量无关或者意义不大的信息灌水相关的讨论,来转移民众的讨论重点,以达到阻止敏感信息产生和传播的目的。我其实更倾向于把这种招数当作政治宣传,不过是一个相对被动和临时的宣传手段。
就当下的经验来看,水军的另一个目的还可能是制造社会的分裂和混乱。一个常见的偏见是,水军和虚假信息是一种泛滥于极右翼的现象。但其实,左翼并不能对这种问题免疫。水军的目的是增强传播、扩大分裂,那同时出现于左右两翼,刺激左右互搏,自然就是最好的选择了。既然能水军可以用转发来煽动对立,那再点情绪化的言辞或者假新闻,也就是不可避免的了。对某些类型的政治宣传来说,分裂混战可能比一边倒要好,这是真的 Chaos is a ladder(“混乱是一个梯子“,语出《权力的游戏》)。
在关于政治宣传的研究和讨论中,还有一个重点是机器人(bot)在政治宣传中的使用。有时候这个问题甚至会引申到人工智能和自动化力量对人类的影响上。这些都很值得重视,因为计算机程序和合适的社交媒体能够赋予使用者以空前强大的影响力。不过值得澄清的是,水军并不等于机器人,它们很可能是由人类操作的,也因此水军的互动不一定就是呆板的。@yucj 问过“不想給機器人統治網路怎麼辦?”。但在我看来,我们在互联网上面临的威胁可能未必是机器人,或者自动化手段。真正可能要解决的问题是,【不想让被网络空间里充满被恶意操纵的信息,我们应该怎么办?】
而且,数字宣传战里,传统政治宣传里的“权威模式”也不会消失。意见领袖们/网络名人们被收买来传播特定立场的信息并不罕见,有时候这种方法甚至会更为精细巧妙。从头培养意见领袖,争夺话语权;伪装成普通博主用特定信息吸引相应群体,在时机成熟后推进政治宣传;购买有大量活跃真人粉丝的账号,再推广政治宣传。很多内容@Puma Shen已经在演讲中提到了,我就不再赘述。

互联网上的各种政治宣传能够大行其道,除了社交媒体平台的设计对它们有利、容易形成意见一致的回音室(echo chamber)外,我个人以为人类的认知局限可能是一个很重要的原因。可能不少人都听说过确认性偏见/确认偏误(confirmation bias),也就是,哪怕同时看到正反两方意见,人们也更容易坚持自己以前所认为的,或者更容易轻信支持自己既有观念的证据。甚至,在遇到了相反意见后,人们甚至会固执己见,强化既有观念(这也就是所谓的backfire/逆火效应)。政治宣传就是利用了人类的薄弱处,才能够靠着虚假信息和情绪化内容不断激化矛盾,进而影响现实政治。一百年前,用着报纸、广播是这样;一百年后,用着Whatspp, 微信 还是这样。
而这些认知局限能如此强烈的影响人们,个人以为还有个重要原因是,人们太在意别人的立场或者身份了,或者说倾向于去站队/给人贴标签。戏谑地讲,就是太容易去政(治)审(查)别人的成色足不足。在这种环境下,人们就太容易去产生in-group / out-group bias,也就是想你是不是和我一伙的——如果不是的话,【非我族类,其心必异】。再加上社交媒体本身赋予了每个人发言的机会,虽然别人未必看得到,但是我怀疑这种类似于endorsement(背书)的意见表达行为是很多人越来越固执己见、变得激进化的重要原因(所以我特别赞同@Yeefun 说的,“慢點下判斷”)。
关于这个问题,很多人说得比我好,推荐@iyouport的系列文章:信息分析心理学: 证据评估中常见的偏见(1)信息分析心理学: 局部一致的骗局和不确定性证据(2)信息分析心理学: 因果认知中的偏见(一)(3)信息分析心理学: 因果认知中的偏见(二)(4) (原网站打不开了,只好用这些链接。更为详细的内容可以参考《情报分析心理学》)。
人类的认知能力局限如此之大,以致于我并不期待虚假错误信息能够在社交媒体上绝迹,或者政治宣传再也不会找到受害者。

很多人都已经意识到了互联网政治宣传这个问题的存在,但怎么解决却是个更大的问题,甚至这未必是一个可以解决的问题。政治宣传、水军和虚假信息恐怕是一个我们需要永远面对(就像前人们面对类似的问题一样)的难题,我们的目标只能是如何将其控制在不产生巨大威胁的范畴内。
但我觉得讽刺的就是,针对数字宣传(computational propaganda)的威胁,(在我可见范围内)社交媒体巨头选择采用的办法却主要是数字审查(digital censorship)。审核机制或许是制止极端有害信息泛滥的最后防线,但在明显公认的不当或虚假信息和有冒犯倾向、让人不舒服的信息之间,有着极为宽广的灰色地带。让科技巨头们的普通审核员们掌握着信息筛选过滤的尺度,控制着人们在网络上所接触到的信息,这本身就是一件特别危险的事情。
即使要立法来应对这些问题(公共政策上的尝试应该是必需的),如何确定惩罚的对象、尺度和标准,要赋予社交媒体多大的言论控制权力更是一个无法轻易解决的难题。更何况,(尤其是在非民主国家)权力机关更是乐意以保护社会此为借口,利用审查机制来按照它们的意图“净化”网络。
我个人更乐见的努力其实是在社交媒体的机制设计上的创新和尝试,比如在之前的评论回复里,(针对虚假信息的问题)我写道:
针对资讯发布者,可否考虑de-identify的方法?就是用户可以在看到某条消息后(因为各种原因)选择关注发布者,可以查看发布者的口碑但看不到身份,并且今后发文时关注者也看不到身份。比较类似于一个记性很差、永远认不出人的读者在用social media
……
其实有点类似于作者匿名的文章评审,不让读者的主观bias或者服从权威的心态起效,而是聚焦于内容。同时也能让作者不用担心文章所带来的争议,但同时对文章的赞赏与批评还是会影响到作者本身的reputation。
我是觉得,信息只要本身能够形成口碑就可以了,不一定要把这个reputation归到作者本身。我们可以按照信息本身的value进行推荐和阅读。读者只要选择关注了(匿名的)信息创作者,他们还是可以收到来自于这个匿名品牌的供给。
这样可能对读者来说是比较好的,只需要关注写过好文章的作者而不需要去在意是谁。但是对作者和大多数社交媒体来说,incentive就可能降低了,因为失去了运营账号、产出内容的一大动机。所以就需要在其他方面的激励补充(比如数字货币)
不过,这些暂时都只是臆想了,欢迎大家更多的意见。了解和反击互联网政治宣传,这些并不是容易的问题。

from https://www.matters.news/@andyischaos/%E4%BA%92%E8%81%94%E7%BD%91%E6%95%B0%E5%AD%97%E5%AE%A3%E4%BC%A0%E6%88%98-%E4%B8%80%E5%9C%BA%E5%B9%B6%E4%B8%8D%E5%A5%A2%E6%9C%9B%E6%88%91%E4%BB%AC%E8%83%BD%E5%A4%A7%E8%83%9C%E7%9A%84%E6%88%98%E4%BA%89-zdpuAnK8VF9pHoXJw16FrFbcEhBQ7c6mF3SfahdL8tUdroAg7

No comments:

Post a Comment