美国大选假信息:解密中国网络“垃圾伪装”行动(图)
美国大选(图片来源:Photo credit should read BAY ISMOYO/AFP via Getty Images)
【看中国2024年10月22日讯】本系列报道是记者携手台湾民主实验室(Doublethink Lab)联合推出的深入调查。我们通过尖端大数据分析,揭秘中国网络行动,剖析美国大选虚假信息。
美国的国家安全官员和虚假信息专家多次警告称中国会通过虚假信息行动影响美国社会对包括美国大选在内的各类国内国际议题的讨论。私有企业和研究机构的调查都发现了和中国有关联的水军在包括X、脸书、TikTok等各类受欢迎的社交媒体平台上进行着隐秘的影响力行动。其中,一种被叫做“垃圾伪装”(Spamouflage)的行动模式受到了大量关注。
“垃圾伪装”账号通过在社媒上假扮成真实的用户,推广北京的政治宣传,抨击美国等西方国家的制度,夸大美国它们的社会问题并攻击包括本届美国大选的两位总统候选人在内的西方政治人物。
为了帮助对互联网影响力行动和虚假信息等话题不熟悉的读者更好的了解这一领域,记者专访了台湾民主实验室的数据分析师嘉博(Jasper Hewitt),邀请他讲解“垃圾伪装”的一些基本概念和运作方式。
为增强采访的清晰度和控制阅读时间,记者对采访内容做了轻微的编辑和删减。
记者:你能用最简单的语言向我解释什么是“垃圾伪装”吗?
嘉博:“垃圾伪装”是一种有协调的信息行动。最早在2019年由(美国的社交媒体分析公司)Graphika发现。这是一个跨平台的垃圾账号网络,这些账号发布支持中国的内容,通常通过更中立的垃圾内容伪装自己,比如发布风景或K-Pop偶像的照片。因此它们被称为“垃圾伪装”。
最初,“垃圾伪装”针对的话题是中国异议人士,如(流亡到美国的中国商人)郭文贵,以及香港的(民主抗议活动)和新冠疫情。它们大多在这些领域推广亲中国政府的内容。
后来,它们还开始关注诸如新疆、西藏或台湾的问题。随着时间的推移,它们也开始关注中国以外的问题。在这次选举周期中,我们观察到它们正推广试图分裂美国社会的内容,比如移民、性少数权利或美国对乌克兰和以色列的支持。我们还观察到一些“垃圾伪装”账户伪装成美国选民,尤其是(美国共和党总统候选人、前总统)特朗普的选民,但这些似乎比较少见。
记者:它们的内容是如何传播的?
嘉博:它们分为“播种”账户(Seeders)和“放大”账户(Amplifiers)。“播种”账户通常是有更多粉丝的大号。它们最先发布内容,称为“播种”,接着,(每个“播种”账户配有)有一大批“放大”账户,可能有10到40个左右的账号,机械性地转发它们的内容。
“播种”账户并不总是发布原创内容,有时它们也会从网上找到图片,然后复制粘贴,伪装成是自己的内容。
记者:这些账号背后有真人吗?
嘉博:“放大”账户可能是机器人,因为它们通常在“播种”后迅速转发内容,且在非常短的时间内发布大量帖子。“播种”账户可能是“半人半机器”(Cyborg)账户,即部分是自动化的,但有时可能有人会登录这些账户,与真实用户互动。
记者:如何确定某些账号是“垃圾伪装”账号?
嘉博:“垃圾伪装”在X上是一个已经有很多记录的现象。一年前,它们经常发布一些非常明显的,看起来像被编辑过的美国流浪者的图片。Graphika认为这些图片来自于“垃圾伪装”。因此,我们会去X平台上寻找发布类似图片的账号,这是一个比较有力的线索。
账户名也可以透露一些线索。有研究人员指出,许多“垃圾伪装”账户的用户名中会有“fo”,例如“fo”加上8个数字。如果你发现很多账号在推广某个内容,而其中几个账号的用户名带有“fo”,那么这可能就是“垃圾伪装”。
还有另一种线索,有时它们的昵称后面会用括号写上“互fo”,这是中文中“互粉”的意思,有时还会加上中国国旗。
你也可以通过整体话题来判断。我们知道“垃圾伪装”过去关注郭文贵、香港和新冠疫情。如果你能翻到这些账号过去的帖子,看到它们在这些话题上符合这些特征,那么你就可以相当确定它们是“垃圾伪装”。
记者:有些“垃圾伪装”账户显示它们十多年前就注册了,这是怎么回事?
嘉博:我们认为在许多情况下,这些账户可能多年没人使用,之后被黑客入侵并重新利用,伪装成有很多粉丝的真人账号。
记者:如何确定它们可能与中国有关联?
嘉博:最大的指标是内容。如果所有内容都是支持中国的内容,并且符合中国政府的立场,那么,我们至少可以说这是一个试图支持中国政府观点的信息行动。我们永远无法确切知道这个网络背后到底坐着谁,但至少可以确定,从中受益的实体是中国政府。(编者注:北京多次否认了试图通过“垃圾伪装”行动干扰美国的大选)
记者:你们如何衡量某条“垃圾伪装”帖子的影响或覆盖范围?
嘉博:衡量影响的最标准化方法是本·尼莫(Ben Nimmo)的“爆发规模”标准。这是一个六个级别的分类标准,用来评估社交媒体帖子的影响是否超出了初始的范围。(编者注:尼莫是一位虚假信息专家,他目前是人工智能工作室OpenAI的首席调查员。)
大多数“垃圾伪装”账户发布的帖子从未突破出其自身所在的网络,因为它们只是在被一堆粉丝很少的机器人转发。一旦它们开始超出这个范围,事情就变得有趣了。
尼莫的“爆发规模”标准的第1级指的是信息只出现在单独一个社媒平台上,且没有特别的爆发,基本上没有产生影响。在大多数情况下,这是“垃圾伪装”发布的内容的情况。
接着是第2级:帖子已经接触到了一个社媒平台上的真实的用户,或者在多个平台上有传播,但还没有明显的爆发。这是第2级。
第3级指的是这个现象在多个平台上都在发生,而且多个爆发同时出现。也就是说,在不同平台上,这些帖子似乎都接触到了真实用户。
(编者注:根据尼莫的分类标准,第4级指的是这些贴文的内容受到了主流媒体的报道。)
第5级就非常罕见了。这指的是一些名人或网红开始放大这些内容,开始回复或转发,这意味着许多真实的用户可能会看到它。
第6级指的是任何具体的行动、政策回应或暴力呼吁的出现。比如阴谋论传播后,一些人在现实世界中因此采取行动。
记者:大多数“垃圾伪装”行动对真实社交媒体用户的影响非常有限,但它们为什么还在不断发布内容呢?
嘉博:它们更注重数量而不是质量。它们只是想让信息传播出去,而这可能是一个非常廉价的方式。并不是每条帖子都需要获得真实用户的互动才能算成功。如果它们有100个账户,其中一些账户在一年内与真实用户互动了几次,它们可能已经觉得这个投入是值得的。
还有另一个角度。一些研究人员指出,他们不一定是在试图通过这种方式影响人们的观点。他们可能只是在试图干扰搜索结果。比如,如果你在X平台上搜索的话题是中国想要进行宣传推广的,那你或许就只能看到这些垃圾内容。
记者:他们通常会投入多少资源来运行一个“垃圾伪装”行动?
嘉博:我不确定它们具体投入了多少资源,但我认为创建这样的一个网络非常简单。
记者:那如果我明天想创建一个网络,我可以做到吗?
嘉博:是的。如果你有几名工程师,他们很快就可以开发出一些软件来自动化发布这些帖子,并创建大量的账户来放大这些帖子。
记者:如果这些账户被删除了,他们可以再创建新的。
嘉博:是的,这正是我们现在看到的情况。也许你的IP地址被封禁了,但你可以换一个IP地址,再创建一个账户。
记者:我们如何阻止它们?谁必须采取行动?
嘉博:这可能需要政府监管与这些公司自我修补的结合。X平台正在积极删除许多这样的账户,他们的反应非常迅速。这可能是解决问题最简单的方式,因为他们可以通过后台看到并进行操作。但他们可能也需要来自政府的一些推动。
(文章仅代表作者个人立场和观点)