时时商务社区
标题:
MIT做了史上规模最大的假新闻研究,发现:真相总是跑不过谣言
[打印本页]
作者:
wx_pylelnL4
时间:
2018-3-25 15:47
站长之家(Chinaz.com
)注:本文已获腾讯传媒全媒派授权,如需转载请联系原作者。
“谎言飞奔,真理跛行其后。”
乔纳森·斯威夫特曾经写道。
这虽然是三个世纪前的夸张描述,但前不久《科学》杂志上MIT发表的一项研究显示,这就是对社交媒体的真实写照。
这项大规模的新研究名为《网络中真实与虚假信息的传播(The Spread of True and False Information Online)》,分析了Twitter面世以来所有有争议的新闻报道,即数年来被 300 万用户转发过的12. 6 万条新闻,最终发现:
事实根本无法对抗谎言和谣言。
无论按哪种评判标准,在Twitter上虚假新闻总是战胜事实,占据主导地位。该研究发现,
相比准确报道,假新闻和谣言在社交网络上总能触及更多人群、渗透更深,并且传播更快。
MIT的科研人员Soroush Vosoughi,从 2013 年就一直研究假新闻,这次主持了这项研究。他提到,“从我们的研究中可以清楚看到,虚假信息的传播远超真实信息…
这不仅仅是机器人的原因,还可能与人性有关。
”
The Spread of True and False Information Online项目的两名研究人员
研究缘起“私心”
波士顿马拉松爆炸案中的信息混乱
过去,研究人员调查网上传播的虚假信息时
一直专注于单一事件中的谣言传播,
比如 2012 年发现希格斯玻色子前的猜测、 2010 年海地地震后的谣言。
而这篇新的论文涉及的范围要大得多,几乎涵盖Twitter整个生存时期
,即从 2006 年 9 月到 2016 年 12 月,在Twitter上传播的每条争议性新闻。但是要做到这一点,Vosoughi和他的同事不得不先回答一个更基础的问题:
什么是真相?我们如何得知?
这是一个至关重要的问题。
该项新研究的作者之一、MIT的媒体科学家Deb Roy谈道,“(假新闻)已经是一个白热化的政治、现实和文化话题,但我们研究它的缘起,还是五年前波士顿袭击中的一系列个人事件。”
2013 年 4 月 15 日,两枚炸弹在波士顿马拉松跑道附近爆炸,造成 3 人死亡,数百人受伤。顷刻之间,关于爆炸事件的阴谋论疯狂占据了Twitter和其他社交媒体平台。 4 月 19 日,当马萨诸塞州州长要求数百人在警方大规模搜捕时留在家中,网上的信息变得更加混乱。
“我和妻子孩子呆在Belmont的家中两天,Soroush
Vosoughi(Roy的学生)也困在Cambridge。”Roy回忆。被困在屋里,Twitter成为他们与外部世界联系的通道,使用这个渠道让他们“听到了很多不真实的事情,也知道有些事情最终被证实为真”。
磨难很快结束了。Vosoughi在那之后成为专门研究社交媒体的博士,但对当时的他而言,研究刚刚切身经历的这一切,看起来似乎非常荒唐。他的导师Roy,也默默地为这个项目祈祷。
随后,Vosoughi制作了一个真相机器,即一种
可以将各种推文分类,并且挑出最接近准确事实的算法。
它关注的是一条推文的三个属性:
博主的属性(是否经认证);
使用的语言类型(是否复杂);
给定推文如何通过网络传播。
Roy说,“Vosoughi开发的模型,能够以远高于概率的表现,来预测内容的准确性。”而Vosoughi也在 2015 年获得了自己的博士学位。
研究深入
虚假信息传播惊人、机器人角色有待考量
在那之后,Roy和Vosoughi,再加上MIT管理学教授Sinan Aral,开始研究Twitter上的虚假信息如何传播。他们不仅要回答“什么是真相”,也要解答一个更加迫切的问题:
计算机如何知道什么是真相?
他们选择向网络上的最终事实裁断者求助,即
第三方事实核查网站。
通过搜集和分析 6 家不同的事实核查网站(包括Snopes、Politifact和FactCheck.org),他们生成了一份
从 2006 年到 2016 年在Twitter上传播量上万的网络谣言名单
。然后,通过社交网络Gnip的专有搜索引擎,在Twitter上搜索这些谣言。
最终,他们找到了12. 6 万条一共被转发过 450 万次的推文。
有些推文会链接到其他网络上的假新闻,有些则是原生推文,或利用制作图片生产谣言
(该团队使用OCR,可以搜索静态推文图片中的文字),还有一些混杂了真实信息或能链接到其他网站上。
Optical Character Recognition,光学字符识别,视频来源于OCR的维基百科
虚假信息传播更具速度与深度
然后他们进行了一系列分析,对比了虚假谣言的流行与真实新闻的流行,得到一个惊人的发现。
在MIT的演讲上,Vosoughi举了一个例子:
一条推文有很多办法获得 1 万次转发。
如果一个名人发了推文A,并且拥有几百万粉丝,那么可能会有 1 万人在他们的时间轴上看到推文A,并决定转发它。推文A被广播时,
规模大、层次浅
。
与此同时,一个仅有少量粉丝的人发了推文B。B被推到 20 个粉丝的时间线上,被某个人看见并转发,然后其中一个的粉丝又看到并转发,
一个接一个,直到上万人看到并转发了推文B。
推文A和推文B其实有着同等规模的用户,但是以Vosoughi的说法,
推文B更具“深度”。它将转发链接了起来,以一种推文A做不到的方式进行病毒式传播。
“它可以达到 1000 次转发,但拥有各异的形态。”他说道。
关键在于,在这两种传播方式中,假新闻的传播始终占据主导地位。
它始终能吸引到更多的受众,并且比真实新闻更能深入到社交网络的毛细血管中。
作者发现,准确信息往往不能到达 10 层以上的转发,而假新闻可以达到 19 层,速度上也比获得 10 个转发的准确新闻快 10 倍。
即便是由人类而非机器人检测时,这些研究成果也是很可靠的。在主要调查之外,还有一组本科生协助核查了同一时期约
1. 3 万条英语推文的随机内容。
研究发现,
虚假信息的传播速度以“相当类似”于主数据集的方式,超越真实信息的传播。
这在现实生活中看起来是什么样子?以上次总统选举为例, 2015 年 8 月在社交网络散布的一则传言称,特朗普让一个生病的孩子坐他的飞机,获得紧急救治。Snopes(著名事实核查网站)证实故事大体属实,然而据其团队估计,只有 1300 人分享或转发了这个故事。
Snopes核查结果
还有 2016 年 2 月,有传言称特朗普的表兄最近去世,在其讣告中还反对了这位大亨的总统竞选。据报道,讣告中是这么写的,“作为特朗普家族中骄傲的一员,我恳求你们大家不要让那个行走的黏液包成为总统。”但是Snopes没有查证到这位表兄或其讣告的存在,最终认为这个故事是假的。
尽管如此,
还是有大约3. 8 万名Twitter用户分享了这个故事。
它的转发链接长度是病孩子故事的三倍。就连宣称拳击手Floyd Mayweather戴了一条穆斯林头巾去特朗普集会的虚假报道,吸引的用户数也比病孩子故事多 10 倍。
为什么虚假信息会有这么好的传播效果?MIT团队采用了两种假设。
一是假新闻似乎比真实新闻更“传奇”。
该团队发现,虚假信息通常与用户转发前 60 天内时间线上的所有推文都明显不同。
二是假新闻比一般推文能激发更多情绪。
研究人员以Twitter用户
用来回复12. 6 万条有争议推文的字词
创建了一个数据库,然后用先进的情感分析工具NRC-Canada系统对其进行分析。他们发现,
虚假推文往往引出带有“惊喜”和“厌恶”相关的词语回复,而准确的推文则更多地引发与“悲伤”和“信任”相关的词语。
机器人的作用有限
这个团队还希望能够再解答一个问题:Twitter机器人是否助力传播假消息?
在 300 万Twitter用户样本上使用两种不同的机器人检测算法之后,他们发现自动机器人确实在传播假新闻,但他们转假新闻的速度和转准确信息的速度一样。“
在Twitter上真实新闻和虚假新闻传播的巨大差异,不能用机器人的存在解释。
”Aral说道。
但一些政治学家警告说,
这不应该被用来消解俄罗斯机器人散播假消息方面的作用。
据《纽约时报》报道,佛罗里达州帕克兰校园枪击案发生后,一群与俄罗斯有关的机器人“军队”助长了分裂性言论的传播。
乔治华盛顿大学的政治学家Dave Karpf在邮件中提到,“这可能有两种情况:
(1)在整整 10 年的数据集中,机器人不喜欢虚假宣传;(2)在近期的案例子集中,僵尸网络已经被战略性地用于传播虚假宣传信息。
”他还说道,“我猜测这篇论文会成为‘机器人真的不碍事’的科学证据。如果我们纵览Twitter存在的整个时期,这篇论文也的确证实了这一点。但是,关于机器人的口水战中,它的假设在于,目前对‘机器人传播假新闻’已经倾斜了战略性的资源,导致机器人的使用面如此之广。
这篇论文没法反驳这种假设。
”
对此,Vosoughi表示同意: 2016 年选举中僵尸网络的使用是否有变化,他的论文确实不能作出判断。“
我们没有研究机器人角色在不同时期的变化,
”他在一封邮件中写道,“这是个有趣的问题,我们未来的研究中很可能会关注到。”
欢迎光临 时时商务社区 (http://bbs.4435.cn/)
Powered by Discuz! X3.2