作者 | 陈慧敏 刘知远编辑 | 唐里本文转载自知乎专栏NLP日知录首发于「清华大学藤影荷声」互联网的深度普及加速了“信息时代”的到来,网络中的每个人都可以极低甚至“零”成本的方式创造信息,同时每个人也都可以成为信息传播路径上的一个节点。这种获取、创造和传播信息的便捷给社会的进步和人类的发展带来了巨大的福祉。然而凡事终有两面,互联网也开始为人类社会带来很大挑战——网络中的信息鱼龙混杂,充斥大量的虚假信息。
一、网络虚假信息的影响有多大?
以美国为例,美国皮尤研究中心对美国人2018年接触的新闻来源情况进行调查分析,发现约2/3的美国人从社交媒体平台上获取信息,但其中57%的人认为他们获取到的新闻是不准确的[1]。这意味着网络虚假信息已经广泛渗透到网民的生活中,并且已经得到网民的广泛认知。
皮尤研究中心对美国人2018年接触的新闻来源的调查分析[1]
根据统计,2016年美国总统大选期间,热度排名前20的报道选举事件的虚假新闻在脸书上收获了共8,711,000个分享、点赞和评论,超过了热度排名前20的真实新闻收获的7,367,000个分享、点赞和评论[2],严重误导了大众对于选举的舆论走向。同年“后真相”也被《牛津词典》评选为年度词汇, 代表如今“雄辩胜于事实”的网络环境 [3]。2011年日本大地震引发核泄漏致海盐收到污染,我国网络媒体中出现大量“我国食盐资源也受到污染”的虚假信息,引发民众疯狂抢盐,导致强烈社会恐慌。 可以看到,网络虚假信息的大规模传播对社会和个人的发展带来了严重的危害。因此在当今互联网时代,理解和检测网络虚假信息尤为重要。
二、网络虚假信息都有哪些类型?
根据网络虚假信息的内容,可以分为 基于观点(Opinion-based)的虚假信息 和 基于事实(Fact-based)的虚假信息 两大类。
基于观点的虚假信息没有绝对的事实标准,一般是指表达虚假的个人观点,如点评网站上的虚假评论。
基于事实的虚假信息存在绝对的事实标准,一般是为迷惑大众而篡改的事实真相,如假新闻、维基骗局(Wiki Hoax)等。
三、网络虚假信息都有哪些特征?
国外已经有一些开创新工作,定量分析网络虚假信息的统计特征。研究发现,基于观点的虚假信息,在文本、情感和时间三个方面都具有明显的特征: (1) 文本特征。 基于观点的虚假信息之间往往有很强的文本相似度,且伴有鲜明的语言特征,如多使用第一人称表示自己的亲身经历,多使用一些强烈的情感词和修饰副词,如“很”,“非常”等; (2) 情感特征。 虚假评论中的情感存在强烈的“两极分化”现象,“满分评论”和“最低分评论”占主导[5];
虚假评论“两极分化”的情感特征[5]
(3) 时间特征。 虚假评论一般比真实评论更“突发”,虚假信息提供者发起连续评论的时间间隔更短[6]。
虚假评论者“突发”的评论时间特征[6]
虚假信息(红色)和真实信息(绿色)在信息独特性(IU)、差异性(KL)等指标上的对比[7]
五、网络虚假信息如何自动检测?
基于以上对网络虚假信息特征和成因的了解,我们可以发现,只要稍加包装,虚假信息很容易“蒙混过关”,在互联网上大规模传播。而面对纷繁复杂互联网信息,靠人工专家检测耗时耗力,与指数增长的信息量相比已是不可能完成的任务。 好消息是,互联网技术与计算机和人工智能技术是相伴而行。先进的人工智能技术为我们提供了自动检测这些虚假信息的可能性。目前国外有很多研究者正在探索如何自动检测虚假信息,并取得了一些颇为可观的进展。特征工程思路。有些研究者采用特征提取的思路。他们根据专家或者经验总结设计的虚假信息特征,如我们前面提到的语言特征、传播特征等,再采用支持向量机、随机森林等机器学习方法对信息进行真假分类[10,11,12],如下图所示。 这种基于特征提取的方法可以充分地利用专家总结的经验和知识,但美中不足的是这种方法需要人工手动提取特征,无法自动从大规模互联网数据中自动挖掘特征 。而网络虚假信息与垃圾邮件或广告类似,其技术、手段和形式也在不断更新换代,而这些专家总结的特征很难做到与时俱进,应对新出现的虚假信息形式。
传统基于特征提取的方法[17]深度学习思路。近年来深度学习引起了人工智能的全球浪潮。深度学习的核心思想之一,是 采用分布式表示(distributed representation)方案 ,自动从大规模文本中学习和提取语义特征。 分布式表示学习是指通过大规模数据集合自动学习信息的低维特征向量表示,这些向量反映了我们关心的对象(如词、句子、文档、用户、物品等)在低维向量空间中的位置信息,它们之间的相对距离和位置反映了它们的语义相关度。下图是从大规模文本语料中自动学习到的部分词语的二维向量表示[13],可以看到,深度学习技术可以自动学习词语的语义相似度,即国家名称会聚在一起,而城市名称会聚在一起;同时,该技术还能发现词语之间大致存在 “China”–“Beijing”“Japan”–“Tokyo” 的语义关系,即能自动挖掘出“国家首都”这一隐含的语义关系。
分布式表示学习[13] 分布式表示学习可以很好地解决社会计算中对象间的语义计算问题,将文本、用户、物品映射到统一的低维向量语义空间。这样就不再需要专家总结它们的特征,而是自动从海量互联网数据中自动挖掘特征,进而对信息进行真假预测[14,15,16]。
基于分布式表示学习的方法[17] 这里就举一个采用深度学习技术,自动从原始文本和评论文本中学习特征,在社交媒体平台中进行早期谣言自动检测的典型案例[15]。在上文中提到,社交媒体平台中的评论文本蕴藏着丰富的鉴别原始发布信息真伪的反馈信息,如果能够充分挖掘评论文本信息,将能够很大程度上提高信息检测的时效性和准确性,实现谣言的早期自动检测。
使用“可信检测点”进行谣言早期检测的一个实例[18] 如上图所示,我们绘出了 一条谣言的转帖序列和随时间变化的预测概率曲线 ,因为转帖中对原文信息存在很多怀疑和反驳,所以我们不用看完所有评论即可做出可信的预测。基于这一观察,我们引入 “可信检测点”的概念 ,并提出一种 谣言早期检测模型 ,通过深度神经网络不断整合前序评论的表示,自动学习怎样确定每个转发序列的“可信检测点”,确保在该时间点预测结果的可信度,使得之后不会出现结果反转的情况。基于深度学习方法,在新浪微博真实数据集合上进行的实验结果表明,相比于传统模型, 该谣言早期检测模型将预测时间缩短了85%且取得了更高的检测准确率 。
六、总结与展望
进入“后真相时代”,网络虚假信息的定量分析与自动检测是一个亟待解决的问题,当前基于深度学习的自动检测方法将是主流趋势,但仍然存在准确率不高,解释性和鲁棒性差的问题。这是一个高度交叉的学科方向,特别需要计算机科学、语言学、社会学、心理学、法学、甚至脑科学的全角度综合研究,实现对网络虚假信息的“围剿”。 仅从技术上看,可以意识到,已有如维基数据、知网等知识库蕴含着丰富的群体智慧和人类知识,如果能将这些结构化知识与深度学习技术相结合,引入到虚假信息检测模型中,有望显著提高信息检测的准确率。而如何将纷繁复杂的网络信息进行提取,并与知识库中的信息进行匹配,将是其中的挑战和难点,也是未来值得深入探索的问题。 此外, 目前关于网络虚假信息的定量研究大都基于英文数据,而中文相关研究还很少,这与中文世界相关数据获取较难、有标注数据较少有一定的关系 。因此,构建一个相对大规模的中文网络虚假信息语料库,以及如何基于少量中文语料库即能建立有效的虚假信息自动挖掘和检测能力,也将是一个值得研究的问题。 本文结合前人研究工作,对网络虚假信息的影响、特征、成因以及检测做了非常简要的概括和梳理,没有涉及太多的技术细节,旨在起到科普介绍的作用,希望对大家初步了解并深度探索该方向有所裨益。限于作者水平,难免多有舛误和挂一漏万之处,欢迎批评指正。
参考文献[1] Elisa Shearer, Katerina Eva Matsa. News Use Across Social Media Platforms 2018. Pew Research Center.2018. [2] Craig Silverman. This analysis shows how viral fake election news stories outperformed real news on Facebook. Buzzfeed News. 2016. [3] “Word of the Year 2016 is...” Oxford Dictionaries. 2016. [4] Kumar, Srijan, and Neil Shah. "False information on Web and social media: A survey." arXiv preprint arXiv:1804.08559 (2018). [5] Shah, Neil, et al. “Edgecentric: Anomaly detection in edge-attributed networks.” 2016 IEEE 16th International Conference on Data Mining Workshops (ICDMW). IEEE, 2016. [6] Hooi, Bryan, et al. “Birdnest: Bayesian inference for ratings-fraud detection.” Proceedings of the 2016 SIAM International Conference on Data Mining. Society for Industrial and Applied Mathematics, 2016. [7] Vosoughi, Soroush, Deb Roy, and Sinan Aral. “The spread of true and false news online.” Science 359.6380 (2018): 1146-1151. [8] Kumar, Srijan, Robert West, and Jure Leskovec. “Disinformation on the web: Impact, characteristics, and detection of wikipedia hoaxes.” Proceedings of the 25th international conference on World Wide Web. International World Wide Web Conferences Steering Committee, 2016. [9] Garimella, Kiran, et al. "Balancing opposing views to reduce controversy." arXiv preprint arXiv:1611.00172 (2016): 4. [10] Kumar, Srijan, Robert West, and Jure Leskovec. “Disinformation on the web: Impact, characteristics, and detection of wikipedia hoaxes.” Proceedings of the 25th international conference on World Wide Web. International World Wide Web Conferences Steering Committee, 2016. [11] Jindal, Nitin, and Bing Liu. “Opinion spam and analysis.” Proceedings of the 2008 international conference on web search and data mining. ACM, 2008. [12] Kumar, Srijan, et al. “FairJudge: Trustworthy user prediction in rating platforms.” arXiv preprint arXiv:1703.10545 (2017). [13] Mikolov, Tomas, et al. “Distributed representations of words and phrases and their compositionality.” Advances in neural information processing systems. 2013. [14] Karimi, Hamid, and Jiliang Tang. “Learning Hierarchical Discourse-level Structure for Fake News Detection.” arXiv preprint arXiv:1903.07389 (2019). [15] Song, Changhe, et al. “CED: Credible Early Detection of Social Media Rumors.” arXiv preprint arXiv:1811.04175 (2018). [16] Shu, Kai, Suhang Wang, and Huan Liu. “Beyond news contents: The role of social context for fake news detection.” Proceedings of the Twelfth ACM International Conference on Web Search and Data Mining. ACM, 2019. [17] Fake News: Fundamental Theories, Detection Strategies and Challenges, Xinyi Zhou, Reza Zafarani, Kai Shu and Huan Liu, WSDM, 2019. [18] 刘知远, 宋长河, 杨成. 社交媒体平台谣言的早期自动检测. 全球传媒学刊 5.4 (2018): 65-80. 英文技术版:Changhe Song, Cunchao Tu, Cheng Yang, Zhiyuan Liu, Maosong Sun. CED: Credible Early Detection of Social Media Rumors. arXiv preprint arXiv:1811.04175.
原文链接:https://zhuanlan.zhihu.com/p/94768011
作者简介
陈慧敏,清华大学计算机科学与技术系博士五年级同学,主要研究方向为情感分析、文本生成、谣言分析。在人工智能领域国际著名会议和期刊ACL、EMNLP、IJCAI、TKDE上发表多篇论文。
刘知远,清华大学计算机系副教授、博士生导师。主要研究方向为表示学习、知识图谱和社会计算。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.