地点
复旦大学江湾校区

第六届社会计算国际会议
International Conference on Social Computing

2025年12月12日至13日在复旦大学举办的第六届国际社会计算会议上,芝加哥大学计算社会科学教授James Evans发表题为《信息在数字政策和AI生态系统中的污染与净化》的主题演讲,以其深刻的洞察力和严谨的研究方法,为在场听众揭示了信息时代的一个重大危机——信息污染及其在政策制定和AI系统中的复杂表现。
一、政策领域的信息污染
James Evans教授首先提出一个引人深思的现象:在当今社会,我们投入了大量资源进行信息传播和政策制定,但传播效果与投入之间往往存在巨大差距。
"政府需要共享的神话来采取集体行动",他开门见山地指出。科学创造了强大的共享神话,但科学方法及其实践者是严格的监督者,他们并不总是给出政策工作所需的答案。正是这种"供需矛盾",催生了所谓的"信息清洗"现象。
James Evans教授通过一个案例展开论述:美国肯尼迪家族推动的政策文件"让美国再次健康"报告,表面上引用了《自然》、《医学》、《美国医学会杂志》等顶级期刊的研究成果,看起来权威可信。
但深入分析后发现,这些引用都存在严重问题。报告声称谈论"有效的精神科药物",引用了科珀图书馆的系统综述,而该综述明确指出"不直接比较心理治疗和药物治疗"。报告称"直接面向消费者的广告增加了ADHD药物处方",引用的研究根本不存在,虽然期刊名称正确,但没有这样的作者或文章。
这种"伪科学引用"就像给错误信息穿上了科学的外衣,让其看起来合法合规。
James Evans教授进一步揭示,智库在信息清洗过程中扮演着关键角色。这些看似中立的研究机构,实际上往往带有明显的意识形态倾向。
右翼自由意志主义智库会声称"大多数最低工资增长通过非补偿性调整渠道适应,如价格上涨、服务质量下降和人员削减"。而这些观点在原始研究中要么被明确否定,要么根本不存在。
左翼智库同样存在类似问题,美国进步中心曾声称"一些经济学家反对美国增加支出来帮助疲软经济",这与这些经济学家实际提出的观点完全相反。
为了验证这些现象的普遍性,James Evans教授团队对2017年至2025年间的10万多份政策科学文件进行了深入分析,得出了令人震惊的数据:
政府间组织(如世界卫生组织)约10%的误读率,科学文献引用科学文献约5%的误读率,而智库高达45%的误读率,政府机构从约20%上升到与智库相同的水平。
这意味着,每两份智库报告中,就有一份在严重误读基础科学研究。
更令人担忧的是,92%的误读是朝着智库自身倾向的方向,84%是政府明确这样做的。"夸大主张比低估主张更常见",James Evans教授指出,"高影响力期刊如《自然》和《科学》更容易被误读,而专业期刊如《美国经济评论》则较少被误读。"
特别值得注意的是,特朗普第二届政府甚至直接跳过了中间人,不再引用智库,而是直接歪曲科学。这种"去中介化"的信息清洗方式,使得误读更加直接和明显。
二、社交媒体时代的信息治理
在分析完政策领域的信息污染后,James Evans教授将话题转向了社交媒体时代的信息治理。
当人们在网络上发布错误信息时,"信息义务警员"会用事实核查报告指出错误。但研究发现,这种做法往往适得其反。"
在被事实核查之前,人们实际上在拓宽他们的信息视野,查看更多样化的内容和政治观点,"James Evans教授解释道,"但在被事实核查后,他们反而退缩到之前不存在的信息泡沫中。"
原因很简单:人们在自己不专业的信息领域工作,推荐系统发送的错误信息或未经核实的内容被事实核查打击后,他们会感到被攻击,从而退缩到信息泡沫中寻求安全感。
不过,研究也发现了一线希望——如果使用群体共识的方式,当有足够多样化观点的人都指出信息有误时,效果要好得多,不会产生同样的负面影响。
这就像Twitter(现在的X)的社区笔记功能,当多个不同背景的用户都标记某条信息有误时,人们更愿意接受这个事实,而不是感到被攻击。"James Evans教授举例。

三、AI时代信息污染的新挑战
随着演讲的深入,James Evans教授将焦点转向了AI时代信息污染新的表现形式——大语言模型的政治偏见。
James Evans教授团队在最近的选举前调查了所有公开和私有的大语言模型,发现了一个有趣的现象:只有一个中国模型(豆包)支持特朗普,其他所有模型都支持拜登和哈里斯。
"基础模型(仅在网络上训练的模型)的偏见与全国平均水平相差3-4%,但85%的偏见发生在微调阶段"。
James Evans教授解释道,"公司不是为了制造自由主义偏见而微调,而是为了让模型开放、友好、乐于助人、愿意改变观点,这在美国背景下就形成了民主党倾向的模型。"
当大语言模型被用于政策讨论时,它们会不自觉地说服人们。
研究发现,特朗普选民更可能向中间立场移动。人们使用有偏见的模型表现更好,但感觉更差。如果模型表现得好像有正确答案,人们就会产生自动化偏见,直接接受答案。如果他们觉得模型有偏见,就会参与讨论,表现更好。
“当我们提供两个或更多与用户偏见相反的AI代理时,用户表现更好,感觉也更好。这就像有多个不同观点的专家在你身边,你需要权衡他们的意见。" James Evans教授说。
演讲的最后部分,James Evans教授提出了一个核心观点:无论是人类组织还是AI系统,多样性的观点都至关重要。"
当人们在核心问题上有多样性观点时,无论是写论文、申请专利、创作剧本还是创办新公司,他们都表现更好。但当他们距离太远,无法相互交流时,表现会变差。
令人惊讶的是,大型语言模型正在自我发现这一点。像DeepSeek和QWQ这样的模型开始使用强化学习,它们不只是内部推理,而是发起对话。这些模型比基础模型多500%的对话成分,多9000%的质疑和提问。
James Evans教授说,"当问题困难时,模型会建立小型'社会',在对话模式下,模型比独白模式表现好100%。"
在演讲的结尾,James Evans教授总结道,大型模型本身是文化和社会技术,如果我们不考虑AI对话中的多样性视角,我们的表现会差得多。
他提出了一个发人深省的观点:"我们不想要最好的AI导师、教授或教练,我们想要能引发冲突、邀请人们参与、发挥他们知识和判断力的AI。"
总结起来,在这个信息爆炸的时代,我们需要的并非一个无所不知的权威,而是一个能够激发思考、促进对话的伙伴,以及构建一个多元、开放、包容的信息生态系统。只有这样,我们才能在信息污染的海洋中,找到真正的知识宝藏。
第六届社会计算国际会议组织委员会(ICSC 2025)


