推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  减速机  减速机型号  履带  带式称重给煤机  无级变速机  链式给煤机 

政府报告如何二次使用科学数据?信息污染背后的惊人真相

   日期:2026-01-19 00:25:52     来源:网络整理    作者:本站编辑    评论:0    
政府报告如何二次使用科学数据?信息污染背后的惊人真相

地点

复旦大学江湾校区

第六届社会计算国际会议

International Conference on Social Computing

2025年12月12日至13日在复旦大学举办的第六届国际社会计算会议上,芝加哥大学计算社会科学教授James Evans发表题为《信息在数字政策和AI生态系统中的污染与净化》的主题演讲,以其深刻的洞察力和严谨的研究方法,为在场听众揭示了信息时代的一个重大危机——信息污染及其在政策制定和AI系统中的复杂表现。

一、政策领域的信息污染

James Evans教授首先提出一个引人深思的现象:在当今社会,我们投入了大量资源进行信息传播和政策制定,但传播效果与投入之间往往存在巨大差距

"政府需要共享的神话来采取集体行动",他开门见山地指出。科学创造了强大的共享神话,但科学方法及其实践者是严格的监督者,他们并不总是给出政策工作所需的答案。正是这种"供需矛盾",催生了所谓的"信息清洗"现象

James Evans教授通过一个案例展开论述:美国肯尼迪家族推动的政策文件"让美国再次健康"报告,表面上引用了《自然》、《医学》、《美国医学会杂志》等顶级期刊的研究成果,看起来权威可信。

但深入分析后发现,这些引用都存在严重问题。报告声称谈论"有效的精神科药物",引用了科珀图书馆的系统综述,而该综述明确指出"不直接比较心理治疗和药物治疗"。报告称"直接面向消费者的广告增加了ADHD药物处方",引用的研究根本不存在,虽然期刊名称正确,但没有这样的作者或文章。

这种"伪科学引用"就像给错误信息穿上了科学的外衣,让其看起来合法合规。

James Evans教授进一步揭示,智库在信息清洗过程中扮演着关键角色。这些看似中立的研究机构,实际上往往带有明显的意识形态倾向。

右翼自由意志主义智库会声称"大多数最低工资增长通过非补偿性调整渠道适应,如价格上涨、服务质量下降和人员削减"。而这些观点在原始研究中要么被明确否定,要么根本不存在。

左翼智库同样存在类似问题,美国进步中心曾声称"一些经济学家反对美国增加支出来帮助疲软经济",这与这些经济学家实际提出的观点完全相反。

为了验证这些现象的普遍性,James Evans教授团队对2017年至2025年间的10万多份政策科学文件进行了深入分析,得出了令人震惊的数据:

政府间组织(如世界卫生组织)约10%的误读率,科学文献引用科学文献约5%的误读率,而智库高达45%的误读率,政府机构从约20%上升到与智库相同的水平。

这意味着,每两份智库报告中,就有一份在严重误读基础科学研究

更令人担忧的是,92%的误读是朝着智库自身倾向的方向,84%是政府明确这样做的。"夸大主张比低估主张更常见",James Evans教授指出,"高影响力期刊如《自然》和《科学》更容易被误读,而专业期刊如《美国经济评论》则较少被误读。"

特别值得注意的是,特朗普第二届政府甚至直接跳过了中间人,不再引用智库,而是直接歪曲科学。这种"去中介化"的信息清洗方式,使得误读更加直接和明显

二、社交媒体时代的信息治理

在分析完政策领域的信息污染后,James Evans教授将话题转向了社交媒体时代的信息治理。

当人们在网络上发布错误信息时,"信息义务警员"会用事实核查报告指出错误。但研究发现,这种做法往往适得其反。"

在被事实核查之前,人们实际上在拓宽他们的信息视野,查看更多样化的内容和政治观点,"James Evans教授解释道,"但在被事实核查后,他们反而退缩到之前不存在的信息泡沫中。"

原因很简单:人们在自己不专业的信息领域工作,推荐系统发送的错误信息或未经核实的内容被事实核查打击后,他们会感到被攻击,从而退缩到信息泡沫中寻求安全感

不过,研究也发现了一线希望——如果使用群体共识的方式,当有足够多样化观点的人都指出信息有误时,效果要好得多,不会产生同样的负面影响。

这就像Twitter(现在的X)的社区笔记功能,当多个不同背景的用户都标记某条信息有误时,人们更愿意接受这个事实,而不是感到被攻击。"James Evans教授举例。

三、AI时代信息污染的新挑战

随着演讲的深入,James Evans教授将焦点转向了AI时代信息污染新的表现形式——大语言模型的政治偏见。 

James Evans教授团队在最近的选举前调查了所有公开和私有的大语言模型,发现了一个有趣的现象:只有一个中国模型(豆包)支持特朗普,其他所有模型都支持拜登和哈里斯。

"基础模型(仅在网络上训练的模型)的偏见与全国平均水平相差3-4%,但85%的偏见发生在微调阶段"。

James Evans教授解释道,"公司不是为了制造自由主义偏见而微调,而是为了让模型开放、友好、乐于助人、愿意改变观点这在美国背景下就形成了民主党倾向的模型。"

当大语言模型被用于政策讨论时,它们会不自觉地说服人们。

研究发现,特朗普选民更可能向中间立场移动。人们使用有偏见的模型表现更好,但感觉更差。如果模型表现得好像有正确答案,人们就会产生自动化偏见,直接接受答案。如果他们觉得模型有偏见,就会参与讨论,表现更好。

“当我们提供两个或更多与用户偏见相反的AI代理时,用户表现更好,感觉也更好。这就像有多个不同观点的专家在你身边,你需要权衡他们的意见。" James Evans教授说。

演讲的最后部分,James Evans教授提出了一个核心观点:无论是人类组织还是AI系统,多样性的观点都至关重要。"

当人们在核心问题上有多样性观点时,无论是写论文、申请专利、创作剧本还是创办新公司,他们都表现更好。但当他们距离太远,无法相互交流时,表现会变差。

令人惊讶的是,大型语言模型正在自我发现这一点。像DeepSeek和QWQ这样的模型开始使用强化学习,它们不只是内部推理,而是发起对话。这些模型比基础模型多500%的对话成分,多9000%的质疑和提问。

James Evans教授说,"当问题困难时,模型会建立小型'社会',在对话模式下,模型比独白模式表现好100%。"

在演讲的结尾,James Evans教授总结道,大型模型本身是文化和社会技术,如果我们不考虑AI对话中的多样性视角,我们的表现会差得多。

他提出了一个发人深省的观点:"我们不想要最好的AI导师、教授或教练,我们想要能引发冲突、邀请人们参与、发挥他们知识和判断力的AI。"

总结起来,在这个信息爆炸的时代,我们需要的并非一个无所不知的权威,而是一个能够激发思考、促进对话的伙伴,以及构建一个多元、开放、包容的信息生态系统。只有这样,我们才能在信息污染的海洋中,找到真正的知识宝藏。

第六届社会计算国际会议组织委员会(ICSC 2025)

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON