【科技纵览】近期,随着Cowork等AI协作工具的爆火,公众对人工智能取代传统信息渠道的讨论再度升温。然而,若将新闻获取完全交由AI处理,可能引发远超效率提升的深层风险。

去年9月,魁北克大学新闻学教授Jean-Hugues Roy开展了一项系统性实验:每天早晨,他用法语向七个主流AI聊天机器人询问当日魁北克最重要的五条新闻。一个月内,共收集839条回复。结果令人警醒——这些AI虽能生成结构清晰、段落分明、甚至带有加粗重点与来源链接的“专业级”摘要,但其内容可靠性却大打折扣。
德国之声(DW)分析团队指出,所有测试中的聊天机器人都采用高度可读的表达方式,营造出一种“虚假的安全感”。尤其是ChatGPT,常以逻辑严密、信息全面的长篇回答赢得用户初步信任,但深入核查后往往发现事实错误或关键细节缺失。例如,当被问及中国出口商品时,ChatGPT列出详尽品类与具体数据,并附上两个来源链接。然而,经核查,这些数字在所引来源中根本不存在。瑞士广播公司SRF直言:“完全无法确认这些信息的出处。”
更严重的问题出现在逻辑推理层面。Gemini在回应“马斯克是否行纳粹礼”时声称,因格鲁吉亚媒体1tv.ge未报道此事,故可认定其未发生。格鲁吉亚公共广播(GPB)评估员指出,这犯了典型的“以无报道推断为否定”的逻辑谬误,不仅歪曲信源,还制造出误导性的确定感。
链接失效或虚构引用亦成常态。Roy教授发现,仅37%的AI回复提供完整有效的网址;其余多为404错误、首页跳转,甚至凭空编造的链接。22家欧洲公共广播机构联合测试显示,Gemini与Grok 3在200次提问中,超半数引用虚假或无效链接。其中,Grok 3有154次将用户导向错误页面,即便识别出正确文章,也常搭配虚构URL。
装饰性引用进一步加剧误导。比利时VRT曾询问Perplexity“为何要将墨西哥湾更名为美国湾”,后者列出九个所谓VRT来源,实际仅三项相关,其余包括取消火车头等座、荷兰电厂新闻,甚至2012年腮腺炎疫情报道。挪威NRK也发现,Perplexity在回答缅甸地震死亡人数时提供19个链接,正文仅引用3个;解释北约职能时列9个链接,实际使用仍为3个。这种“堆砌式引用”意在营造深度调研假象,实则多数链接与内容无关。
更值得警惕的是,AI错误正反噬真实新闻机构的公信力。BBC与Ipsos调查显示,42%的受访者在AI摘要中遭遇错误后,会降低对原始新闻媒体的信任。例如,Radio-Canada询问ChatGPT特朗普是否发动贸易战,获答“2025年针对加拿大和墨西哥”;而比利时VRT问Perplexity同一问题,却得“针对欧盟”。两则答案均可能归因于本地媒体,实则纯属AI幻觉。
路透新闻研究所数据显示,目前7%的公众将AI聊天机器人视为新闻来源,25岁以下群体比例达15%。然而,仅24%的美国人认为能轻松辨别AI新闻真伪。这意味着,大量用户正依赖一个无法自承“我不知道”的系统获取信息,却因此质疑真正投入采编成本的新闻机构。
AI看似提升了信息获取效率,实则将用户置于“半真半假”的认知陷阱中。它无偿利用新闻出版商的内容生成答案,却不为其准确性负责,也不为媒体带来流量或收益。最终,公众不仅被误导,还可能因错误归因而加速对专业新闻业的信任崩塌。真正的挑战并非AI能否做得更好,而是我们是否应将新闻这一公共产品,托付给一个连“诚实无知”都做不到的算法。