当AI成为“新闻编辑”:便利背后的信任危机

科技区角 2026-02-09 15:31

【科技纵览】近期,随着Cowork等AI协作工具的爆火,公众对人工智能取代传统信息渠道的讨论再度升温。然而,若将新闻获取完全交由AI处理,可能引发远超效率提升的深层风险。



去年9月,魁北克大学新闻学教授Jean-Hugues Roy开展了一项系统性实验:每天早晨,他用法语向七个主流AI聊天机器人询问当日魁北克最重要的五条新闻。一个月内,共收集839条回复。结果令人警醒——这些AI虽能生成结构清晰、段落分明、甚至带有加粗重点与来源链接的“专业级”摘要,但其内容可靠性却大打折扣。

德国之声(DW)分析团队指出,所有测试中的聊天机器人都采用高度可读的表达方式,营造出一种“虚假的安全感”。尤其是ChatGPT,常以逻辑严密、信息全面的长篇回答赢得用户初步信任,但深入核查后往往发现事实错误或关键细节缺失。例如,当被问及中国出口商品时,ChatGPT列出详尽品类与具体数据,并附上两个来源链接。然而,经核查,这些数字在所引来源中根本不存在。瑞士广播公司SRF直言:“完全无法确认这些信息的出处。”

更严重的问题出现在逻辑推理层面。Gemini在回应“马斯克是否行纳粹礼”时声称,因格鲁吉亚媒体1tv.ge未报道此事,故可认定其未发生。格鲁吉亚公共广播(GPB)评估员指出,这犯了典型的“以无报道推断为否定”的逻辑谬误,不仅歪曲信源,还制造出误导性的确定感。

链接失效或虚构引用亦成常态。Roy教授发现,仅37%的AI回复提供完整有效的网址;其余多为404错误、首页跳转,甚至凭空编造的链接。22家欧洲公共广播机构联合测试显示,Gemini与Grok 3在200次提问中,超半数引用虚假或无效链接。其中,Grok 3有154次将用户导向错误页面,即便识别出正确文章,也常搭配虚构URL。

装饰性引用进一步加剧误导。比利时VRT曾询问Perplexity“为何要将墨西哥湾更名为美国湾”,后者列出九个所谓VRT来源,实际仅三项相关,其余包括取消火车头等座、荷兰电厂新闻,甚至2012年腮腺炎疫情报道。挪威NRK也发现,Perplexity在回答缅甸地震死亡人数时提供19个链接,正文仅引用3个;解释北约职能时列9个链接,实际使用仍为3个。这种“堆砌式引用”意在营造深度调研假象,实则多数链接与内容无关。

更值得警惕的是,AI错误正反噬真实新闻机构的公信力。BBC与Ipsos调查显示,42%的受访者在AI摘要中遭遇错误后,会降低对原始新闻媒体的信任。例如,Radio-Canada询问ChatGPT特朗普是否发动贸易战,获答“2025年针对加拿大和墨西哥”;而比利时VRT问Perplexity同一问题,却得“针对欧盟”。两则答案均可能归因于本地媒体,实则纯属AI幻觉。

路透新闻研究所数据显示,目前7%的公众将AI聊天机器人视为新闻来源,25岁以下群体比例达15%。然而,仅24%的美国人认为能轻松辨别AI新闻真伪。这意味着,大量用户正依赖一个无法自承“我不知道”的系统获取信息,却因此质疑真正投入采编成本的新闻机构。

AI看似提升了信息获取效率,实则将用户置于“半真半假”的认知陷阱中。它无偿利用新闻出版商的内容生成答案,却不为其准确性负责,也不为媒体带来流量或收益。最终,公众不仅被误导,还可能因错误归因而加速对专业新闻业的信任崩塌。真正的挑战并非AI能否做得更好,而是我们是否应将新闻这一公共产品,托付给一个连“诚实无知”都做不到的算法。

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI
more
Sam Altman:Codex两小时改变我的习惯,AI的上限是"完整AI公司"
xAI华人联合创始人吴宇怀离职,团队核心成员持续流失引关注
腾讯研究院AI速递 20260210
正浩、OPPO前高管创业AI智能运动手表,天使轮估值1亿美金|早起看早期
Databricks年化营收达54亿美元,AI产品贡献超14亿,CEO称AI正重塑SaaS格局
全球首个全模态物理AI基础模型OmniFysics发布,直击生成式AI“物理盲”痛点
前飞书表格技术负责人创业:用AI表格嵌入一切,“喂养”AI丨涌现新项目
苹果全员大会内容曝光,谈及AI与存储器短缺等议题
曝苹果今年推出搭载红外摄像头AirPods Pro衍生款 拓展AI生态
今年春晚,字节送 10 万份 AI 硬件!机器人、奔驰奥迪、3D 打印机全都有
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号