最后通牒!Claude聊天/代码「默认」全喂AI训练,你的隐私能被用5年

新智元 2025-08-30 17:15

资讯配图



  新智元报道  

编辑:元宇 好困
【新智元导读】近日,Anthropic更新了它的消费者条款,没想竟把网友惹怒了,有的还把以往的「旧账」都翻了出来。这次网友的反应为啥这么激烈?大家可能还记得在Claude上线之初,Anthropic就坚决表示不会拿用户数据来训练模型。这次变化不仅自己打脸,还把以往一些「背刺」用户的往事都抖搂出来了。


近日,Anthropic的一项关于消费者条款的更新政策,把网友惹怒了。

资讯配图

在这次条款更新中,Anthropic一改往日坚决不使用用户数据来训练模型的承诺,让现有用户二选一:是否接受自己的数据被用于模型训练。

资讯配图

表面上,Anthropic是把「选择权」交给了用户,但只留了一个月的期限。

Claude的新用户,自然是要在注册时做出选择的;现有用户,必须在9月28日前作出决定:

此外,该条款的另一项变更是:

这里所说的消费级用户,是指所有使用Claude免费版、专业版和Max版,包括Claude Code的用户。

而使用Claude Gov、Claude for Work、Claude for Education,或通过API接入的商业客户则不受影响。

对于Anthropic的这种做法,网友们纷纷怒斥离谱!

资讯配图

不仅是政策,就连界面的UI,也被设计成了那种一不小心就会上套的类型。

资讯配图

这种所谓的「文字游戏」,早年间在电脑上装过软件的朋友,想必都不会陌生。

资讯配图

而且,Anthropic的奇葩操作还不止这些。

网友「Ahmad」就在自己的推文里,盘点了一波Anthropic迄今为止的「背刺」行为:


资讯配图
资讯配图
用户数据,是大厂「金矿」

在Anthropic那篇关于此次政策更新的博客中, 它将变化包装成用户具有选择权的样子,声称:

用户如果不选择退出,将帮助我们提升模型安全性,使我们检测有害内容的系统更准确,并减少标记无害对话的可能性。


而且,这些接受了新政策的用户,用Anthropic的话说:

这将帮助未来的Claude模型提升编码、分析和推理等技能,最终为所有用户带来更好的模型。


这套冠冕堂皇的说辞背后,真相远非如此简单。

资讯配图

而且,从整个行业看,Anthropic的此次消费者条款更新,也并非孤例。

大模型只有在接受更多真实用户数据训练后,才会变得更聪明。因此,各家大模型公司,也总是在如何争取用户数据,以改进其模型上大伤脑筋。

比如,谷歌最近也做了类似调整,将「Gemini Apps Activity」重命名为「Keep Activity」。谷歌称,当该设置开启时,自9月2日起,用户的部分上传样本将用于「帮助为所有人改进谷歌服务」。

资讯配图

和谷歌、OpenAI等所有其他大模型公司一样,Anthropic对数据的渴求,同样也远胜于它对于维护用户品牌好感度的需求。

能够访问数百万次Claude用户的交互,能为Anthropic提供更多来自真实编程场景的语料,从而提升其大模型相对于OpenAI、谷歌等竞争对手的优势地位。

所以,不难想象,Anthropic此次条款更新的真实用意,恐怕还是直指用户数据背后的「金矿」。

资讯配图
Anthropic「背刺」惹众怒

以往,Anthropic对用户最大的一个吸引力,在于它承诺对消费者数据隐私的严格重视。

从Claude上线之初,Anthropic就坚决表示不使用用户数据来训练模型。

此前,Anthropic的消费级产品的用户被告知,他们的提示词和对话内容会在30天内从公司后端自动删除——除非「法律或政策要求保留更长时间」,或者其输入内容被标记为违规(在这种情况下,用户的输入和输出最多可能被保留两年)。

而现在,Anthropic要求新用户和现有用户,必须在是否同意其使用他们的数据训练模型上,做出选择。

而且还规定现有用户必须在一个月内作出决定。此外,还把用户数据的保留期,延长到了5年。

资讯配图

这些可能被用来训练模型的用户数据包括:

整个相关对话,以及任何内容、自定义风格或会话偏好,以及使用Claude for Chrome时收集的数据。


这些数据,不包括来自连接器(例如Google Drive)的原始内容,或远程和本地MCP服务器,但如果它们是被直接复制到你与Claude的对话中,则可能会被包含。

资讯配图
谁来保护用户隐私?

这些大厂在「悄悄」改变政策,谁来保护用户隐私?

它们不断变化的政策,也为用户带来了巨大的困惑。

而且,这些公司在政策更新时,也似乎会刻意淡化这一点。

资讯配图

以Anthropic的这次更新界面为例。

现有用户在面临政策更新弹窗时,首先映入眼帘的是一行大号字体标题——「消费者条款和政策更新」,左侧是一个显眼的黑色「接受」按钮,按钮下方则是一行小字和一个更小的切换开关,用于授予训练许可——而且这个开关默认就设置在「开启」位置。

这种设计引发了一些普遍的担忧:

很多用户,很可能在没有注意到自己同意了数据共享的情况下,就迅速点击了「接受」。


Anthropic政策的调整,似乎也反映了整个行业在数据政策上的普遍转变。

观察国外AI行业,诸如Anthropic、OpenAI、谷歌这样AI大厂,正因其数据保留的做法,而面临日益严格的审视。

比如,近日,为了应对《纽约时报》的版权诉讼,OpenAI首次公开承认自5月中旬以来,一直在悄悄保存1用户已删除和临时的聊天记录。

事件曝光后,网友们都惊了:

合着那些被删掉的ChatGPT聊天记录,都被你存了档,然后等着法官来查?


再回到此次Anthropic更改消费条款这件事上,背后折射出公众对于AI隐私的日益关注和担忧。

当「用户数据」成为大模型竞争的关键性因素,如何在保持模型竞争优势的同时,保护好用户数据隐私,成了所有大模型厂商必须应对的一项重要挑战。

参考资料:
https://www.zdnet.com/article/anthropic-will-start-training-claude-on-user-data-but-you-dont-have-to-share-yours/%20%20
https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy%20%20
https://www.businessinsider.com/anthropic-uses-chats-train-claude-opt-out-data-privacy-2025-8%20%20

资讯配图

资讯配图

资讯配图

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI
more
中国互联网平台统一行动:所有AI生成内容强制打标签,微信、小红书紧急上线新功能
躺在风口上的硅谷教授!身家180亿不离讲台,捧出7家AI创企
【AI Agent展】观远数据智能洞察Agent—— 让报表开口说话的数据决策智能体
前沿 | AI辅助系统增强非侵入式脑机接口,帮助瘫痪患者精准控制机械臂
全面国产化:阿里AI芯片不再由台积电代工
创业74年的山东第一民企,把AI请进滨州的厂房里
一张卡片,不仅 AI 了我的工作,还摸清了我的八字和 MBTI?|AI 上新
【AI加油站】RPA 流程自动化系列七:多模态基础模型如何破解企业自动化困局?ECLAIR 系统的突破与探索(附PDF下载)
7个AI玩狼人杀,GPT-5获断崖式MVP,Kimi手段激进
1199元的有道Space X体验如何?好用实用的AI答疑工具
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号