今天打开 Claude 时会弹出一个窗口:这是 Anthropic 的 AI 助手今天更新了用户协议与隐私政策——允许将你的聊天记录及编程对话用于模型训练与优化。
默认状态为”已同意”且需手动关闭设置界面,在2025年9月28日前必须做出选择决定。
许多用户误以为”暂不处理”选项是拒绝授权, 实际该按钮仅暂缓选择, 若持续不作选择系统将在截止日期强制要求确认选项。
这种做法本质上已偏离”征求同意”原则, 转而采用”不反对即视为默许”的策略。
若选择同意, 你的对话数据将被保存五年用于模型迭代;
若拒绝则仅保留30天记录, 并可能用于安全审查或匿名化研究——这一规则同样适用于付费版Pro及Max用户群体。
作为曾以”绝对安全”为最大卖点的产品,Claude早期所有宣传材料都强调:绝不会使用用户数据进行模型训练, 也不会存储对话内容。
在普遍存在数据滥用风险的AI行业中, 这一承诺曾让其成为最值得信赖的选择之一。
但自今日起,Claude也加入了通过后台持续收集数据优化模型的行列。
值得关注的是,Google在9月2日同样默认开启Gemini的数据收集功能,甚至涵盖截图、视频等多媒体文件;
Meta更早将”个性化记忆”设为默认选项,通过分析聊天记录推测用户的性取向、心理状态等敏感信息。
相较之下OpenAI至少还在保留默认关闭的数据收集选项,而Anthropic此次直接将开关调至默认开启状态——这标志着原本以安全为核心价值主张的企业正在向行业普遍做法妥协。
公司宣称此举是为了提升AI安全性才需使用真实场景数据训练模型,却未提及此举将导致用户丧失数据透明权、控制权及删除权等基本权利保障机制缺失的问题。
尽管强调不会出售数据,但条款允许将数据用于实验室研究或社会影响分析等模糊用途范畴。
对于收到弹窗提示的用户可先点击接受协议,但切勿立即恢复历史对话记录——需立刻进入【设置】→【隐私】→找到【隐私设置】中名为【帮助改进Claude】的功能并关闭该选项后才能真正切断数据共享通道。
当读完整篇官方说明时突然意识到:或许我们早已习惯这种数据被持续采集的状态了——从搜索引擎记录搜索词到社交平台追踪停留时长,从购物车徘徊行为到精准广告推送,现代互联网服务始终遵循着生产者拥有使用权的基本逻辑运行着这个庞大的数据循环系统。
评论列表 (0条):
加载更多评论 Loading...