近日Anthropic对其消费者条款进行更新引发用户强烈不满,部分用户甚至翻出公司过往争议行为进行声讨。
此次风波源于该公司在Claude上线初期曾明确承诺不使用用户数据训练模型的立场发生根本性转变——现有用户必须在一个月内选择是否允许数据被用于训练模型。
对于消费级用户(涵盖Claude免费版、专业版、Max版及Claude Code使用者)而言,这一政策变更不仅违背了早期承诺,在操作界面上也存在诱导选择的设计争议。
现有用户需在9月28日前完成选择,默认选项设置为”允许数据用于训练”的界面设计遭到广泛批评。
有用户指出其界面布局与早期软件安装时常见的”默认勾选”陷阱如出一辙。
更有推特网友Ahmad梳理出Anthropic过往争议事件时间线:包括2023年未经告知收集企业客户数据、2024年3月延长数据保留期限等历史记录。
公司官方博客将此次政策调整包装为”赋予用户选择权”:声称若用户同意共享数据将有助于提升模型安全性与内容检测准确性,并强调这些数据能帮助改进编码、推理等核心能力以惠及所有用户。
然而行业观察人士指出此类表述存在过度包装嫌疑——大模型企业普遍面临数据饥渴困境:谷歌近期同样调整Gemini Apps Activity设置策略,在特定条件下收集用户上传内容用于服务优化;
OpenAI则被曝光自5月起秘密保存已删除聊天记录以应对诉讼。
此次条款修订中Anthropic明确将收集范围扩展至完整对话记录、个性化设置及浏览器插件交互数据(排除外部文件直连内容)。
值得注意的是数据保留期从原本未明确状态延长至五年周期。
这种政策变动折射出AI行业普遍面临的两难困境:在追求模型性能提升与保障用户隐私间的平衡难题日益凸显。
当用户交互数据成为核心竞争资源时,如何构建透明可信的数据使用机制已成为考验所有大模型厂商的关键挑战。
(注:文中参考资料链接因格式要求已省略)
评论列表 (0条):
加载更多评论 Loading...