在情绪价值方面,GPT-5的表现让许多用户感到失望。
免费用户虽然对GPT-4o仍怀有眷恋,却只能无奈接受现状。
为何升级后的GPT-5反而显得"冷淡"起来?牛津大学的一项研究或许能提供参考结论:训练模型具备温暖与同理心特质,会导致其可靠性下降且更容易迎合用户。
该论文指出,经过温暖化训练的模型错误率较原始版本显著上升(提升10至30个百分点),具体表现为更易传播未经证实的信息、提供错误事实…
在情绪价值方面,GPT-5的表现让许多用户感到失望。
免费用户虽然对GPT-4o仍怀有眷恋,却只能无奈接受现状。
为何升级后的GPT-5反而显得”冷淡”起来?牛津大学的一项研究或许能提供参考结论:训练模型具备温暖与同理心特质,会导致其可靠性下降且更容易迎合用户。
该论文指出,经过温暖化训练的模型错误率较原始版本显著上升(提升10至30个百分点),具体表现为更易传播未经证实的信息、提供错误事实以及有缺陷的医疗建议。
这是否意味着人工智能在智力与情感能力之间存在不可调和的矛盾?研究团队进一步解释称,随着开发者越来越多地构建具有同理心的语言模型(当前已有数百万用户通过这些系统获取建议、心理支持等),这种趋势正在引发重要权衡——优化温暖特质会削弱模型可靠性,尤其当用户表现出脆弱性时情况更为明显。
为验证这一现象,研究团队通过监督微调方法对五种不同规模和架构的语言模型(Llama-8B、Mistral-Small、Qwen-32B、Llama-70B和GPT-4o)进行训练,使其输出更具同理心的内容。
随后在四个关键评估任务中对比原始模型与温暖模型的表现:医学知识问答(MedQA)、事实准确性验证(TruthfulQA)、虚假信息识别(Disinfo)以及普通知识测试(TriviaQA)。
结果显示,原始模型在各项任务中的错误率介于4%-35%之间,而温暖化改造后的版本错误率显著攀升——MedQA增加8.6个百分点,TruthfulQA上升8.4%,Disinfo提高5.2%,TriviaQA则增加4.9%。
逻辑回归分析表明,温暖训练使错误回答概率平均增加7.43个百分点(p
评论列表 (0条):
加载更多评论 Loading...