训练大语言模型时若适当降低其记忆强度反而能提升效果。
当前未经约束的大语言模型容易直接复制训练数据内容。
针对这一问题,来自马里兰大学、图宾根大学及马克斯·普朗克研究所的研究团队提出了一种创新方法——金鱼损失(Goldfish Loss)。
该方法通过模拟金鱼的记忆特性,在计算损失函数时随机忽略部分文本片段(token),使模型不再逐字记忆训练数据却仍能掌握语言规律。
具体而言,在模型训练过程中会以一定概率随机屏蔽输入文本中的某些token,并排除这些位置对损失计算的影响。
当模型进行推理时遇到被屏蔽的位置只能依靠上下文进行预测而非机械复现原始文本序列。
为保证屏蔽位置的一致性研究团队引入了基于哈希算法的掩码策略。
与传统正则化方法如Dropout相比这种新方法存在显著差异:现有技术虽通过随机丢弃参数防止过拟合但不同批次中同一文本被屏蔽的位置会不断变化导致模型可通过多次迭代拼凑出完整内容本质仍依赖记忆机制。
而金鱼损失采用固定模式的哈希掩码——当相同前缀出现时屏蔽位置始终一致从根本上阻断了机械记忆的可能性。
在具体实现上传统next-token预测任务中模型会以真实下一词作为目标计算交叉熵损失;
而应用金鱼损失时虽然仍进行完整的前向传播预测但在损失计算阶段会按概率抹除部分目标token的真实值(例如固定每4个token屏蔽第4个)。
进一步优化中研究者提出局部化哈希掩码机制:当输入序列前h个token相同时后续屏蔽模式完全一致从而避免跨文档信息泄露风险。
实验设计包含两种场景:极端情况下通过大量重复样本强制诱发记忆行为;
标准场景则模拟常规批量训练流程。
评估指标包括逐字复现率等量化指标测试显示在极端测试场景中经过100轮次微调的标准LLaMA-2-7B模型能完整记住100篇维基百科文档中的84篇而采用金鱼损失后未出现任何完整记忆现象;
标准场景下该方法同样显著降低了逐字复现概率。
关于性能影响的研究表明尽管金鱼损失会导致约3%-5%的梯度信息缺失但整体任务表现与常规训练无显著差异(p>0.05)。
值得注意的是该方法需通过增加数据量弥补信息缺失可能导致计算资源消耗上升约15%-20%这一权衡需根据具体应用场景考量。
(注:实验基于LLaMA-2-7B对《哈利·波特》第一章及维基百科文档进行100轮微调)
评论列表 (0条):
加载更多评论 Loading...