近日另一场人工智能国际顶级会议为大型语言模型(LLM)增设了监管条款。
ICLR 2025已于今年4月落下帷幕,在总计11565篇投稿中录用了33.1%的论文。
本届会议将于明年4月23日至27日在巴西里约热内卢举行。
本次更新的所有政策均基于ICLR《道德准则》,旨在维护学术诚信并规避LLM可能引发的风险问题——包括事实性幻觉、文本剽窃及数据失实等隐患。
其中两项核心规范如下: 第一项政策要求所有涉及LLM的应用必须明确披露其使用情况。
该条款遵循《道德准则》中”研究贡献必须获得恰当署名”及”贡献者应享有成果署名权”的原则。
违规投稿将面临包括直接拒稿在内的严厉处罚措施。
官方通过典型案例进一步阐释政策执行标准:当审稿人或领域主席在撰写评审意见时使用LLM工具,则需主动说明工具应用情况;
同时需确保评审过程不泄露论文机密信息。
若发生保密条款违约行为,则该审稿人提交的所有论文将直接进入拒稿流程。
随着LLM技术能力持续突破并渗透至学术全流程——从论文创作到同行评审——其带来的效率提升与潜在风险形成鲜明对比。
过度依赖此类工具已引发学术不端新形态:虚假引用、拼接式抄袭及责任归属模糊等问题正威胁科研伦理与评价体系公正性。
作为人工智能领域最具影响力的学术平台之一,各顶会年均收稿量持续以千计增长,在此背景下不得不直面LLM带来的挑战: NeurIPS 2025明确规定(https://neurips.cc/Conferences/2025/LLM) 此前ICML 2023已出台相应规范(https://icml.cc/Conf…) IEEE系列会议亦制定相关准则(https://www.ieee-ras.org/pu…) ACM旗下会议则提出:”若通过LLM生成文本、图表或代码等内容须在致谢或正文中明确标注工具名称及具体用途;
仅用于语言润色的小幅修改可豁免披露义务”(https://www.acm.org/publ…) 这些渐趋细化的规范体系将有效推动AI工具透明化应用,并逐步构建起系统化的学术伦理框架。
评论列表 (0条):
加载更多评论 Loading...