AI生成学术论文泛滥问题已引发学界高度关注。
arXiv等预印本平台近期宣布紧急升级审核机制,在投稿流程中引入自动化检测工具以识别人工智能生成内容。
根据《自然》杂志最新研究显示,每年约有2%的学术论文因涉及不当使用人工智能技术而被拒稿。
以生物医学领域的bioRxiv和medRxiv为例,这两个平台每日需处理十余篇公式化特征明显的可疑投稿,在月度统计中此类稿件数量已突破7000份。
面对人工智能写作工具带来的双重挑战——既要遏制滥用生成模型批量生产低质论文的现象,又要避免误判合理使用AI进行英文润色的情况——预印本平台不得不采取整顿措施。
这场风波源于一篇极具争议性的预印本论文《自我实验报告:梦境中生成式人工智能界面的出现》。
该文于今年7月发布在PsyArXiv平台后迅速引发质疑。
当心理学家打开文档仔细审阅时发现文中描述的”实验”完全脱离现实逻辑:作者声称自己是中国某独立研究员且仅凭二手智能手机完成研究——这种矛盾表述最终导致该文被撤稿。
事实上这仅是冰山一角,据arXiv统计数据显示,在ChatGPT问世后相关问题显著加剧:当前约22%的计算机科学摘要及10%生物学摘要存在语言模型痕迹,在生物医学期刊发表的文章摘要中这一比例也达到14%。
面对日益严重的信任危机与运营压力,各平台正尝试平衡质量控制与开放共享的核心理念。
PsyArXiv等机构明确表示人工智能生成内容激增正在削弱读者对共享成果的信任度——筛选低质量稿件消耗大量资源并延缓处理速度;
同时虚假实验结果可能导致科研人员误入歧途。
目前主要应对策略包括引入Geppetto等检测工具追踪文本特征、提高综述类文章发表标准(因其常被用于简历填充),以及开发自动化筛查系统识别可疑模式等措施。
然而技术对抗始终存在滞后性:完全依赖人工审核的openRxiv正转向算法辅助检测;
但即便如此仍难精准区分合理应用与恶意造假——部分平台选择直接撤稿而另一些仅标注”已撤回”状态以避免过度干预争议内容。
随着语言模型持续进化至可完美模拟真实研究的程度时如何维持学术诚信?
这已成为悬在开放科学头顶的新难题。(参考文献见原文)
评论列表 (0条):
加载更多评论 Loading...