五年前,GPT-3 首次展示了通过自回归语言模型+大规模无标注数据训练,可获得强大 In-Context Learning(ICL)能力,并能通过少样本迁移到新任务,从而使语言开启通用人工智能(AGI)新纪元。
然而在语音领域,现有模型仍严重依赖大规模标注数据,难以快速适应新任务达到类人智能。
这一瓶颈如今被打破。
小米正式开源首个原生端到端语音模型——Xiaomi-MiMo-Audio,它基于创新预训练架构和上亿小时训练数据,首次在语音领域实现基于 ICL 的少样本泛化,并在预训练观察到明显的“涌现”行为。
后训练进一步激发了 Xiaomi-MiMo-Audio 的智商、情商、表现力与安全性在内的跨模态对齐能力,语音对话在自然度、情感表达和交互适配上呈现极高的拟人化水准。
得益于创新模型结构 + 上亿小时数据预训练 + 轻量后训练,Xiaomi-MiMo-Audio 性能亮眼,具体如下: Xiaomi-MiMo-Audio 主要贡献如下: 我们采取简单、彻底和直接的开源风格,希望促进语音研究领域加速向前: MiMo-Audio-7B-Instruct 可通过 prompt 切换 non-thinking、thinking 两种模式,强化学习(RL)起点高、潜力足,可以作为研究语音 RL 和 Agentic 训练的全新基座模型。
我们开源了 MiMo-Audio 的 Tokenizer 模型: Tokenizer 高效实现的推理代码如下: MiMo-Audio 技术报告已公开,全面展示了模型和训练细节: 我们提供了一套完整的语音模型预训练 ICL 测评、后训练评估框架,支持 10+ 测评任务,已开源至 GitHub。
我们认为,MiMo-Audio 的开源将显著加速语音大模型研究对齐到语言大模型,为语音 AGI 的发展提供重要基础。
我们会持续开源,期待与每一位同行者携手,用开放与协作,迈向语音 AI 的“奇点”,走进未来的人机交互时代。
评论列表 (0条):
加载更多评论 Loading...