Grok-2正式开源并登陆Hugging Face平台,其9050亿参数规模与131,072 token超长上下文窗口引发行业关注。
这款接近万亿参数的”巨无霸”模型性能表现首次曝光。
埃隆·马斯克再次展现惊人效率——xAI团队宣布将在6个月内开源Grok-3,并透露Grok-4已实现全球最强AI模型地位。
今晨xAI正式官宣向全球开发者开放Grok-2核心组件: 1. 模型权重 2. 架构设计 该开源版本具备以下技术特性: • 模型规模突破性升级:总参数量达9,050亿,在推理时动态激活1,360亿有效参数 • 上下文窗口突破极限:支持单次处理131,072 token长度 • MoE架构优化:通过混合专家架构实现计算效率最大化 • 训练数据更新至2024年初版本 值得注意的是其商业使用限制条款: 当关联企业年收入超过百万美元时需获得xAI特别授权 禁止利用该模型输出数据训练其他基础模型 下载与部署指南显示: 需下载约500GB权重文件(包含42个文件) 启动推理服务需满足8块H100 GPU配置(每卡显存>40GB) 建议使用最新版SGLang推理引擎(v0.5.1+) 开发者社区反响热烈: 有用户实测发现模型响应名称仍显示”Grok” 孟菲斯超算中心建设速度引发惊叹——仅用122天完成配备十万块H100 GPU的数据中心建设 技术路线图显示: 8月将发布专用编码模型 9月推出多模态智能体 10月实现视频生成能力 xAI团队透露正在打造新一代超算集群: 预计五年内建成配备5,000块H100 GPU的超级计算机 马斯克自信表示:”击败谷歌只是时间问题” 行业观察者指出: 这种指数级发展速度源于独特的运营策略而非单纯资本投入 有开发者感慨:”正见证科幻级创新成为现实” 参考资料链接已公开可查证: 推特动态及官方仓库地址均按规范呈现
评论列表 (0条):
加载更多评论 Loading...