DeepSeek V3.1版本正式发布后引发广泛关注。
该模型将上下文长度扩展至128k级别,在编程性能上显著超越Claude 4 Opus且成本仅需1美元。
昨夜DeepSeek官方悄然推出全新V3.1版本,在参数规模达到685B的同时支持从BF16到FP8的多种计算精度格式。
根据公开信息及技术博主karminski3实测验证,此次更新主要亮点包括:延续前代对超长上下文的支持并强化工程优化;
新增四个特殊Token可能预示推理与非推理模型融合趋势;
在Aider Polyglot多语言编程测试中取得71.6%得分率;
SVGBench基准测试仅次于GPT-4.1-mini;
MMLU多任务理解表现接近GPT-5水平但存在领域差异。
用户实测数据显示,在物理模拟场景中对”六边形内小球自由落体”描述的理解能力显著提升。
按照汉字与token换算比例(约每token对应1-1.3汉字),其支持的最大上下文长度可达十万至十六万汉字量级——相当于《红楼梦》正文篇幅的八分之一到六分之一。
性能方面,在9.9与9.11数值比较等经典推理测试中表现稳定;
输出速度较前代有明显提升;
编程能力虽较R系列有所进步但尚未完全超越R1-0528版本,在图像生成任务中仍存在抽象化特征明显的局限性。
当前该模型在Hugging Face趋势榜位列第四名,官方账号粉丝数突破8万大关。
开发者社区普遍期待后续R2系列发布动态。
值得注意的是,在接近理论最大值(约3000字)的极限输出测试中模型出现终止现象,表明实际应用仍需平衡性能与稳定性需求。
参考资料来源包括微博技术讨论帖、Twitter实测报告及GitHub基准测试库等公开渠道验证数据。(相关链接:HYX微博/Q0FC4lmeo、X平台推文/https://x.com/karminski3/status/…、GitHub项目页/https://github.com/johnbean393/SVGBench/)
评论列表 (0条):
加载更多评论 Loading...