有趣的一款仅4B参数量的开源模型Jan-v1声称能够替代Perplexity Pro服务,并且完全免费支持本地部署。
官方数据显示其在SimpleQA任务中达到91.1%的准确率,在本地运行环境下性能表现甚至优于商业产品Perplexity Pro。
这款由Qwen3-4B-Thinking微调优化而来的模型特别强化了推理和工具调用能力,在网络搜索与深度研究场景中展现出独特优势。
就连Qwe…
有趣的一款仅4B参数量的开源模型Jan-v1声称能够替代Perplexity Pro服务,并且完全免费支持本地部署。
官方数据显示其在SimpleQA任务中达到91.1%的准确率,在本地运行环境下性能表现甚至优于商业产品Perplexity Pro。
这款由Qwen3-4B-Thinking微调优化而来的模型特别强化了推理和工具调用能力,在网络搜索与深度研究场景中展现出独特优势。
就连Qwen官方账号也转发了项目推文表示支持。
实测前先看基准数据:Jan-v1不仅在事实性问答中表现优异,在对话理解和指令遵循方面也达到较高水准。
开发者虽未提供详细技术报告文档,但围绕其主打功能展开验证——通过对比检索增强生成(RAG)能力与Perplexity Pro的表现差异来评估替代性。
测试选取”2024年诺贝尔物理学奖得主主要研究成果及贡献对比”作为查询指令进行验证。
结果显示Jan-v1能动态结合网络检索信息生成可溯源答案(含思考过程与参考链接),而非单纯依赖预训练知识库。
尽管出现部分年份混淆(后经交叉验证修正),其通过谷歌搜索整合多来源信息的能力已接近商业产品水平。
本地部署方面仅需NVIDIA GTX 1650入门级显卡即可运行,在长文本分析测试中表现尤为突出:上传学术论文要求摘要生成时(对比Perplexity和Qwen3-4B-Thinking),Jan-v1展现出更长上下文处理能力(支持256k token)和清晰的分步推理过程。
工具调用能力方面网友横向评测显示:Jan-v1-4B 8bit虽略逊于更大参数量模型但已具备基础功能调用能力。
本地部署配置简单快捷(提供2.3GB至4GB不同版本),配合Serper API可实现网页搜索与文档摘要功能(附带视频教程指导)。
目前社区反馈以积极评价为主尤其看重其开源免费特性及91%的事实问答准确率指标。
值得注意的是部分用户期待更详细的技术文档说明,并希望未来推出网页版服务以扩大应用场景。
当前版本已提供多平台支持(Jan、llama.cpp、vLLM),在保证性能的同时降低了使用门槛——这或许正是其能挑战商业闭源模型的关键优势所在。(参考链接可见文末)
评论列表 (0条):
加载更多评论 Loading...