开源 AI 项目 Jan 团队近日正式推出了全新的多模态大模型 Jan-v2-VL-Max。这款拥有30B 参数的模型并非盲目追求通用性,而是精准锁定在“长周期执行任务”这一核心痛点上,旨在解决 AI 在复杂自动化流程中容易“断片”的问题。
该模型的技术底座源自 Qwen3-VL-30B-A3B-Thinking。为了提升在多步操作中的稳定表现,Jan 团队引入了 LoRA-based RLVR 技术。这项技术的精妙之处在于它能有效减少多步执行过程中的误差累积,从而显著抑制 AI 在处理长任务时常见的“幻觉”现象。

在实际性能表现上,Jan-v2-VL-Max 在专门衡量执行稳定性的“幻象递减回报”基准测试中,甚至超越了 Gemini2.5Pro 和 DeepSeek R1等知名模型。这意味着它在处理诸如 Agent 自动化、UI 界面控制以及其他需要高度逻辑连贯性的任务时,拥有更强的可靠性。
目前,开发者和 AI 爱好者已经可以通过网页端直接体验,或者利用 vLLM 在本地进行私有化部署。作为一款主打离线运行、尊重隐私的Jan生态成员,新模型的加入无疑为追求本地化 AI 自动化的用户提供了一个更强力的工具选项。
huggingface:https://huggingface.co/janhq/Jan-v2-VL-max-FP8
© 版权声明
本网转发此文章,旨在为读者提供更多信息资讯,只用于分享,不做任何商业用途,版权归原作者所有。由于条件所限,在转载之前无法与所有权利人联系授权,可能出现部分原创图片或文字未署名,请联系添加。如有侵权,请联系删除处理。
相关文章
暂无评论...
