中国 AI 初创公司 DeepSeek 发布了其 V4 系列模型的预览版,标志着其大型语言模型阵容的最新迭代。此次发布介绍了该系列中的两个变体,分别称为 V4-Pro 和 V4-Flash,两者均旨在根据部署需求平衡性能、效率与成本。
根据公司的技术披露,V4-Pro 模型是功能更强大的配置,拥有约 1.6 万亿个总参数和 490 亿个活跃参数。据描述,其性能已接近领先的闭源系统,尤其在世界知识检索、推理、数学、编程及 STEM 相关任务等领域表现突出。
在开发者引用的对比评估中,V4-Pro 据称在多项基准测试中领先于当前的开源模型,仅在知识相关评估中落后于 Google 的 Gemini 3.1 Pro。
第二个变体 V4-Flash 定位为更轻量、更具成本效益的替代方案,拥有约 2840 亿个总参数和 130 亿个活跃参数。尽管规模较小,据报道其在较简单的代理任务上与 Pro 版本保持接近同等的水平,同时提供更快的响应速度和更低的运营成本。该配置适用于效率优先于最大模型容量的高吞吐量应用场景。
DeepSeek 还强调了 V4 系列引入的结构与架构变化,包括将 token 级压缩与稀疏注意力技术相结合的新注意力机制。这些调整旨在提升长上下文处理效率,同时降低计算和内存需求。公司指出,百万 token 上下文窗口已成为其服务的标准配置,反映了大规模模型在扩展上下文处理方面的更广泛趋势。
此次发布的另一重点是面向代理的功能。V4 系统已针对外部 AI 工具生态系统的兼容性进行优化,包括 Claude Code 和 OpenClaw 等框架,以及其他基于代理的开发环境。该模型也被描述为正积极用于内部代理编程工作流程中。
V4-Pro 和 V4-Flash 均通过 API 访问提供,支持多种集成标准和双重运营模式。公司表示,旧版模型将在下一个周期内逐步淘汰,以新架构取而代之,预计于 2026 年中完成全面迁移。
The post DeepSeek 发布 V4 系列模型:高参数 AI 主攻效率与前沿性能 appeared first on Metaverse Post.

