DeepSeek发布V4 Pro和Flash模型,支持1M上下文、高级推理、智能体集成及更高效率。全新架构旨在实现可扩展的AI性能DeepSeek发布V4 Pro和Flash模型,支持1M上下文、高级推理、智能体集成及更高效率。全新架构旨在实现可扩展的AI性能

DeepSeek发布V4模型系列:高参数AI攻克效率与前沿性能

2026/04/24 16:17
阅读时长 4 分钟
如需对本内容提供反馈或相关疑问,请通过邮箱 [email protected] 联系我们。
DeepSeek 发布 V4 系列模型:高参数 AI 主攻效率与前沿性能

中国 AI 初创公司 DeepSeek 发布了其 V4 系列模型的预览版,标志着其大型语言模型阵容的最新迭代。此次发布介绍了该系列中的两个变体,分别称为 V4-Pro 和 V4-Flash,两者均旨在根据部署需求平衡性能、效率与成本。

根据公司的技术披露,V4-Pro 模型是功能更强大的配置,拥有约 1.6 万亿个总参数和 490 亿个活跃参数。据描述,其性能已接近领先的闭源系统,尤其在世界知识检索、推理、数学、编程及 STEM 相关任务等领域表现突出。

在开发者引用的对比评估中,V4-Pro 据称在多项基准测试中领先于当前的开源模型,仅在知识相关评估中落后于 Google 的 Gemini 3.1 Pro。

第二个变体 V4-Flash 定位为更轻量、更具成本效益的替代方案,拥有约 2840 亿个总参数和 130 亿个活跃参数。尽管规模较小,据报道其在较简单的代理任务上与 Pro 版本保持接近同等的水平,同时提供更快的响应速度和更低的运营成本。该配置适用于效率优先于最大模型容量的高吞吐量应用场景。

DeepSeek V4 系列的架构升级、代理优化与 API 过渡策略

DeepSeek 还强调了 V4 系列引入的结构与架构变化,包括将 token 级压缩与稀疏注意力技术相结合的新注意力机制。这些调整旨在提升长上下文处理效率,同时降低计算和内存需求。公司指出,百万 token 上下文窗口已成为其服务的标准配置,反映了大规模模型在扩展上下文处理方面的更广泛趋势。

此次发布的另一重点是面向代理的功能。V4 系统已针对外部 AI 工具生态系统的兼容性进行优化,包括 Claude Code 和 OpenClaw 等框架,以及其他基于代理的开发环境。该模型也被描述为正积极用于内部代理编程工作流程中。

V4-Pro 和 V4-Flash 均通过 API 访问提供,支持多种集成标准和双重运营模式。公司表示,旧版模型将在下一个周期内逐步淘汰,以新架构取而代之,预计于 2026 年中完成全面迁移。

The post DeepSeek 发布 V4 系列模型:高参数 AI 主攻效率与前沿性能 appeared first on Metaverse Post.

免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。

掷骰赢 1 BTC!

掷骰赢 1 BTC!掷骰赢 1 BTC!

邀请好友掷骰子,争夺 500,000 USDT!