Microsoft 推出了一款名为 Maia 200 的新人工智能芯片,专门针对云计算工作负载。该芯片在 Microsoft 发布其首款 AI 芯片 Maia 100 两年后推出,而 Maia 100 从未广泛提供给云端客户。该公司表示,Maia 200 将触及更多客户,并在未来提供更广泛的可用性。
Microsoft 宣布 Maia 200 可以作为 Nvidia、Amazon 的 Trainium 和 Google 的 TPU 处理器的替代品。Microsoft 云端和 AI 执行副总裁 Scott Guthrie 表示,Maia 200 带来"未来更广泛的客户可用性"。Microsoft 表示,Maia 200 代表其迄今部署的最高效推理系统。
开发人员、学者和 AI 实验室可以申请 Maia 200 软件开发套件的预览版。该预览版提供早期访问工具,用于在新芯片上构建和优化 AI 工作负载。Microsoft 表示,预览版将扩大跨开源 AI 模型和企业用例的实验。
Microsoft 表示,由 Mustafa Suleyman 领导的超级智能团队将使用 Maia 200 处理内部和客户工作负载。该公司还确认 Microsoft 365 Copilot 和 Microsoft Foundry 将在新芯片上运行。这些服务包括生产力软件附加组件和用于在大型 AI 模型基础上构建的框架。
Microsoft 表示,云端供应商面临来自 Anthropic 和 OpenAI 等 AI 模型开发商的不断增长的需求。数据中心运营商在管理能源和成本限制的同时寻求更高的计算能力。在这个竞争环境中,公司旨在平衡性能与运营费用和能源使用。
Microsoft 表示,Maia 200 芯片使用台湾积体电路制造公司的 3 纳米制程。该公司表示,每台服务器内放置四个 Maia 200 芯片,相互连接以增加吞吐量。Microsoft 解释说,该设计使用以太网电缆,而非 Nvidia 安装中使用的 InfiniBand 标准。
该公司表示,与替代品相比,Maia 200 在相同价位下提供 30% 更高的性能。Microsoft 表示,每个 Maia 200 包含比 AWS 的 Trainium 或 Google 的第七代 TPU 更多的高带宽内存。这种架构设计旨在支持大规模模型推理工作负载。
Microsoft 还表示,它可以连接多达 6,144 个 Maia 200 芯片以进一步扩展性能。该公司声称,这种方法有助于减少能源使用和总拥有成本。Microsoft 此前曾展示 Maia 100 可以在 2023 年运行 GitHub Copilot。
Microsoft 表示,它将首先在美国中部数据中心区域部署 Maia 200 芯片。该公司表示,芯片随后将抵达美国西部 3 区。在这些初始推出后,将进行其他全球部署。
这篇文章 Microsoft 推出第二代 AI 芯片以加强云端能力 最先出现在 Blockonomi。


