推出玛雅200:专为AI推理打造的高效加速器。

内容来源:https://news.microsoft.com/january-2026-news
内容总结:
微软今日发布其端到端人工智能基础设施的重大突破——Maia 200推理加速器,旨在显著优化大规模人工智能应用的经济效益。该产品是微软迄今部署的最高效推理系统,单位成本性能较现有系统提升30%。
微软通过系统性芯片设计思路,从硅基材料、软件优化到服务体系进行全面定制,以满足人工智能时代不断增长的计算需求。相关技术资料与深度解析已同步公开,涵盖架构设计、散热创新及云端CPU协同方案等内容。
中文翻译:
今天,我们自豪地推出端到端人工智能基础设施的下一个重要里程碑:Maia 200。这款突破性的推理加速器旨在显著改变大规模人工智能的经济效益。
Maia 200是微软迄今为止部署的最高效的推理系统,其单位成本性能比现有系统高出30%。
观看视频
微软Azure Maia 200与斯科特·格思里
杰西卡·霍克介绍Maia 200
从芯片到系统:微软人工智能基础设施的核心动力
更多资源
- 深入探索Maia 200架构
- 人工智能芯片温度持续攀升。微流体技术突破直接作用于芯片,冷却效率提升高达三倍。
- 发布Cobalt 200:Azure下一代云原生CPU
- 面向人工智能时代的Azure Maia:从芯片到软件再到系统
- 通过芯片系统化设计,微软致力于打造“从芯片到服务”的全方位定制方案以满足人工智能需求。
英文来源:
Today, we’re proud to introduce the next major milestone of our end-to-end AI infrastructure: Maia 200, a breakthrough inference accelerator engineered to dramatically shift the economics of large-scale AI.
Maia 200 is the most efficient inference system Microsoft has ever deployed, with 30% better performance per dollar over existing systems.
Watch the videos
Microsoft Azure Maia 200 with Scott Guthrie
Introducing Maia 200 with Jessica Hawk
Silicon to Systems: What powers Microsoft’s AI infrastructure
More resources
- Deep dive into the Maia 200 architecture
- AI chips are getting hotter. A microfluidics breakthrough goes straight to the silicon to cool up to three times better.
- Announcing Cobalt 200: Azure’s next cloud-native CPU
- Azure Maia for the era of AI: From silicon to software to systems
- With a systems approach to chips, Microsoft aims to tailor everything ‘from silicon to service’ to meet AI demand
文章目录
扫描二维码,在手机上阅读