导读目录
新闻概览
根据 www.Todayusstock.com 报道,微软首席技术官Kevin Scott在意大利科技周表示,公司未来目标是让自家数据中心主要使用微软自研芯片,以减少对英伟达和AMD的依赖。微软正在推进从芯片设计到冷却系统的整体数据中心系统优化,以满足人工智能工作负载的高速增长需求。
微软自研芯片战略及未来规划
Scott指出,目前微软数据中心主要使用英伟达和AMD芯片,但公司始终关注“每颗芯片提供的最佳性价比”。他强调:“我们并不执着于使用哪种芯片……这也意味着,长年以来性价比最好的解决方案一直是英伟达。”
微软已经推出自研芯片,包括专为AI工作负载打造的Azure Maia AI加速器芯片和Cobalt CPU,并在研发下一代半导体产品。同时,公司推出了名为“微流体”(microfluids)的新冷却技术,以解决芯片过热问题。Scott明确表示:“绝对是的,我们未来的数据中心将主要使用微软自研芯片。”
他补充称,公司关注的不仅是芯片本身,而是整体系统设计,包括网络与冷却系统,目的是让计算资源与工作负载高度匹配。
对英伟达和AMD的潜在影响
微软自研芯片战略意味着其长期可能减少对英伟达和AMD的依赖。英伟达在GPU市场占据主导地位,而AMD份额较小。微软、谷歌和亚马逊等云计算巨头的自研芯片计划,将对现有供应链产生深远影响,同时推动市场对定制AI芯片的关注。
AI算力需求与数据中心扩展
Scott指出,自ChatGPT上线以来,算力需求持续高涨,目前依然存在严重短缺。他表示:“说现在是严重短缺(a massive crunch)都还是轻描淡写。” 尽管微软通过建设数据中心扩展产能,但仍难以完全满足AI算力需求。
今年,包括微软、Meta、亚马逊和Alphabet在内的科技巨头已承诺超过3000亿美元资本支出,主要投向AI领域,以应对不断增长的算力压力。
主要云服务商自研芯片对比表
公司 | 自研芯片名称 | 主要用途 | 目标 |
---|---|---|---|
微软(MSFT.US) | Azure Maia AI加速器、Cobalt CPU | AI工作负载 | 减少对英伟达/AMD依赖,实现整体系统优化 |
谷歌(GOOG.US) | TPU (Tensor Processing Unit) | 机器学习/AI计算 | 提高AI模型运算效率,降低成本 |
亚马逊(AMZN.US) | Graviton处理器 | 通用计算与AI推理 | 优化AWS实例性能及能效 |
编辑总结
微软明确表示,未来数据中心将主要使用自研芯片,并通过整体系统设计优化满足高速增长的AI需求。这一战略不仅可能减少对现有芯片供应商的依赖,也将对AI算力市场及竞争格局产生深远影响。面对持续的算力紧缺,微软及其他科技巨头加大资本支出与自研芯片投入,将成为推动AI基础设施发展的关键因素。
常见问题解答
问1:微软为什么要研发自家芯片?
答:主要目的是减少对英伟达和AMD的依赖,同时优化数据中心整体系统设计,使计算资源与AI工作负载更高效匹配。
问2:微软目前的数据中心主要使用哪些芯片?
答:目前仍主要使用英伟达和AMD芯片,但微软已经在部分数据中心部署自研Azure Maia AI加速器和Cobalt CPU。
问3:微软自研芯片如何影响现有供应链?
答:长期来看,可能减少对英伟达和AMD的采购需求,但短期仍依赖这些厂商提供高性能GPU以满足算力需求。
问4:微软提出的“微流体”技术有什么作用?
答:该技术用于冷却芯片,解决过热问题,提高数据中心运行效率,并为自研芯片在大规模部署提供支持。
问5:当前AI算力需求为何紧缺?
答:自ChatGPT上线以来,AI模型与应用迅速扩展,现有数据中心产能难以满足需求,即使大规模投资建设也存在扩产滞后。
来源:今日美股网