内容导读
英特尔与SK海力士深化合作
根据 www.TodayUSStock.com 报道,2025年7月1日,英特尔在首尔举办的AI峰会上宣布与SK海力士进一步深化合作,共同开发下一代AI加速器,以提升在快速增长的AI芯片市场的竞争力。SK海力士副总裁郑宇锡(Jung Woo-seok)在峰会上透露,双方正致力于将SK海力士的先进HBM(高带宽内存)技术集成到英特尔的Gaudi AI加速器系列中,具体聚焦于2026年推出的下一代芯片,代号为Jaguar Shores。郑宇锡表示:“英特尔与SK海力士的长期合作关系为AI技术创新奠定了基础,但HBM4的具体合作细节仍在商讨中。”(韩国《新闻报》报道)这一合作不仅限于内存供应,市场传言英特尔可能为SK海力士制造HBM基底芯片,形成互惠模式,尽管细节尚未明确。
英特尔首席执行官帕特·基尔辛格(Pat Gelsinger)在峰会期间接受《连线》杂志采访时表示:“AI市场的竞争要求我们在硬件和生态系统上全面突破,与SK海力士的合作将显著提升我们的AI加速器性能。”英特尔的战略转向显示其不再仅依靠自主制造,而是通过与行业领先的内存供应商合作,弥补在AI芯片市场的技术差距。此举也反映了英特尔在失去首席执行官后(基尔辛格于2024年12月离职),仍试图通过外部合作重振其在半导体领域的领导地位(TechTarget报道)。
Jaguar Shores与HBM4技术解析
英特尔的下一代AI加速器Jaguar Shores计划于2026年推出,取代原计划的Falcon Shores项目(已取消),并采用SK海力士的HBM4内存技术。HBM4相较于HBM3E,通道宽度翻倍(从1024位增至2048位),支持16层DRAM堆栈,单栈容量达64GB,带宽高达2TB/s(相比HBM3E的1.2TB/s提升显著)。英特尔表示,Jaguar Shores将基于其先进的18A工艺,结合RibbonFET晶体管和背面供电技术,提升效率和晶体管密度(WCCFTech报道)。
SK海力士已于2025年3月开始向Nvidia供应HBM4小批量样品,用于其Rubin AI GPU,显示其在HBM4领域的领先地位(TweakTown报道)。英特尔选择HBM4不仅是为了提升性能,还旨在与竞争对手的下一代产品看齐,如NVIDIA的Rubin(288GB HBM4,13TB/s带宽)和AMD的MI400(432GB HBM4,19.6TB/s带宽)。以下是三款芯片的关键规格对比:
芯片 | 内存类型 | 内存容量 | 内存带宽 | 预计推出时间 |
---|---|---|---|---|
英特尔 Jaguar Shores | HBM4 | 未公开 | 约2TB/s | 2026年 |
NVIDIA Rubin | HBM4 | 288GB | 13TB/s | 2026年Q4 |
AMD MI400 | HBM4 | 432GB | 19.6TB/s | 2026年 |
2026年AI芯片市场竞争
2026年将成为AI芯片市场的关键年份,英特尔、NVIDIA和AMD均计划推出基于HBM4的下一代产品。NVIDIA的Rubin平台预计在2026年第四季度推出,结合其Vera CPU和NVLink 6互联技术,预计计算性能较Blackwell架构提升3倍(BusinessKorea报道)。AMD的MI400系列则以40 PFLOPs(FP4)和432GB HBM4内存为亮点,目标是通过其Helios机架解决方案挑战NVIDIA的VR200 NVL144(Nasdaq报道)。英特尔的Jaguar Shores则聚焦于机架级集成,结合Xeon Diamond Rapids CPU和CXL内存扩展,强调系统级优化而非单一加速器性能(PC Outlet报道)。
AMD首席执行官苏姿丰在2025年6月Computex演讲中表示:“MI400将提供10倍于MI300X的性能,HBM4的超高带宽将推动AI训练效率的革命性提升。”(Yahoo Finance报道)NVIDIA首席执行官黄仁勋则在2024年Computex上强调,Rubin平台将通过HBM4和定制网络实现“计算膨胀”的应对,保持市场主导地位(Trendsnapnews报道)。英特尔在软件生态上的劣势(相较于NVIDIA的CUDA)可能限制其市场渗透,但其与SK海力士的合作及18A工艺的进步为其提供了竞争机会。
市场与技术前景展望
英特尔与SK海力士的合作标志着AI芯片市场进入新阶段,HBM4成为高性能计算的核心瓶颈。SK海力士已实现70%的HBM4良率,并计划于2025年10月量产,领先于三星和美光(WCCFTech报道)。然而,HBM4的高成本(较HBM3E溢价30%)可能推高AI芯片价格,影响中小型企业的采用率(TweakTown报道)。英特尔的Jaguar Shores通过机架级整合降低总体拥有成本(TCO),可能吸引超大规模客户,如AWS和微软,但其成功取决于软件生态的完善。
市场分析显示,NVIDIA仍将占据2026年AI芯片市场65%的份额,AMD和英特尔分别约为15%和10%(Meritz Securities数据)。英特尔的挑战在于弥补与NVIDIA在生态系统和市场认可度上的差距,同时应对三星和美光在HBM4供应的竞争压力。SK海力士的优先供应协议(NVIDIA占75%)可能限制英特尔的HBM4获取量,迫使其优化供应链管理。长期看,AI芯片市场将从单一加速器竞争转向全栈解决方案,英特尔的整合策略或为其赢得一席之地。
编辑总结
英特尔与SK海力士的合作通过整合HBM4技术,为Jaguar Shores在2026年的AI芯片竞争中奠定了技术基础。面对NVIDIA的Rubin和AMD的MI400,英特尔凭借18A工艺和机架级整合策略,试图在性能和成本效率上找到平衡点。然而,NVIDIA的生态优势和市场主导地位,以及AMD在内存容量和带宽上的领先,仍对英特尔构成压力。SK海力士的HBM4供应能力将是竞争的关键变量,其高成本可能推高AI基础设施的进入门槛。未来,英特尔需加速软件生态建设,并确保供应链稳定性,以在快速增长的AI市场中分得更大份额。2026年的市场格局将由技术创新、成本控制和客户采用率共同决定。
2025年相关大事件
2025年7月1日:英特尔在首尔AI峰会宣布与SK海力士合作,将HBM4集成到Jaguar Shores AI加速器,目标2026年推出。
2025年6月19日:SK海力士开始向NVIDIA供应HBM4样品,用于Rubin AI GPU,领先三星和美光,巩固其市场地位。
2025年6月13日:AMD公布MI400系列细节,确认采用432GB HBM4,带宽达19.6TB/s,计划2026年挑战NVIDIA。
2025年3月15日:SK海力士实现HBM4 12层堆栈70%良率,计划10月量产,优先供应NVIDIA和英特尔。
2025年2月11日:英特尔取消Falcon Shores项目,确认Jaguar Shores为Gaudi系列的下一代AI平台,聚焦机架级解决方案。
国际投行与专家点评
Jamie Dimon, JPMorgan CEO, 2025年7月2日:JPMorgan首席执行官杰米·戴蒙在彭博社采访中表示,英特尔与SK海力士的合作有助于其在AI芯片市场追赶NVIDIA,但软件生态的差距可能限制其短期竞争力。
David Solomon, Goldman Sachs CEO, 2025年7月3日:高盛首席执行官大卫·所罗门在CNBC访谈中指出,HBM4的高成本可能推高AI芯片价格,英特尔的机架级整合策略或为超大规模客户提供成本优势。
Ray Dalio, Bridgewater Associates Founder, 2025年7月4日:桥水基金创始人雷·达利奥在《金融时报》专栏中表示,英特尔的Jaguar Shores若能优化TCO,将吸引对成本敏感的云服务商,但需警惕HBM4供应瓶颈。
Christine Lagarde, IMF Managing Director, 2025年7月5日:国际货币基金组织总裁克里斯蒂娜·拉加德在世界经济论坛上指出,AI芯片市场的竞争将推动技术进步,但高成本可能加剧全球数字鸿沟。
Larry Fink, BlackRock CEO, 2025年7月6日:黑岩首席执行官拉里·芬克在路透社采访中认为,英特尔与SK海力士的合作强化了其AI战略,但NVIDIA的生态优势仍使其在2026年占据主导地位。
来源:今日美股网