智通财经APP获悉,聚焦于大型AI数据中心定制化AI芯片(即AI ASIC),以及作为亚马逊AWS Trainium系列AI ASIC最大规模合作伙伴之一的迈威尔科技(MRVL.US)于北京时间3月6日美股收盘后公布全线超华尔街预期的业绩报告与未来展望。迈威尔最新公布的无比强劲业绩与展望,叠加此前一天更大市场规模的AI ASIC霸主博通(AVGO.US)炸裂式增长的业绩数据,可谓共同凸显出随着AI推理时代全面来袭,在存储芯片持续强劲需求、云端AI推理算力需求激增以及聚焦将AI大模型嵌入企业经营的“微训练”趋势之下,性价比更高AI ASIC算力系统对于英伟达近乎90%市场份额的AI芯片垄断地位发起强有力冲击。

财报数据显示,迈威尔科技截至1月31日的 2026 财年第四季度营收约 22.2 亿美元,创下历史新高营收数据,实现同比增长超20 %,略高于华尔街分析师们平均预期的约 22.1 亿美元。第四财季调整后每股收益(Non‑GAAP EPS)则为0.80 美元,超出华尔街平均预期的约 0.79 美元,以及上年同期的0.60美元。GAAP准则下的营业利润实现4.044亿美元,意味着同比大幅增长72%,高于华尔街平均预期;同期归属于普通股股东的净利润约 3.961 亿美元,意味着同比大幅增长约 97.9%。

其中, 与AI训练/推理超级系统密切相关联的数据中心业务为迈威尔科技足足贡献约16.5 亿美元营收,占总营收比例约 74%,实现同比增长约 21%,环比则在上一季度强劲基数基础上增长9%。该公司在业绩声明中强调,其数据中心业务的订单量正以“创纪录的速度”增长。公布财报后,迈威尔科技股价在美股盘后一度暴涨超15%。

市场聚焦的业绩展望方面,迈威尔CEO预计本财年营收将实现同比增长层面的“进一步加速”。迈威尔科技的管理层给出的2027 财年第一季度营收指引中值约24 亿美元,显著高于分析师们平均预期约 22.7 亿美元——要知道该项业绩预期自1月底开始谷歌、亚马逊、英伟达等美国超级科技巨头们公布强劲业绩以来可谓不断被上调,即使这样迈威尔给出的官方展望仍然强于不断上修后的分析师预期,足以见得全球AI ASIC技术路线的AI算力基础设施需求究竟有多么炸裂,迈威尔以及ASIC领域领军者博通业绩仍将处于2024年以来的“英伟达式”炸裂式增长轨迹。


该公司给出的Non-GAAP基准下调整后的每股收益区间为0.74美元至0.84美元,区间中值显著高于华尔街分析师平均预期,Non-GAAP毛利率预期区间则为58.25%至59.25%,同样高于分析师平均预期。

在迈威尔科技公布强劲业绩与未来展望的前一天,AI ASIC超级霸主博通公布的业绩数据显示,博通总营收增至193亿美元,意味着同比大幅增长29%,博通表示,在此期间的与AI密切相关联的营收翻番,达到84亿美元,增速远快于公司此前预期,包括AI ASIC与智能手机射频芯片等半导体业务营收的Q1半导体解决方案营收高达125.15亿美元,同比大幅增长52%。

在上述的这份博通业绩报告中,最为重磅的是,博通CEO称明年围绕AI ASIC的“AI芯片”相关营收将突破1000亿美元。博通最新的与“AI芯片”有关的1000亿美元营收目标,既包括与英伟达主导的AI GPU激烈竞争的“AI ASIC算力集群”营收,也包括AI networking 芯片产品——即高性能以太网交换机芯片营收。因此两大ASIC领军者博通与迈威尔业绩可谓共同强化了这样一种“AI ASIC牛市叙事逻辑”:随着谷歌、亚马逊以及微软等云计算巨头们纷纷发起“AI算力成本革命”以加速推进AI ASIC渗透规模,推理时代的核心竞争不再只是“峰值算力”,而是每token成本、功耗、内存带宽利用率、互连效率,以及软硬件协同后的总拥有成本,在这些核心指标上,面向特定工作负载定制的数据流、编译器和互连的ASIC,天然比通用GPU更容易做到高性价比。

TIPRANKS汇编的目标价显示,在华尔街,分析师们对于迈威尔科技的AI芯片与SSD存储芯片主控业务创收前景可谓极度乐观——分析师共识评级“强力买入”,未来12个月平均目标股价则高达118美元,意味着股价潜在上行空间高达56%。


AI ASIC与SSD存储主控芯片,携手驱动迈威尔业绩猛增

从当前全球AI基建建设超级浪潮的角度来看,迈威尔科技的这份强劲业绩主要受益于数据中心基础设施半导体(尤其是定制AI ASIC / 高性能通信与控制芯片 /数据中心级别eSSD存储主控制芯片)需求的全面爆发。迈威尔科技近年来的强劲营收增长轨迹在很大程度上来自于数据中心业务,尤其是面向云计算服务提供商们与超级计算平台提供的AI ASIC定制化AI芯片、高带宽网络芯片、互连解决方案与SSD存储控制器等产品,这类产品与AI训练/推理平台密不可分。其数据中心营收占比不断提高,且增长率显著高于公司整体。

迈威尔科技长期以来聚焦于加速更新迭代定制化AI ASIC芯片技术、网络处理器 (DPUs/NPUs)、SSD主控制器与高带宽互连产品,这些产品在超大规模AI模型训练、推理任务以及天量级别数据流存储与处理中的需求随着全球AI算力需求指数级扩张而迅速增长。针对超大规模数据中心客户的定制化硅片设计不再是边缘业务,而是全球芯片公司的核心增长引擎之一。

亚马逊AWS官方明确将其与迈威尔联手打造的AI ASIC算力集群—— Trainium/Inferentia 定位为面向生成式AI训练与推理的专用加速器,其中Trainium2相比其AI GPU云实例给出约30%–40%更优价格性能;而谷歌此前不久也已公开表示,Gemini 2.0 的训练和推理100%运行在TPU上。这些说明“超大云计算厂自研商用ASIC承接核心模型训练/推理”已不再是概念验证,而是在进入可复制的产业化阶段。

博通与迈威尔最新公布的强劲财报足以说明AI ASIC前所未见的强劲增长逻辑正在被“财报级证据”快速确认。席卷全球的生成式AI热潮加快了云计算与芯片巨头们的AI芯片开发进程,它们正争相为先进的大型AI数据中心设计速度最快且能效最为强劲的AI算力基础设施集群。博通及其最大竞争对手迈威尔公司主要聚焦于利用自身在高速互联和芯片IP领域绝对优势来携手亚马逊、谷歌和微软等云计算巨头们共同打造出根据其AI数据中心具体需求量身定制的AI ASIC算力集群,而这项ASIC业务已经成长为两家公司的一项非常重要业务,比如博通联手谷歌所打造的TPU AI算力集群就是一种最典型的AI ASIC技术路线。

迈威尔强劲业绩,叠加全面受益于“存储超级周期”的三大存储芯片原厂——三星、SK海力士与美光此前公布的业绩共同凸显出,高性能存储控制器 / SSD主控芯片持续成为“隐性算力”核心驱动力。在大模型训练/推理体系中,I/O带宽、持久存储访问效率与内存池互联效率同样约束整体训练成本与性能,迈威尔科技的SSD主控芯片、NVMe/CXL缓存控制器以及高带宽存储互联产品线正是波段需求增长的重要组成。这些高度专用控制ASIC虽不像指数级扩张的AI ASIC业务那样显眼,但其对超大参数AI模型的数据态处理至关重要,直接推动数据中心层级的系统效率与服务质量。

站在半导体与 AI 数据中心基础设施的交叉分析视角,SSD存储芯片之所以“完美卡位”AI超级大浪潮,是因为它同时吃到训练扩张与推理扩张两条主线,而且它还是跨平台、跨架构、跨生态的“通用收费站”。当AI时代从训练主导转向推理、Agent、长上下文、检索增强主导时,系统对容量、带宽、功耗效率和数据持久层的需求只会更强。AI数据中心极度依赖的存储系统,从来不只HBM,在摩根大通等机构看来,随着AI工作负载从训练向推理转移,以及HDD在近线存储领域的供应瓶颈,聚焦于企业级存储热层的NVMe eSSD正迎来前所未有的结构性增长。

在人工智能数据中心无比强劲需求的推动下,DRAM/NAND系列存储价格将继续飙升。法国巴黎银行(BNP PARIBAS)近日发布研报称,DRAM合约价在2026自然年一季度料环比大涨90%,长期以稳健价格曲线著称的NAND则有望大幅上涨55%,而且二季度将延续自2025年下半年以来的涨价轨迹。

法巴银行对于存储价格的涨势判断并不是孤立观点。TrendForce最近将2026年第一季度的常规DRAM合约价预期从此前预估的季增55%-60%上修到+90%至+95%(QoQ,即环比基准)、NAND Flash合约价格则大幅上修到+55%至+60% QoQ,并指出北美云计算厂商们对enterprise SSD(即数据中心企业级SSD,eSSD) 的需求激增,推动其价格在第一日历季度还将再扩张,有望大涨53%至58% QoQ。

随着AI推理大浪潮席卷全球,属于AI ASIC的黄金时代到来

迈威尔科技的首席执行官马特·墨菲在业绩声明中表示,这家定制化芯片设计巨头在2026财年赢得的客户定制芯片设计订单数量创下纪录,他预计这种情况还将继续。墨菲表示,由于“数据中心业务持续强劲增长”,预计本财年总体营收将实现同比增长“进一步加速”。他还补充表示,数据中心业务的预订量正以“创纪录的速度”加速增长。

英伟达AI GPU几乎垄断的AI训练侧需要更加强大的AI算力集群通用性以及整个算力体系的快速迭代能力,而AI推理侧则在前沿AI技术规模化落地后更看重单位token成本、延迟与能效。比如谷歌明确把Ironwood定位为“为AI推理时代而生”的TPU代际,并强调性能/能效/算力集群性价比与可扩展性。不过亚马逊最新的行动证明了AI ASIC可能具备训练大模型的强大潜力。

AI ASIC算力体系无疑会在中长期持续削弱英伟达的垄断溢价与部分市场份额,而不是线性取代GPU体系,根本的底层原因在于,推理时代的核心竞争不再只是“峰值算力”,而是每token成本、功耗、内存带宽利用率、互连效率,以及软硬件协同后的总拥有成本。在这类指标上,面向特定工作负载定制的数据流、编译器和互连的ASIC,天然比通用GPU更容易做到高性价比。未来AI数据中心更可能发生的是:前沿训练和广义云算力继续由 GPU 主导,超大规模内部推理、Agent 工作流和固定高频负载则加速转向 ASIC,数据中心进入真正的异构算力时代。

前沿训练时代,AI领域最需要的是通用性、软件成熟度、快速适配新模型结构,所以GPU天然占优;但当行业开始从“训练稀缺”走向“推理规模化、Agent化、长上下文、低时延”时,核心KPI会从“最高峰值算力”全面转向每token成本、每瓦吞吐、系统级 TCO。这正是 hyperscalers(云计算超级巨头们)ASIC集体加速的根本原因。

比如,谷歌把 Ironwood TPU 明确定义为面向“推理时代”的最佳算力集群,并可扩展到9,216颗芯片;微软把新推出的AI ASIC Maia 200 直接定位为面向云计算推理领域的加速器,并声称较其现有最新一代硬件实现 30%更强劲的performance per dollar;AWS则把 Trainium3 定义为追求“最佳token经济学”的芯片,主打4倍以上能效提升,共同说明随着云计算巨头们发起“AI算力成本革命”以推进AI ASIC渗透规模,市场对于英伟达增长前景的担忧是正确的。