作者 | 胡新周

在商业史的长河中,每一次底层技术的跃迁,都会倒逼整个工业体系的重构。

19世纪末,第一辆汽车驶上街头,彻底重塑了钢铁、橡胶与精密制造的供应链逻辑。2007年,第一代iPhone问世,将原本分散的通信、娱乐与计算能力整合成了一个高度协同的“智能终端”。

今天,AI产业正站在一个相似的十字路口。

过去两年,大模型的爆发让市场一度陷入对算力规模与模型参数的盲目追逐。但当AI从实验性的尝鲜走向核心业务的深水区,人们发现,单纯的技术堆砌并未带来预期的生产力跃迁。相反,芯片厂商卖算力、云厂商卖资源、模型公司卖接口的“层级供给”模式,显得笨重而低效,让大量AI项目陷入了“拼积木”式的集成窘境。

这种焦虑,催生了市场对确定性的渴望,也让企业需求发生了本质变化:它们需要的不再是一堆零散的“算力拼图”,而是高活跃、高价值、规模化的智能体应用。

而在智能体时代,决定应用能否规模化落地的关键,已经从单纯的算力供给转向了“Token效率”。当智能体成为业务的核心载体,每一次调用的成本、响应速度与准确性,直接影响了商业模式的效率。

由此,云厂商的核心竞争力也正在发生根本性转变:云服务必须被重新定义,成为一套能支撑智能体大规模运行、持续进化、安全可控,且具备极致Token效率的全栈AI基础设施。

5月13日,百度智能云在以“万物一体”为主题的百度Create大会上提出的“新全栈AI云”,正是对这一时代命题的回应。

会上,百度创始人李彦宏首次提出AI时代的“度量衡”——日活智能体数(DAA)。

在他看来,Token不一定代表终局,它只代表成本不代表收益,衡量的是投入而非产出;DAA则大致对应移动互联网时代通用的度量衡日活用户数(DAU)。“衡量一个平台和生态的繁荣,更应该看的是DAA这个指标,关注有多少Agent在给人类干活,并交付结果。”李彦宏还预测,未来全球日活智能体数(DAA)可能超过100亿。



这是针对Token效率的另一个解法,而百度也准备了自己的答案。当天,百度智能云宣布面向大规模智能体全面升级为新全栈AI云,打造单位Token的智能水平更好的Agent Infra和每瓦性能更强、性价比更高的 AI Infra。

与传统的“组装式”云架构不同,“新全栈”强调芯片、框架、模型与应用在指令集级别的原生对齐,旨在消除跨层级调用的摩擦损耗,为企业构建一个具备长期记忆、工具调用能力与安全围栏的“智能体基础设施”(Agent Infra)。

这并非一次简单的产品升级,而是一场深刻的范式转移。

新需求催发新供给

在承接全球各地海量订单的“世界超市”义乌,每一个想把AI嵌入生产销售的厂长都不得不花大量时间进行“粘合”:针对不同环节的问题分别训练模型,再把识别规则、处置流程逐个配置到每个摄像头上。

这是AI 1.0时代的一个典型缩影。

传统云服务采用高度分层的架构:芯片层负责计算,框架层负责调度,模型层负责推理,应用层负责交互。这导致在很长一段时间,企业对AI云的认知和需求是碎片化的,就像工业时代的零件采购——从不同的供应商那里购买服务器、租用存储空间、调用API接口,自己组装、调试,最终拼凑出一个能跑的系统。

但在智能体成为主流的AI 2.0时代,这种“拼图”失效了。

与传统AI应用不同,智能体是整合式的,它能基于简单的自然语言指令,自主拆解并执行综合性的复杂需求。这种变革极大地降低了业务端的摩擦成本、提升了效率,但也对后端服务提出了前所未有的高要求:一个能支撑其大规模并发、持续进化且安全可控的全栈AI基础设施。

当前仍停留在“组件售卖”阶段、零散式供给的云服务,与智能体的系统性需求之间,存在着巨大的错位。

就像一家汽车制造商,从A公司买引擎,从B公司买变速箱,从C公司买底盘,再找D公司来调校悬挂系统。即便每一个零件都是顶级的,整辆车的性能也往往难以达到极致,因为缺乏底层的系统性协同。

在AI领域,这种协同缺失直接表现为算力的浪费和响应速度的迟滞。

智能体在执行任务时,需要在模型、记忆库、工具链之间进行成千上万次的跳转。如果底层基础设施不能实现“芯-模-端”的无缝打通,每一层之间都有兼容损耗、通信延迟和优化瓶颈,每一次跳转都是一次性能的磨损,导致协同效率低下、资产沉淀困难、运维成本高昂。

就像让F1赛车手开拖拉机,哪怕“大脑”再聪明,也很难跑得快。

换句话说,当AI深入各种复杂的应用场景,企业需求从技术单点突破进化为系统重构。新的需求催发新的供给,而新供给背后需要的是一种全新的能力——从层级堆砌转向全栈协同。

这正是百度智能云提出“新全栈”的逻辑起点:不是简单的资源集合,而是一个经过深度优化的“智能有机体”。



过去,全栈能力是AI云厂商的标配,但往往呈现为“分层割裂”的状态,芯片研发、云底座、训练模型、智能体开发,各层之间存在明显的边界。

“新全栈”彻底打破了这种孤岛模式和层级壁垒,将复杂的工程细节封装在底层,让AI像一个“智能器官”一样无缝嵌入企业的业务场景。企业只需要关注业务逻辑本身,就能实现智能体的快速迭代和规模化部署。

比如,通过百度智能云最新发布的一见Claw和智能营销Hogee,每一个义乌商家都可以拥有专属的“AI厂长”和“AI店长”。

AI厂长负责安全生产、质量管理、人员管理等,能独立完成现场感知、判断、干预、汇报;AI店长则不光能熟练使用多种语言承担客服、导购工作,还能帮商家复盘销售数据,结合库存给出调货、促销建议,进行订单的全流程管理。

再比如,在国家电网的巡检领域,传统AI识别准确率只有五六成,一线人员要从大量无效警告中筛查真实缺陷,费时又费力。百度智能云用智能体重新设计了这个流程:小模型在现场初盘,大模型在云端复判,将巡视时间从2.5小时压缩到了45分钟,而且准确率提升到了80%以上。

而在必须跨过数据、模型、本体这三座大山的具身智能赛道,百度智能云提供从算力、平台工具链、数据服务、语音交互、安全等的全栈能力,且即将推出“规模化训练-评测-反馈”的闭环系统,为北京人形、宇树等具身智能企业打造全模态、全链路的模型开发工具链。

这也是为什么,在具身智能AI云市场,百度智能云的份额超过第二、第三名之和。

这些案例足以表明,当前企业需要的不再是孤立的资源,而是一套安全可控、快速迭代的系统性底座,让AI能力从“实验室demo”真正转化为“生产线产能”。

新全栈的本质,就是为企业打造这样一套完整的“数字神经系统”。

“大脑”“心脏”与“神经”的完美协同

如果说大模型是AI的大脑,Agent Infra(智能体基础设施)就是遍布全身的“神经系统”,负责感知、记忆和协调动作。

百度Create大会公布了Agent Infra的两大升级:

首先,原有的“MaaS模型服务”已升级为“Token Factory词元工厂”。以Agent-first理念重构产品架构,尽可能减少token重复计算,推理生成速度较市场水平提升约25%。支持文心、DeepSeek、GLM、MiniMax等国产主流模型的调用,提供更具性价比的token服务。

其次,宣布推出“Harness Engineering驾驭工程”,覆盖长上下文管理、持久记忆、工具调用、子智能体调度、评估反馈及Runtime等能力模块,并对各模块进行深度协同优化,在使用浏览器、Office等工具来处理办公场景上的任务时,成功率可以达到95%。

得益于更优的上下文管理,做同样的任务,需要的对话轮次会更少,相比OpenClaw,可以减少23%的token消耗。

这两项升级之后,每一次Token消耗,都转化成更高的业务价值。

而在AI Infra(人工智能基础设施)层面,作为负责泵血的“心脏”,百度智能云在模型训推、集群和数据中心建设等层面实现突破性进展,可以提供性能更强、更具性价比的AI算力服务。



在推理和训练层面,通过对显存、内存到SSD的分层池化架构,使KV Cache命中率超过90%,达到业界最高水平。另外,结合AFD分离、PD分离、缓存调度等优化方案,长链路Agent推理性能较主流开源社区引擎提升3倍。通过提供全模态统一训练框架,让训练效率领先社区1倍以上,且可以100毫秒内拉起大量沙箱环境,提升强化学习的采样效率,将Agentic模型强化学习效率提升了1倍以上。

在支撑训推的算力硬件方面,目前昆仑芯P800已完成规模化验证,2025年至今已交付多个万卡集群。在昆仑芯全国产集群上,已成功完成对文心5.1重要版本的训练,整个集群的有效训练率达到97%,万卡规模集群线性扩展度超过 85%,已经可以满足前沿大模型大规模训练对计算精度、算子稳定性、框架适配和长周期运行的要求。

此外,基于昆仑芯的天池256卡超节点已经在上个月点亮,将于6月正式上市,吞吐性能较上一代提升25%,并完成包含文心、DeepSeek、GLM、MiniMax等主流模型的适配,推理效率提升50%,网络架构升级至HPN5.0,端到端时延优化50%,支持按需搭建数十万卡乃至百万卡超大集群。

Create大会当天,百度智能云也公布了吉瓦级AIDC升级,通过"网络向心布局"设计理念,让计算与网络距离最短,最大限度提升计算效率,规模化落地风液兼容架构,让数据中心的整体建设周期缩短约30%。

新全栈的核心竞争力,不在于单一组件的强大,而在于内部深度耦合带来的系统性优势。

通过自研芯片、框架、模型、应用的四层全栈打通,百度智能云消除了跨层级调用的摩擦,实现了性能与成本的最优解。就像一个人的大脑直接控制肌肉,无需经过复杂的中间环节,反应速度更快,能量损耗更低。

这种供给方式的进化,让AI云厂商能够以更低的门槛、更高的迭代速度,去适配从工业检测到创意写作、从自动驾驶到金融风控的万千场景。它不再是让客户去适应技术层级,而是让整套全栈能力像一个“智能器官”一样,自动长入客户的业务场景中。

在这种一体化架构下,AI不再是需要持续投入巨额费用的成本中心,而是将每一次Token的消耗、每一个智能体的运行,都沉淀为可复用的数字资产。随着使用时间的推移,这些资产会不断增值,形成企业的核心竞争力。

在 AI 2.0时代,谁能让“大脑”“心脏”与“神经”完美协同,能就打造出真正具有生命力的“数字员工”。

为什么是百度?

在AI 2.0的浪潮中,无数云厂商都在谈论“全栈”,但真正能兑现这一承诺的寥寥无几。百度智能云之所以能成为这场范式转移的领跑者,背后是十数年的长期沉淀。

早在2010年,百度便开始布局深度学习,远早于本轮大模型热潮。2016年,李彦宏提出“All in AI”战略,两年后昆仑芯正式量产。2023年,随着大模型爆发,百度进一步确立“AI原生”的方向。这条清晰的时间线,见证了从技术探索到产业落地的完整闭环。

长达十余年的持续投入,使得百度在算法、算力、数据等核心要素上积累了深厚的复利。即使放到全球来看,在芯片(昆仑芯)、云(新全栈AI云)、模型(文心)、应用(智能体)这四个层面均拥有核心自研技术的公司也十分少见。

与集成开源模型、采购通用芯片、快速搭建平台的“捷径”相比,这无疑是一条更艰难、但更坚实的道路。



今天的“新全栈AI云”,正是百度这十年来深度布局带来的敏锐“嗅觉”,从而察觉到智能体时代需求与供给的转变。它不是单一技术的突破,而是上述四层能力在长期磨合后“身心合一”的系统性爆发,也是百度在AI时代难以复制的生态位。

更重要的是,“新全栈AI云”正在重塑云服务的价值逻辑——从卖资源转向卖能力,成为高效生产更强智能体的通用底座。

通过极致的工程优化提升Token效能,让每一瓦电力都转化为更精准的推理与更低的成本,无论是企业构建复杂的工业智能体,还是独立开发者打造个人助理,都能依托同一套基础设施,实现从“租算力”到“养数字员工”、从“一次性交付”到“资产沉淀”的跨越。

这种转变,使得百度智能云能够从低频的资源租赁,转向高频、高粘性、普惠的智能进化服务。

这意味着,“新全栈”不仅仅是技术的堆叠,更是一种服务理念和开发范式的重构。

到目前为止,百度智能云已经在超过100个场景落地了智能体,支持超2000万辆L2级辅助驾驶新车交付,接入500万台智能家电,服务全球Top 10手机厂商、超1000家AI硬件厂商和80%的央企,在工业制造、智慧能源、交通物流、医药医疗、金融等行业持续深耕。

在这些庞大的产业版图之外,百度智能云的AI基础设施也正在悄然重塑小微企业主的生产力边界,赋能无数个“超级个体”的崛起。

通过AI原生应用开发平台秒哒,用户无需编写复杂代码,用自然语言描述和拖拽组件等方式,即可构建自己的AI智能体应用。从独立咨询师打造的自动化研报助手、设计师构建的多模态创作流,到把货卖到世界各地的义乌小微商家,智能体正在成为个体的“数字分身”,让他们以一人之力兑现以往需要一个团队才能完成的交付价值。

这种“事实标准”一旦形成,将产生很强的网络效应、增加迁移成本。

据沙利文报告,百度智能云在中国自研GPU云市场占据40.4%的份额,排名第一。在国际权威机构Forrester的评估中,百度智能云在产品能力维度得分领先,战略布局获得满分评价。

在AI 2.0时代的竞争中,谁定义了Agent的开发标准、记忆格式和安全规范,谁就掌握了下一代操作系统的入口,甚至有机会成为中国AI时代的Windows和Android。

▌结语

短期的技术热点层出不穷,但真正的赢家,往往是那些坚持长期主义、深耕底层技术的公司。

百度智能云的新全栈战略,并非一时的营销口号,而是十年技术积累的必然结果:通过全栈自研消除层级间的摩擦,通过生态沉淀构建了难以复制的壁垒,通过战略升维重新定义云服务的价值。

它打破了算力、模型、应用之间的传统边界,让智能体像“流动的逻辑”一样,无缝融入企业的业务流程。

在AI 2.0时代,技术将逐渐隐形,而智能将变得无处不在。百度试图绘制的“万物一体”产业智能化途径中,每一家企业都将拥有自己的“智能中枢”,每一次决策都将基于全局数据的实时洞察,每一次创新都将得益于系统协同的高效赋能。

这不仅是技术的胜利,也是AI从试水走向深耕的必然归宿。