英伟达悄悄做大的“第二引擎”:AI时代里,网络业务为何开始抢戏

4次阅读

导语:过去两年,围绕英伟达的讨论几乎都集中在GPU上:谁拿到更多算力、谁排到更长交付周期、谁在新一代训练集群里领先一步。但在这条熟悉叙事之外,英伟达另一个业务线正在快速长大——数据中心网络。它不那么“上头条”,却越来越像AI基础设施里的关键变量。

背景:从“配角”到增长核心
根据TechCrunch 3月18日报道,英伟达网络业务在最近一个季度收入达到110亿美元,同比增长267%,全年超过310亿美元,已成为仅次于计算业务的第二大收入来源。这个体量意味着,网络不再只是“把服务器连起来”的附属品,而是开始与芯片一起定义AI集群效率。

这条业务线的转折点,可以追溯到2020年收购Mellanox。彼时外界更多把这笔交易当作补足产品拼图,如今看更像一次提前下注:当AI训练规模进入“万卡时代”,数据在GPU之间如何传输,几乎和单卡性能同等重要。模型训练卡在通信瓶颈时,再强的芯片也会被拖慢。

核心信息:英伟达卖的不是单点产品,而是整套“AI工厂”
这次报道里一个很值得注意的细节是,英伟达把网络能力放在“全栈方案”中卖,而不是单独卖某个交换机型号。NVLink、InfiniBand、Spectrum-X以太网、光互连方案,与计算平台一起被打包成“AI工厂”架构。换句话说,英伟达正在把“芯片公司”升级为“系统公司”。

这种策略有两个现实意义。第一,客户在扩建AI数据中心时,采购决策从“选最强芯片”变成“选最稳定、可扩展、调优成本最低的整套系统”。第二,生态锁定会更强:一旦算力层和网络层深度耦合,迁移成本会明显上升,后续扩容往往会沿着同一技术路线继续投入。

影响分析:竞争的主战场正在从芯片单项赛变成系统马拉松
对于云厂商和大型模型公司来说,这不是一个“懂不懂网络”的技术细节,而是直接影响训练吞吐、推理延迟和总体拥有成本的经营问题。未来一段时间,谁能把算力、网络、软件调度和运维工具整合得更顺,谁就可能拿到更多企业级预算。

更深一层看,英伟达网络业务的增长,也会倒逼竞争对手调整打法。单纯比拼芯片峰值参数很难打穿市场,必须在互连协议、交换架构、光通信以及系统软件上同步补课。AI基础设施行业会从“单点爆款时代”走向“整体工程时代”。

结语:被低估的网络,正在成为AI时代的硬通货
英伟达网络业务这波上行,提醒了所有关注AI的人:决定下一阶段产业格局的,可能不只是更快的芯片,还有更高效的数据流动。对于企业决策者来说,未来评估AI投入时,别只看算力价格曲线,也要看网络架构是否能支撑三年后的规模化需求。

来源链接:
1) TechCrunch 原文:https://techcrunch.com/2026/03/18/nvidia-networking-division-building-a-multibillion-dollar-behemoth-to-rival-its-chips-business/
2) Nvidia 财报新闻稿:https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2026

正文完
 0