Nvidia GTC 2026:黄仁勋预测收入万亿,一键“养虾”搞垮底层基础设施

北京时间3月17日凌晨,英伟达CEO黄继勋在GTC 2026大会上发表了两个半小时的演讲。这一事件并没有令资本市场失望。黄仁勋实地提出了明确的财务预期。到 2027 年,Nvidia 的旗舰计算芯片将产生 1 万亿美元的收入。 1万亿美元是什么概念?这将对全球 IT 基础设施预算产生重大影响。为了证明这不是神话,Nvidia 推出了一系列产品,其中包括 Vera CPU、Groq 3 LPX 推理机架和 NemoClaw 企业级代理平台。通过对基本参数的分析,黄仁勋在 GPU 上实现了独立销售,并致力于完成支持未来数字经济的基础设施以及软件和硬件的协作。一、改变记账逻辑:从数据中心到“代币工厂” 黄仁勋在hi中强调的中心点他的说法是“过去用于存储和分发信息的数据中心已经成为历史。”在生成式AI时代,计算节点成为生成AI推理代币(代币)的“工厂”。既然我们是工厂,核心问题就是如何降低单位产品的制造成本。这正是 NVIDIA 的核心硬件变体 Groq 3 LPX Inference Rack 在本次 GTC 大会上诞生的原因。过去,企业使用通用GPU对大型模型进行推理,但成本仍然很高。目前,NVIDIA正在向专用核心迈进。 GPU 负责使用并行计算功能预加载大型模型。 Groq 3 LPX 机架具有 256 个 LPU(语言处理单元)、128 GB 片上 SRAM 和 640 TB/s 带宽,专门用于低延迟令牌解码。这种分工将系统的推理性能和功耗比提高了 35 倍。这意味着 NVIDIA 显着提高了系统的推理性能和功耗比。通过底层架构的调整降低代币生成成本,改变AI行业的收入模式。 2.扩大基础设施:为“数字劳动力”建设信息高速公路 明确“代币工厂”的定位后,黄仁勋提出了人工智能的“五层架构”(电力、芯片、基础设施、模型、应用),本质上是一个类似于电气化转型的基础设施项目。通过这个构建,未来的企业软件将彻底过渡到“AI Agent”。然而,对于智能代理来说,要真正干预公司的业务,他们需要具备“在长期背景下进行推理”的能力。简单来说,目标是让AI能够快速读取和处理数十万字的企业财务报告和复杂代码,同时保持系统稳定性。为此,NVIDIA 推出了用于智能代理的定制 Vera CPU(计算效率比传统处理器高 2 倍,速度快 50%)传统机架),以及全新的BlueField-4 STX存储架构和Spectrum-6 SPX光电互连系统(采用CPO共封装光技术,光功率效率高)。 (网络可靠性提高 5 倍和 10 倍)。这些打击的结合相当于预先安装了高带宽信息高速公路,为未来海量的人工智能数据流做好准备。 3、软件标准与生态侧翼:业务层面的“蝗虫”是谁定义的?在安装了硬件之后,英伟达抓住了这一趋势,并利用软件生态系统来加固自己的壁垒。近两个月来,开源智能OpenClaw(网络上俗称“龙虾”)风靡全球,但其较高的采用门槛和内网安全风险让不少企业持观望态度。当中国市场还在争论如何减少“龙虾”时设置时间从6小时减少到10分钟以及如何平衡执行效率和安全性之间的界限,NVIDIA直接提供了企业级解决方案。这就是 NemoClaw 智能代理基础设施的推出。 NemoClaw帮助企业“一个命令”部署AI代理,并内置路由机制、内网隐私数据和安全沙箱。为了使用该平台,NVIDIA 与领先的研究机构合作,发布了具有 1200 亿个参数(120 亿个激活参数)的开源 Nemotron 3 Super 模型。它专为运行复杂的代理系统而设计,可将性能提高多达五倍。这是严格的生态卡位。 NVIDIA 手中已经掌握了这些代理的编程规则和安全限制,以及图形渲染标准(最近发布的 DLSS 5 技术被称为图形界的“GPT 时刻”)。了解了上面的结构之后,我们回到Hwang仁勋一开始的“1万亿美元”财务预测。 NVIDIA所做的不仅仅是销售“发电机”(算力芯片),还修复“传输网络”(互连、光学和存储架构),甚至制定“电气设备”(企业级智能代理平台)的接口标准。同时,大会还推出了Space-1 Vera Rubin太空计算舱,将算力网络延伸至近地轨道。随着我们进入智能代理时代,全面渗透到人类的整个物理和软件基础设施,“一万亿美元”的承诺将不再是一句空洞的口号。它会消失。附:NVIDIA GTC 2026核心软硬件发布报告 1、Vera Rubin核心算力及处理器平台:新一代AI Factory平台,包括七款全新芯片,正在全面开发中。 Vera CPU:全球首款为智能体人工智能定制的处理器智力和强化学习。计算效率是传统机架级CPU的两倍,执行速度快50%。 Groq 3 LPX 推理框架:具有 256 个 LPU(语言处理单元),提供 128 GB 片上 SRAM 和 640 TB/s 带宽。通过“GPU+LPU”组合,推理性能与功耗比提升35倍。 2. 存储基础设施和数据互连 BlueField-4 STX 存储架构:专门为解决智能体所需的“长上下文推理”数据性能问题而设计的模块化参考架构。 Spectrum-6 SPX 光电互连:采用 CPO(封装光学)技术,将光功率效率提高 5 倍,将网络可靠性提高 10 倍。 3、企业软件和模型生态 Nemotron 3 Super Model:专为复杂智能代理系统设计的1200亿参数(120亿激活参数)的大规模开源模型性能提升 5 倍。 NemoClaw 代理平台 – 企业级 OpenClaw 基础设施。它支持通过单个命令部署AI代理,并集成安全沙箱和隐私路由功能。 4.最先进的场景和图形渲染空间计算模块Space-1:轨道和卫星数据中心(ODC),支持在轨实时推理和边缘计算。 DLSS 5图形技术:实现生成式AI来细化图像像素,并显着降低本地渲染处理的功耗。它被官方认为是自 2018 年实时光线追踪(“GPT 时刻”)以来计算机图形学领域最大的进步。(本文首发于钛媒体应用。作者 | 硅谷 Technews,编辑 | 秦从辉)
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息发布橙汁服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。

admin

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注