
英伟达 GTC 2026 很不寻常,黄仁勋迟到了 15 分钟。
本年有 450 家企业扶植、1000 场本领分会、2000 位演讲者、110 台机器东谈主,这么的鸿沟还是不像一场本相识议,更像 AI 行业的年度朝圣。
皮衣老黄站在舞台中央,给与了新称呼" Token 之王"。

此次他莫得直奔芯片发布,而是花了整整一个小时,从 25 年前的 GeForce 游戏显卡讲起,讲到 20 年前的 CUDA,讲到 10 年前的 RTX 渲染本领,讲到云探讨相助伙伴,再讲到今天的爆火 OpenClaw 和 token 经济。
AI 从感知到生成到推理再到推论,每一步皆需要生成更多 token,浮滥更多算力。
整个这一切铺垫,只为引出一个数字:
英伟达到 2027 年营收瞻望至少达到 1 万亿好意思元。
旧年 GTC 上,我看到了 5000 亿好意思元的高肯定需求。本年,站在统一个舞台上,这个数字酿成了 1 万亿好意思元,遮蔽 Blackwell 和 Rubin 到 2027 年的订单。
并且我细目,试验需求会比这更高。
就在这个片刻,与现场不雅众的掌声和快活声一同高潮的是英伟达股价。

Token 工场经济学:老黄教寰球 CEO 看一张图
唯有英伟达的 Keynote,你才会看到旧年的 slide 再出现一次。
而老黄称这是寰球 CEO 皆要仔仔细细相关的一张图。

纵轴是 Token 隐隐量(每瓦产出几许 Token),横轴是 Token 速度(每秒生成几许 Token)。
隐隐量代表你的工场产能,速度代表 AI 的"贤达进程",模子越大、凹凸文越长、想考越深,速度就越低,但每个 Token 越值钱。
老黄把这张图酿成了一套完好的交易模子。
免费层:高隐隐、低速度,用来获客。
中间层:$3-$6/ 百万 Token,工作平方用户。
高等层:$45/ 百万 Token,大模子深度推理。
顶级层:$150/ 百万 Token,超长相关任务、枢纽旅途及时反映。

旧年 Semi Analysis 作念了一次有史以来最大鸿沟的 AI 推理基准测试。恶果骄贵,Grace Blackwell NVLink 72 的每瓦 token 隐隐量,比上一代 Hopper H200 着手 50 倍。
而黄仁勋我方说说的 35 倍。对此,Semi Analysis 独创东谈主公开默示:"黄仁勋在 sand bagging(专诚保留余步)"。
老黄说没错,我就说专诚的,试验是 50 倍,
每瓦性能决定了一切。
因为每座数据中心的功率皆是物理握住,一座 1GW 的 AI 工场持久不会酿成 2GW。在固定功率下,谁的每瓦 token 产出更高,谁的 token 资本就更低。
这即是 Vera Rubin 存在的事理:
当作下一代探讨平台,再次将每瓦 token 隐隐量提高 2-10 倍。

Vera Rubin:十年千万倍加快
Hopper 时间老黄还会举起一块芯片秀给不雅众看,但阿谁时间还是收尾了。
旧年我说 Hopper 的时候,会举起一块芯片,那很可儿。
但这是 Vera Rubin,当东谈主们预见 Vera Rubin,东谈主们预见的是整个这个词系统。

Vera Rubin 是英伟达有史以来最复杂的 AI 探讨系统。
7 种芯片,5 种机架,垂直集成、端到端优化成一台巨型探讨机:
Rubin GPU:
全新架构,支撑 NVLink 72 全互联,3.6 exaflops 算力,260TB/s 全对全带宽。
Vera CPU:
全新数据中心 CPU,寰球唯独采纳 LPDDR5 的工作器处理器,单线程性能和能效比出色。老黄原来没策画单独卖 CPU,但 Vera 卖得太好,这还是细目是一个数十亿好意思元的业务了。
Groq LP30:
寰球上从未见过的第三代芯片,500MB 片上 SRAM,细目性数据流处理器,静态编译、软件调遣,专为推理而生。
BlueField 4 DPU + CX9 网卡:
全新存储平台,共同组成了面向 AI 原生的全新存储基础圭臬。
NVLink Switch:
第六代 NVLink 交换芯片,提供大鸿沟 MoE 模子所需的快速、无缝的 GPU 到 GPU 通讯
Spectrum X CPO 交换机:
寰球首款量产的共封装光学(Co-Packaged Optics)交换机,电子径直转光子。

在统一座 1GW 数据中心里,从 Grace Blackwell 到 Vera Rubin + Groq,token 生成速度从 200 万跳到 7 亿。‘
两年时刻,350 倍。
摩尔定律在相似的时刻里能给几许?大致 1.5 倍。
350 倍不是靠芯片上多塞几个晶体管竣事的。当算力密度卷到这个进程,瓶颈早就转化到了芯片除外:散热和互联。
Vera Rubin 的谜底是两大变化,一个对于水,一个对于光。
对于水,Vera Rubin 采纳100% 液冷有筹商,连 NVLink 交换机皆泡在液冷系统里。
互联不再靠外部线缆,而是在液冷模块里面作念板级 / 背板式集成互联。
线缆全部隐匿了,往时装配一个机架要两天,咫尺两小时。

对于光,黄仁勋举起了寰球首款量产的 CPO(共封装光学)交换机。

传统交换机里,电信号从芯片出来,过程 PCB 走线,到达光模块,在光模块里完成电 - 光革新,再通过光纤传出去。每一次革新皆有蔓延,每一段铜线皆有损耗。
CPO 把这条链路压缩到极致:光学器件径直封装到芯片上,开云体育电子在硅片名义就革新成光子。 莫得光模块,莫得铜线中转。英伟达和 TSMC 鸠合发明了一种叫 CoUP 的封装工艺,咫尺寰球唯有英伟达在量产。
要让 72 块 GPU 竣事 260TB/s 的全对全带宽,如果还用传统铜缆,信号跑不了太远,机架尺寸即是物理极限。
CPO 冲破了这个终结,光子跑得更远、损耗更低、能效更高。
但铜缆和光学不是二选一。
黄仁勋被问了太屡次这个问题,干脆一次说清:
咱们皆要,咱们需要更多的铜缆产能,更多的光芯片产能,更多的 CPO 产能。
十年前的 DGX-1,8 块 Pascal GPU,170 TFLOPS。
十年后的 Vera Rubin NVLink 72,3.6 ExaFLOPS。
十年,算力增长四千万倍。

高隐隐的归 Rubin,低蔓延的归 Groq
但还有一个问题没处置。
NVLink 72 在高隐隐区间险些无敌,72 块 GPU 全对全互联,带宽拉满。
可一朝条款的不是 400 token/ 秒,而是 1000 token/ 秒的极速推理,NVLink 72 的带宽就不够用了。
这即是 Groq 的故事。
英伟达在 2025 年底收购了推理芯片公司 Groq,后者以" LPU "(Language Processing Unit)著称。
Groq 的架构和英伟达 GPU 天差地远:它是一颗细目性数据流处理器,静态编译、编译器调遣,莫得动态调遣,片上堆了 500MB 的巨量 SRAM,只干一件事,推理。

此前业界一直测度英伟达会怎样整合这项钞票。
谜底来了:不是替代 GPU,而是与 GPU 协同。
一颗 Groq 芯片 4GB SRAM,一颗 Rubin 芯片 288GB HBM。
前者极致快,后者极致大。单独用 Groq,装不下万亿参数模子和海量 KV cache;单独用 Rubin,推不到极速 token 生成。

英伟达的解法是分散式推理,用 Dynamo 推理框架把活水线圮绝。
Pre-fill 和 attention 的探讨量大,交给 Vera Rubin;decode 阶段的 token 生成对带宽敏锐、对蔓延敏锐,卸载给 Groq。
两颗极点不同的处理器,通过以太网详细耦合,蔓延减半。

恶果在最高价值的推理层级上,再提高 35 倍隐隐量。同期解锁了此前根蒂不存在的新推理层级,千 token/ 秒级别的极速生成。
黄仁勋给出了配比残忍:如果你的责任负载主淌若高隐隐,100% 上 Vera Rubin 就够了。如果你有无数编程、工程级 token 生成需求,拿出 25% 的数据中心功率给 Groq。
Groq 3 芯片由三星代工,还是量产,瞻望 Q3 出货。
而 Vera Rubin 的首个机架,还是在微软 Azure 云上跑起来了。

OpenClaw:AI 时间的 Linux 时刻
发布会的终末一部分,老黄画风一瞥,开动聊东谈主类历史上最受迎接的开源神气 OpenClaw。

OpenClaw 能作念什么,老黄例如有东谈主帮 60 岁的父躬行径化了整个这个词精酿啤酒生意,蓝牙继续酿造建立,自动生成销售网站,顾主不错径直下单"龙虾拉格啤酒"。

但老黄更介意的是它的本色。他用操作系统的说话重新界说了 OpenClaw:
资源经管: 不错调用大说话模子、拜访文献系统、使用器具。
调遣系统: 能作念 cron jobs、分步推论、生成子 Agent。
I/O 系统: 多模态输入输出,你不错冲它挥手,它给你发邮件。
OpenClaw 开源了 Agent 探讨机的操作系统。就像 Windows 让咱们创造了个东谈主电脑,OpenClaw 让咱们创造了个东谈主 Agent。
Windows → PC 时间,Linux →工作器时间,HTML →互联网时间,Kubernetes →云时间,OpenClaw → Agent 时间。
每一次平台转化,皆催生了一改变变寰球的公司。
企业 IT 的全部逻辑行将改写。
老黄径直断言:每家 SaaS 公司皆将酿成Agent-as-a-Service公司。

But!
Agent 在企业采蕴蓄能拜访敏锐信息、推论代码、对外通讯,"你把这三件事连起来高声说出来,再想一想……"
是以英伟达与 OpenClaw 相助推出了企业版 NeMo Claw,加上了政策引擎、汇集护栏、躲避路由器。

老黄给出了他对改日企业的终极遐想:
改日每个工程师皆会有一个年度 Token 预算。
他们年薪几十万好意思元,我会在此基础上再给他们一半的金额当作 Token 额度。
这还是是硅谷的新招聘筹码了:你的 offer 里带几许 Token?
Two More Thing
在发布会上,对于外界备受关心的下一代探讨架构 Feynman(费曼),老黄也作念了预报,并默示探讨架构,每年皆会有新东西。

Feynman 将带来全新的 GPU、LPU(LP 40)和 CPU Rosa。
新一代的 BlueField 5 将继续下一代 CPU 与 SuperNIC CX10,并配合新的 Kyber 本领竣事铜线与光学双扩张——
这意味着,Feynman 将初次同期支撑铜线与光学封装的水平扩张。
老黄强调,不管是铜线、光学照旧 CPO,改日皆需要更高的容量与带宽,这恰是 Feynman 的中枢突破。
此外,他还清醒,NVIDIA 正与相助伙伴鸠合征战英伟达 Space One,一台将部署在天际的数据中心探讨机,开启"天际算力"的新篇章。

天际中莫得对流,莫得传导,唯有放射散热。
咱们得想看法在天际里给 GPU 散热。不外咱们有好多优秀的工程师在搞这件事。
把 GPU 奉上近地轨谈,这大要是" AI 无处不在"最字面道理上的解说了。
直播回放:https://www.youtube.com/watch?v=jw_o0xr8MWU
一键三连「点赞」「转发」「注重心」
迎接在驳斥区留住你的想法!
— 完 —
� � 今天,你养虾了吗?
迎接加入【龙虾养成护士组】,沿途换取养虾西席!扫码添加小助手加入社群,铭刻备注【OPENCLAW】哦~
一键关心 � � 点亮星标
科技前沿发达逐日见开云(中国)官网
金佰利国际娱乐官网入口