Loading... # **NVIDIA Rubin 架构深度调研报告:重构 AI 工厂的算力底座与超算中心部署实践** ## **引言:从计算单元到智能工厂的范式转移** 在 2026 年国际消费电子展(CES 2026)上,NVIDIA 正式发布了其下一代算力架构——Rubin 1。这一架构的命名致敬了美国天文学家薇拉·鲁宾(Vera Rubin),她对星系旋转速率的研究为暗物质的存在提供了关键证据 3。正如暗物质重塑了我们对宇宙质量的认知,NVIDIA 的 Rubin 架构旨在重塑全球对 AI 计算的理解:计算不再是孤立的 GPU 任务,而是一场涵盖芯片、互联、存储与软件的“极端协同设计”(Extreme Codesign)变革 5。 Rubin 架构的推出背景植根于当前大模型(LLM)向代理型 AI(Agentic AI)和复杂推理模型(Reasoning Models)转型的关键阶段 8。随着混合专家模型(MoE)规模突破万亿参数,传统的数据中心架构在内存带宽、互联延迟以及存储扩展性方面遭遇了严峻的“物理墙” 1。Rubin 架构通过六颗协同设计的芯片——Vera CPU、Rubin GPU、NVLink 6 交换机、ConnectX-9 SuperNIC、BlueField-4 DPU 以及 Spectrum-6 以太网交换机,提供了一个统一的机架级计算底座,旨在将推理代币(Token)成本降低至 Blackwell 架构的十分之一,并将训练万亿参数 MoE 模型所需的 GPU 数量减少至原来的四分之一 2。 本报告将详尽调研 Rubin 架构的核心技术特征,分析其在顶级超算中心及 AI 超级工厂(AI Superfactories)中的实际部署与测试情况,并剖析其对未来异构计算生态的长远影响。 ## **第一部分:Rubin 架构的技术背景与行业痛点** ### **AI 规模化时代的算力瓶颈** 在 Blackwell 架构统治市场的阶段,AI 基础设施面临着三个核心矛盾: 1. **内存带宽墙(Memory Bandwidth Wall)**:随着上下文窗口(Context Window)从数万个 Token 扩展到数百万个,GPU 内部的 HBM 带宽逐渐成为推理性能的绝对瓶颈。传统的 HBM3e 已经难以满足实时推理中对 KV 缓存(Key-Value Cache)的极速访问需求 1。 2. **网络同步延迟**:在超大规模集群中,数万甚至数十万颗 GPU 需要在训练过程中频繁进行全规约(All-Reduce)操作。现有的 800G 网络在面对更大规模的集群扩展时,同步开销占据了总计算时间的 30% 以上 1。 3. **推理经济性危机**:AI 模型从“离线训练”转向“在线推理”和“连续推理”,这对每一百万个 Token 的生成成本提出了近乎苛刻的要求。如果成本不能降低一个数量级,代理型 AI 的大规模商用将面临经济性阻碍 10。 ### **Rubin 架构的系统化解决方案** NVIDIA 的回答是彻底打破“以芯片为中心”的设计思路,转而“以机架为计算单元” 7。Rubin 架构通过将 72 颗 GPU、36 颗 CPU 以及整套网络矩阵封装在一个 NVL72 机架内,实现了一个逻辑上的超级计算节点 1。其核心性能提升如表 1 所示: ### **表 1:Blackwell Ultra (GB300) 与 Vera Rubin (VR200) 核心规格对比** | 规格参数 | GB300 NVL72 (Blackwell Ultra) | VR NVL72 (Vera Rubin) | 提升幅度 | | :---- | :---- | :---- | :---- | | **GPU 核心架构** | Blackwell | Rubin | 世代交替 | | **制程工艺** | TSMC 4NP | TSMC 3nm | 节点升级 15 | | **单 GPU 晶体管数** | 2080 亿 | 3360 亿 | 1.6x 7 | | **显存类型/带宽** | HBM3e / \~8 TB/s | HBM4 / 22 TB/s | 2.8x 1 | | **NVFP4 推理性能 (单卡)** | 10 PFLOPS | 50 PFLOPS | 5x 1 | | **NVFP4 训练性能 (单卡)** | 10 PFLOPS | 35 PFLOPS | 3.5x 1 | | **机架级 NVLink 带宽** | 130 TB/s | 260 TB/s | 2x 1 | | **对外网络速率 (NIC)** | ConnectX-8 (800G) | ConnectX-9 (1.6T) | 2x 1 | 1 !(https://www.storagereview.com/wp-content/uploads/2026/01/rubin-gpu-diagram.jpg) 图 1:Rubin GPU 架构设计,展示了集成的 HBM4 显存堆栈与第三代 Transformer 引擎。 ## **第二部分:Rubin 架构的核心组件拆解** ### **1. Rubin GPU:HBM4 与第三代 Transformer 引擎** Rubin GPU 是整个平台的算力核心,采用台积电 3nm 工艺制造 15。其最显著的突破在于首次集成了 **HBM4 显存**,单卡带宽达到了惊人的 22 TB/s 17。这种带宽的飞跃直接解决了万亿参数 MoE 模型在推理时的权重加载与 KV 缓存交换延迟问题。 此外,Rubin 引入了 **第三代 Transformer 引擎**。该引擎具备硬件加速的“自适应压缩”功能 1。在处理复杂的 Transformer 层时,引擎会动态评估每一层的精度敏感度。对于非敏感层,它会自动切换到更低精度的计算路径以换取极高的吞吐量;而对于关键的权重更新层,则保留高精度计算以确保模型不发散 16。 ### **2. Vera CPU:专为 AI 工厂定制的“Olympus”内核** 在此前的 Grace 架构中,NVIDIA 使用了 Arm 的 Neoverse V2 标准内核。而在 Vera CPU 中,NVIDIA 转向了完全自主设计的 **Olympus 内核** 1。 Vera CPU 拥有 88 个 Olympus 内核,支持 **176 个空间多线程(Spatial Multithreading)** 5。与传统的同步多线程不同,空间多线程通过物理分区核心资源来减少线程间的指令竞争,确保在执行复杂的 AI 代理调度、数据预处理(ETL)以及编译任务时,能够提供确定性的极低延迟 21。此外,Vera CPU 配备了 1.5 TB 的 LPDDR5X 内存,带宽高达 1.2 TB/s,较 Grace 提升了 2 倍以上 21。 ### **3. NVLink 6:突破 rack-scale 的互联极限** NVLink 6 是将 72 颗 GPU 融合成一颗“超级 GPU”的关键。单颗 GPU 的双向带宽提升至 **3.6 TB/s** 1。在 VR NVL72 机架中,通过 9 台第五代 NVLink 交换机,整机架的对分带宽达到了 **260 TB/s**,这甚至超过了全球互联网的总骨干带宽 13。 这种极速互联带来的直接好处是,在进行超大规模 MoE 模型推理时,专家网络(Experts)分布在不同 GPU 上,Token 在 GPU 间的路由跳转几乎不再产生性能损失 13。 ### **4. BlueField-4 DPU 与计算存储平台(ICMSP)** 针对长文本推理和代理型 AI 的需求,NVIDIA 推出了 **推理上下文内存存储平台(Inference Context Memory Storage Platform, ICMSP)** 9。该平台由 BlueField-4 DPU 驱动,它引入了一个全新的存储层级——**G3.5 层** 12。 在传统的架构中,KV 缓存在 GPU 内存(HBM)耗尽后必须卸载(Offload)到系统内存或慢速 SSD,这会导致显著的延迟增加。ICMSP 允许 BlueField-4 在整个 Pod 级别管理闪存化的 KV 缓存。当 AI 代理在多轮对话中需要回忆先前的上下文时,BlueField-4 能以极速将数据重新加载回 GPU,使得长文本推理的代币吞吐量提升了 5 倍,首次代币响应时间提升了 20 倍 1。 ### **表 2:Rubin 平台六大芯片协同功能表** | 芯片名称 | 核心角色 | 关键技术实现 | 解决的痛点 | | :---- | :---- | :---- | :---- | | **Rubin GPU** | 算力加速 | HBM4, Transformer Engine 3 | 内存带宽瓶颈、吞吐量极限 1 | | **Vera CPU** | 集群管理/调度 | Olympus 内核, 空间多线程 | 指令延迟、串行任务瓶颈 21 | | **NVLink 6** | 内部互联 | 3.6 TB/s 对分带宽 | 多卡通信开销、数据同步延迟 13 | | **BlueField-4** | 基础设施卸载 | 64 核 Grace 处理器, ICMSP | KV 缓存瓶颈、安全性隔离 7 | | **ConnectX-9** | 对外网络 | 1.6 TB/s 吞吐速率 | 大规模集群扩展性、南北流量瓶颈 1 | | **Spectrum-6** | 网络交换 | 102.4T 交换能力, 硅光子 | 网络拥塞管理、能效比 1 | 1 ## **第三部分:超算中心与数据中心的 Rubin 部署实录** 在 2026 年 CES 发布后不久,全球多家顶尖超算中心和云巨头便披露了基于 Rubin 架构的建设规划。这些部署不仅仅是单纯的硬件更迭,更是对科学发现与商业 AI 逻辑的重构。 ### **1. NERSC-10 “Doudna” 超级计算机:科学发现的加速器** 美国能源部(DOE)旗下的劳伦斯伯克利国家实验室(Berkeley Lab)宣布,其下一代旗舰超算 **NERSC-10 “Doudna”** 将全量采用 NVIDIA Vera Rubin 平台 24。 * **硬件配置**:Doudna 由 Dell Technologies 承建,集成了数千个 Vera Rubin 计算节点。它采用了 Dell ORv3 直接液冷技术,以支撑 Rubin 机架极高的功率密度 25。 * **科学目标**:该系统被 NVIDIA CEO 黄仁勋称为“科学的时间机器” 24。它将专门用于量子计算模拟、融合能源研究、生物分子设计以及大规模气候建模。 * **性能提升**:相比于现有的 Perlmutter 系统,Doudna 在科学 AI 模型训练和模拟混合工作流中的性能预计将提升 10 倍以上 25。其集成的 Quantum-X800 InfiniBand 网络提供了近乎零抖动的并行计算环境,允许科学家通过 ESnet 在全国范围内实时传输和分析观测数据 24。 ### **2. Microsoft Azure “Fairwater” AI 超级工厂** 微软是 Rubin 架构最大的商业客户之一。其在威斯康星州和亚特兰大布局的 **Fairwater AI 超级工厂** 站点已经完成了对 Rubin NVL72 的适配 2。 * **机架级协同**:微软 Fairwater 站点采用了独特的“Pod 交换架构”,允许快速热插拔机架组件而不中断网络拓扑 27。通过部署超大规模的 ConnectX-9 网络,微软能够将数十万个 Rubin GPU 连接成一个统一的推理矩阵。 * **实际测试数据**:初步测试显示,在处理类似 GPT-5 规模的推理任务时,Fairwater 站点的 Rubin 集群在长文本(32k-128k Token)推理场景下的响应速度较 Blackwell 提升了 5.5 倍,而每百万 Token 的成本下降了约 90% 11。 * **冷却与能效**:Fairwater 站点全面升级了冷却分配单元(CDU)和高电流母线设计,以应对单机架高达 120kW+ 的功耗挑战 27。 ### **3. Oracle 与阿贡国家实验室的合作部署** Oracle (OCI) 与阿贡国家实验室(Argonne National Laboratory)合作建造了名为 **Solstice** 和 **Equinox** 的超算系统 30。虽然 Solstice 最初基于 Blackwell,但其二期扩展项目(预计 2026 年下半年)已明确将引入 Rubin 节点以增强推理能力。 * **应用场景**:该系统主要支持阿贡实验室的先进光子源(Advanced Photon Source)产生的海量数据流处理。Rubin 节点的加入,使得研究人员能够利用实时推理模型对实验参数进行动态优化 24。 ### **表 3:全球 Rubin 架构首批重点部署项目一览表** | 客户/中心名称 | 项目代号 | 节点规模/类型 | 主要用途 | 关键合作伙伴 | | :---- | :---- | :---- | :---- | :---- | | **NERSC** | Doudna (N10) | 全 Rubin 节点 | 融合能源、分子动力学、量子模拟 | Dell, NVIDIA 24 | | **Microsoft Azure** | Fairwater | 数十万 Rubin GPU | 全球性 AI 推理与科研服务 | NVIDIA 2 | | **AWS** | P6 instances | Rubin NVL72 实例 | 代理型 AI 云服务 | NVIDIA 31 | | **CoreWeave** | Mission Control | Rubin 全液冷集群 | 顶级 AI 实验室推理托管 | NVIDIA 2 | | **Google Cloud** | A4 series | Vera Rubin 算力节点 | Gemini 模型迭代、云 AI | NVIDIA 10 | 2 !(https://azure.microsoft.com/en-us/blog/wp-content/uploads/2026/01/fairwater-rendering.jpg) 图 2:微软 Fairwater AI 超级工厂内部示意图,展示了大规模 Rubin 机架的密集排布。 ## **第四部分:核心概念与技术术语深度拆解** 为了深刻理解 Rubin 架构为什么能实现“代币成本降低 10 倍”,我们需要拆解其背后的几大核心机制。 ### **1. NVFP4(NVIDIA Floating Point 4)精度格式** 在 Rubin 架构之前,AI 社区普遍使用 FP8 或 INT8 进行量化加速。Rubin 引入了 **NVFP4** 1。 * **实现原理**:NVFP4 并非简单的 4 位截断。它是通过 Transformer 引擎内部的“自适应精度调整”实现的。硬件可以在不损失显著准确度的前提下,将权重的存储和计算压缩到 4 位空间 16。 * **功能联系**:这种格式与 HBM4 的高带宽结合,使得单卡推理性能达到 50 PFLOPS。相比于 Blackwell 的 10 PFLOPS,这直接提供了 5 倍的算力原生增长 1。 ### **2. 空间多线程(Spatial Multithreading, SMT)** 这是 Vera CPU “Olympus” 内核的一项重大创新 21。 * **术语解释**:传统的多线程(如 Intel 的 Hyper-Threading)是“时间片轮转”,两个线程共享一套执行单元,容易发生抢占。空间多线程则是将核心内部的执行单元(ALU、LSU 等)进行物理分区。 * **应用效果**:在 AI 集群管理中,CPU 需要同时处理成千上万个网络中断请求。通过物理分区,Vera CPU 能够确保网络驱动程序和 AI 调度程序在各自的硬件路径上运行,互不干扰,从而实现了极其稳定的 1.2 TB/s 内存访问 21。 ### **3. 第二代 RAS 引擎(Reliability, Availability, Serviceability)** Rubin 机架是第一个真正实现“零停机维护”的设计 1。 * **预测性维护**:RAS 引擎通过集成在 GPU 和 NVLink 中的数千个传感器,监控从电压波动到 HBM 位翻转的各种数据。它能在硬件彻底失效前,利用 NVLink 6 的冗余路径绕过损坏节点,并通知系统管理员进行热插拔更换 20。 * **物理实现**:机架采用了无电缆(Cable-free)设计,所有信号通过背板 PCBs 传输,避免了线缆老化和插错导致的系统不稳定,组装速度提升了 18 倍 1。 ### **4. 机架级可信执行环境(Rack-Scale TEE)** Rubin 架构引入了第三代加密计算技术 1。 * **安全机制**:在过去,数据在 CPU 与 GPU 之间传输时是加密的,但在 GPU 与 GPU 之间的 NVLink 网络中往往是明文。Rubin 实现了从 CPU 到 GPU 再到 NVLink 网络的全链路硬件加密。 * **功能价值**:这意味着即使是拥有物理访问权限的数据中心运维人员,也无法截获正在计算中的敏感模型权重。这为 OpenAI、Anthropic 等拥有核心知识产权的模型公司提供了“物理级”的堡垒 1。 ## **第五部分:影响分析——重塑 AI 的未来** ### **对 AI 实验室的影响** 对于 OpenAI、Meta 以及 Anthropic 这样的顶级实验室,Rubin 的出现意味着“训练规模限制”的再次突破。Meta 创始人马克·扎克伯格指出,Rubin 架构提供了部署数十亿人级别 AI 服务所需的能效阶跃 8。 * **训练效率**:使用 Rubin 训练 MoE 模型所需的 GPU 数量减少 4 倍,意味着原本需要建设两年的超级算力中心,现在可以在半年内完成,且能耗大幅降低 2。 * **推理深度**:更强的推理能力意味着模型可以进行更多的“思维链”(CoT)迭代。Rubin 架构让模型在响应用户前能够进行数百次的自我修正和模拟,而不至于让响应时间变得不可接受 33。 ### **对数据中心产业的影响** 传统的风冷数据中心正面临淘汰。由于 Rubin NVL72 的极端热密度,全液冷(Liquid Cooling)已成为唯一选择 1。 * **液冷普及**:Supermicro 等厂商正在大规模扩建液冷生产线,以满足 Rubin 的部署需求。基于 CPO(共封装光学)技术的 Spectrum-X 以太网交换机也将光纤连接直接拉到了芯片级,减少了电光转换的损耗和热量 7。 ## **第六部分:结论与未来展望** NVIDIA Rubin 架构在 2026 年 CES 的发布,标志着计算技术从“后摩尔定律时代”向“架构协同设计时代”的跨越。通过将 3360 亿晶体管的单芯片能力与 260 TB/s 的机架级互联能力完美融合,Rubin 架构不仅解决了当前大模型的算力饥渴,更从经济学角度,通过 10 倍的成本削减,为 AI 走向 mainstream 扫清了障碍 10。 正如 NERSC-10 超算中心所展示的那样,Rubin 将不再仅仅是聊天机器人的燃料,它将成为人类探索融合能源、破解生物基因秘密以及对抗气候变化的核心科学工具 24。随着 2026 年下半年首批 Rubin 计算节点的正式交付,我们有望见证一次全球生产力的指数级跃迁。 对于决策者和架构师而言,Rubin 的启示是明确的:未来的竞争不在于你拥有多少颗芯片,而在于你如何通过系统级的协同,将数据转化为低成本、高可靠的智能。Rubin 架构,正是在这场智能革命中,为全人类奠定的一块最厚实的数字基石。 --- #### **Works cited** 1. NVIDIA Launches Vera Rubin Architecture at CES 2026: The VR NVL72 Rack, accessed January 8, 2026, [https://www.storagereview.com/news/nvidia-launches-vera-rubin-architecture-at-ces-2026-the-vr-nvl72-rack](https://www.storagereview.com/news/nvidia-launches-vera-rubin-architecture-at-ces-2026-the-vr-nvl72-rack) 2. NVIDIA Kicks Off the Next Generation of AI With Rubin — Six New Chips, One Incredible AI Supercomputer, accessed January 8, 2026, [https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer](https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer) 3. What is Rubin, Nvidia’s AI supercomputing platform set to succeed Blackwell chips?, accessed January 8, 2026, [https://indianexpress.com/article/technology/artificial-intelligence/what-is-rubin-nvidia-ai-supercomputing-platform-ces-2026-10458164/](https://indianexpress.com/article/technology/artificial-intelligence/what-is-rubin-nvidia-ai-supercomputing-platform-ces-2026-10458164/) 4. Nvidia announces Vera Rubin AI chip, claims it is 5X more powerful than Blackwell, accessed January 8, 2026, [https://timesofindia.indiatimes.com/technology/tech-news/nvidia-announces-vera-rubin-ai-chip-claims-it-is-5x-more-powerful-than-blackwell/articleshow/126366561.cms](https://timesofindia.indiatimes.com/technology/tech-news/nvidia-announces-vera-rubin-ai-chip-claims-it-is-5x-more-powerful-than-blackwell/articleshow/126366561.cms) 5. NVIDIA Rubin Is The Most Advanced AI Platform On The Planet: Up To 50 PFLOPs With HBM4, Vera CPU With 88 Olympus Cores, And Delivers 5x Uplift Vs Blackwell \- Wccftech, accessed January 8, 2026, [https://wccftech.com/nvidia-rubin-most-advanced-ai-platform-50-pflops-vera-cpu-5x-uplift-vs-blackwell/](https://wccftech.com/nvidia-rubin-most-advanced-ai-platform-50-pflops-vera-cpu-5x-uplift-vs-blackwell/) 6. NVIDIA officially unveils Rubin: its next-gen AI platform with huge upgrades, next-gen HBM4, accessed January 8, 2026, [https://www.tweaktown.com/news/109558/nvidia-officially-unveils-rubin-its-next-gen-ai-platform-with-huge-upgrades-next-gen-hbm4/index.html](https://www.tweaktown.com/news/109558/nvidia-officially-unveils-rubin-its-next-gen-ai-platform-with-huge-upgrades-next-gen-hbm4/index.html) 7. Inside the NVIDIA Rubin Platform: Six New Chips, One AI Supercomputer, accessed January 8, 2026, [https://developer.nvidia.com/blog/inside-the-nvidia-rubin-platform-six-new-chips-one-ai-supercomputer/](https://developer.nvidia.com/blog/inside-the-nvidia-rubin-platform-six-new-chips-one-ai-supercomputer/) 8. Nvidia unveils next-generation AI superchip architecture partly developed in Israel, accessed January 8, 2026, [https://www.timesofisrael.com/nvidia-unveils-next-generation-ai-superchip-architecture-partly-developed-in-israel/](https://www.timesofisrael.com/nvidia-unveils-next-generation-ai-superchip-architecture-partly-developed-in-israel/) 9. NVIDIA BlueField-4 Powers New Class of AI-Native Storage Infrastructure for the Next Frontier of AI, accessed January 8, 2026, [https://nvidianews.nvidia.com/news/nvidia-bluefield-4-powers-new-class-of-ai-native-storage-infrastructure-for-the-next-frontier-of-ai](https://nvidianews.nvidia.com/news/nvidia-bluefield-4-powers-new-class-of-ai-native-storage-infrastructure-for-the-next-frontier-of-ai) 10. Why Nvidia's new Rubin platform could change the future of AI computing forever | ZDNET, accessed January 8, 2026, [https://www.zdnet.com/article/nvidia-rubin-ai-ces-2026/](https://www.zdnet.com/article/nvidia-rubin-ai-ces-2026/) 11. Rack-Scale Agentic AI Supercomputer | NVIDIA Vera Rubin NVL72, accessed January 8, 2026, [https://www.nvidia.com/en-us/data-center/vera-rubin-nvl72/](https://www.nvidia.com/en-us/data-center/vera-rubin-nvl72/) 12. Introducing NVIDIA BlueField-4-Powered Inference Context Memory Storage Platform for the Next Frontier of AI, accessed January 8, 2026, [https://developer.nvidia.com/blog/introducing-nvidia-bluefield-4-powered-inference-context-memory-storage-platform-for-the-next-frontier-of-ai/](https://developer.nvidia.com/blog/introducing-nvidia-bluefield-4-powered-inference-context-memory-storage-platform-for-the-next-frontier-of-ai/) 13. NVIDIA Rubin Platform: AI Supercomputer with Six New Chips \- NADDOD Blog, accessed January 8, 2026, [https://www.naddod.com/ai-insights/nvidia-rubin-platform-ai-supercomputer-with-six-new-chips](https://www.naddod.com/ai-insights/nvidia-rubin-platform-ai-supercomputer-with-six-new-chips) 14. Exploring NVIDIA Rubin: The future of AI supercomputing | genai-research \- Wandb, accessed January 8, 2026, [https://wandb.ai/wandb\_fc/genai-research/reports/Exploring-NVIDIA-Rubin-The-future-of-AI-supercomputing--VmlldzoxNTU0ODcyNw](https://wandb.ai/wandb_fc/genai-research/reports/Exploring-NVIDIA-Rubin-The-future-of-AI-supercomputing--VmlldzoxNTU0ODcyNw) 15. Nvidia Debuts Next-Generation Vera Rubin AI Platform at CES 2026 | Extremetech, accessed January 8, 2026, [https://www.extremetech.com/computing/nvidia-debuts-next-generation-vera-rubin-ai-platform-at-ces-2026](https://www.extremetech.com/computing/nvidia-debuts-next-generation-vera-rubin-ai-platform-at-ces-2026) 16. Nvidia Says Rubin Will Deliver 5x AI Inference Boost Over Blackwell \- AIwire \- HPC Wire, accessed January 8, 2026, [https://www.hpcwire.com/aiwire/2026/01/06/nvidia-says-rubin-will-deliver-5x-ai-inference-boost-over-blackwell/](https://www.hpcwire.com/aiwire/2026/01/06/nvidia-says-rubin-will-deliver-5x-ai-inference-boost-over-blackwell/) 17. Nvidia Touts New Storage Platform, Confidential Computing For Vera Rubin NVL72 Server Rack \- CRN, accessed January 8, 2026, [https://www.crn.com/news/data-center/2026/nvidia-touts-new-storage-platform-confidential-computing-for-vera-rubin-nvl72-server-rack](https://www.crn.com/news/data-center/2026/nvidia-touts-new-storage-platform-confidential-computing-for-vera-rubin-nvl72-server-rack) 18. Nvidia launches Vera Rubin NVL72 AI supercomputer at CES — promises up to 5x greater inference performance and 10x lower cost per token than Blackwell, coming 2H 2026 | Tom's Hardware, accessed January 8, 2026, [https://www.tomshardware.com/pc-components/gpus/nvidia-launches-vera-rubin-nvl72-ai-supercomputer-at-ces-promises-up-to-5x-greater-inference-performance-and-10x-lower-cost-per-token-than-blackwell-coming-2h-2026](https://www.tomshardware.com/pc-components/gpus/nvidia-launches-vera-rubin-nvl72-ai-supercomputer-at-ces-promises-up-to-5x-greater-inference-performance-and-10x-lower-cost-per-token-than-blackwell-coming-2h-2026) 19. Infrastructure for Scalable AI Reasoning | NVIDIA Rubin Platform, accessed January 8, 2026, [https://www.nvidia.com/en-us/data-center/technologies/rubin/](https://www.nvidia.com/en-us/data-center/technologies/rubin/) 20. NVIDIA Unveils Rubin Platform to Support Large-Scale Training and Inference Workloads \- HPCwire, accessed January 8, 2026, [https://www.hpcwire.com/off-the-wire/nvidia-unveils-rubin-platform-to-support-large-scale-training-and-inference-workloads/](https://www.hpcwire.com/off-the-wire/nvidia-unveils-rubin-platform-to-support-large-scale-training-and-inference-workloads/) 21. Next Gen Data Center CPU | NVIDIA Vera CPU, accessed January 8, 2026, [https://www.nvidia.com/en-gb/data-center/vera-cpu/](https://www.nvidia.com/en-gb/data-center/vera-cpu/) 22. Next Gen Data Center CPU | NVIDIA Vera CPU, accessed January 8, 2026, [https://www.nvidia.com/en-us/data-center/vera-cpu/](https://www.nvidia.com/en-us/data-center/vera-cpu/) 23. Nvidia's Vera-Rubin Platform Obsoletes Current AI Iron Six Months Ahead Of Launch, accessed January 8, 2026, [https://www.nextplatform.com/2026/01/05/nvidias-vera-rubin-platform-obsoletes-current-ai-iron-six-months-ahead-of-launch/](https://www.nextplatform.com/2026/01/05/nvidias-vera-rubin-platform-obsoletes-current-ai-iron-six-months-ahead-of-launch/) 24. DOE Announces New Supercomputer Powered by Dell and NVIDIA ..., accessed January 8, 2026, [https://www.energy.gov/articles/doe-announces-new-supercomputer-powered-dell-and-nvidia-speed-scientific-discovery](https://www.energy.gov/articles/doe-announces-new-supercomputer-powered-dell-and-nvidia-speed-scientific-discovery) 25. Doudna System \- NERSC, accessed January 8, 2026, [https://www.nersc.gov/what-we-do/computing-for-science/doudna-system](https://www.nersc.gov/what-we-do/computing-for-science/doudna-system) 26. Some Thoughts On The Future “Doudna” NERSC-10 Supercomputer \- The Next Platform, accessed January 8, 2026, [https://www.nextplatform.com/2025/06/25/some-thoughts-on-the-future-doudna-nersc-10-supercomputer/](https://www.nextplatform.com/2025/06/25/some-thoughts-on-the-future-doudna-nersc-10-supercomputer/) 27. Microsoft's strategic AI datacenter planning enables seamless, large ..., accessed January 8, 2026, [https://azure.microsoft.com/en-us/blog/microsofts-strategic-ai-datacenter-planning-enables-seamless-large-scale-nvidia-rubin-deployments/](https://azure.microsoft.com/en-us/blog/microsofts-strategic-ai-datacenter-planning-enables-seamless-large-scale-nvidia-rubin-deployments/) 28. Microsoft Signals Azure Datacenter Readiness for NVIDIA Rubin Platform, accessed January 8, 2026, [https://redmondmag.com/articles/2026/01/06/microsoft-signals-azure-datacenter-readiness-for-nvidia-rubin-platform.aspx](https://redmondmag.com/articles/2026/01/06/microsoft-signals-azure-datacenter-readiness-for-nvidia-rubin-platform.aspx) 29. Supermicro Announces Support for Upcoming NVIDIA Vera Rubin NVL72, HGX Rubin NVL8 and Expanded Rack-Scale Manufacturing Capacity for Liquid-Cooled AI Solutions, accessed January 8, 2026, [https://www.aninews.in/news/business/supermicro-announces-support-for-upcoming-nvidia-vera-rubin-nvl72-hgx-rubin-nvl8-and-expanded-rack-scale-manufacturing-capacity-for-liquid-cooled-ai-solutions20260106101922](https://www.aninews.in/news/business/supermicro-announces-support-for-upcoming-nvidia-vera-rubin-nvl72-hgx-rubin-nvl8-and-expanded-rack-scale-manufacturing-capacity-for-liquid-cooled-ai-solutions20260106101922) 30. NVIDIA and Oracle to Build US Department of Energy's Largest AI Supercomputer for Scientific Discovery, accessed January 8, 2026, [https://nvidianews.nvidia.com/news/nvidia-oracle-us-department-of-energy-ai-supercomputer-scientific-discovery](https://nvidianews.nvidia.com/news/nvidia-oracle-us-department-of-energy-ai-supercomputer-scientific-discovery) 31. NVIDIA Unveils Rubin Platform to Support Large-Scale Training and Inference Workloads \- AIwire \- HPC Wire, accessed January 8, 2026, [https://www.hpcwire.com/aiwire/2026/01/06/nvidia-unveils-rubin-platform-to-support-large-scale-training-and-inference-workloads/](https://www.hpcwire.com/aiwire/2026/01/06/nvidia-unveils-rubin-platform-to-support-large-scale-training-and-inference-workloads/) 32. NVIDIA DGX SuperPOD Sets the Stage for Rubin-Based Systems, accessed January 8, 2026, [https://blogs.nvidia.com/blog/dgx-superpod-rubin/](https://blogs.nvidia.com/blog/dgx-superpod-rubin/) 33. Nvidia at CES 2026: Rubin platform, Vera CPU, GR00T robots, and Alpamayo L4 autonomy, accessed January 8, 2026, [https://techfundingnews.com/nvidia-at-ces-2026-rubin-platform-vera-cpu-gr00t-robots-and-alpamayo-l4-autonomy/](https://techfundingnews.com/nvidia-at-ces-2026-rubin-platform-vera-cpu-gr00t-robots-and-alpamayo-l4-autonomy/) 34. Jensen Huang ignites the Rubin era, with six chips achieving a fivefold increase in computing power., accessed January 8, 2026, [https://news.futunn.com/en/post/66968773/jensen-huang-ignites-the-rubin-era-with-six-chips-achieving](https://news.futunn.com/en/post/66968773/jensen-huang-ignites-the-rubin-era-with-six-chips-achieving) 35. Supermicro Announces Support for Upcoming NVIDIA Vera Rubin NVL72, HGX Rubin NVL8 and Expanded Rack-Scale Manufacturing Capacity for Liquid-Cooled AI Solutions, accessed January 8, 2026, [https://ir.supermicro.com/news/news-details/2026/Supermicro-Announces-Support-for-Upcoming-NVIDIA-Vera-Rubin-NVL72-HGX-Rubin-NVL8-and-Expanded-Rack-Scale-Manufacturing-Capacity-for-Liquid-Cooled-AI-Solutions/default.aspx](https://ir.supermicro.com/news/news-details/2026/Supermicro-Announces-Support-for-Upcoming-NVIDIA-Vera-Rubin-NVL72-HGX-Rubin-NVL8-and-Expanded-Rack-Scale-Manufacturing-Capacity-for-Liquid-Cooled-AI-Solutions/default.aspx) 最后修改:2026 年 01 月 08 日 © 允许规范转载 赞 如果觉得我的文章对你有用,请随意赞赏