在 2026 年國際消費電子展 (CES) 上,輝達(NVDA.US) 執行長黃仁勳身穿招牌皮衣登上主舞台,發表了以「物理 AI 時代」為核心的主題演講,此講聚焦 AI 從數位世界向物理現實的跨越,系統性地展示了從晶片架構、基礎設施到實際應用的完整技術堆疊。
《騰訊科技》報導,不同於去年偏重呈現願景,輝達本次重點解決了「如何讓 AI 持續思考」的工程化難題,推出一系列旨在降低推理成本、擴展上下文處理能力的新一代解決方案。
黃仁勳開場時回顧了過去一年 AI 產業的劇變,特別強調開源模式的快速發展。他指出,像 DeepSeek R1 這樣的開源推理模型顯著加速了 AI 技術的普及速度,雖跟最先進模型仍有約半年能力差距,但迭代周期不斷縮短。這種開放協作的生態為 AI 大規模落地奠基,而輝達此次發表的技術正是為了支撐這種爆炸性成長的需求。
黃仁勳演講內容圍繞著三大主線展開:首先,在系統與基礎設施層面,輝達圍繞長期推理需求重構了算力、網絡與儲存架構;其次,在模型層面,將推理型 AI 置於核心位置;最後是在應用層面,將這些能力直接引入自動駕駛和機器人等物理 AI 場景。這個框架體現了輝達從硬體到軟體的全端佈局意圖。
在核心硬體方面,輝達首次完整揭露了 Rubin 架構的技術細節。此架構的核心創新在於「推理時擴展」(Test-time Scaling)概念,即透過增加 AI 在推理階段的思考時間來提升輸出品質,而非單純依賴訓練階段擴大模型規模。
Rubin 平台由 Vera CPU、Rubin GPU、NVLink 6、ConnectX-9、BlueField-4 和 Spectrum-6 等零件協同設計,目標是將推理成本降至傳統方案的七分之一。
Rubin GPU 作為計算核心,在關鍵指標上實現跨代躍升:NVFP4 推理性能提升至 50 PFLOPS(為 Blackwell 的 5 倍)、訓練性能達 35 PFLOPS(3.5 倍),HBM4 帶寬增至 22 TB/s(2.8 倍),單 GPU 的 NVLink 互連帶寬翻倍至 3.6 TB/s。這些提升使單一 GPU 能處理更多任務和更長上下文,顯著減少對多 GPU 協作的依賴。
Vera CPU 則專為資料調度與 Agentic 處理最佳化,採用 88 個自研 Olympus 核心,系統記憶體擴容至 1.5 TB(3 倍於 Grace CPU),透過 1.8 TB/s 的 NVLink-C2C 實現 CPU 與 GPU 間的一致性記憶體存取。
互連技術 NVLink 6 透過 3.6 TB/s 頻寬和網路內運算能力,使 72 個 GPU 能像單一超級 GPU 般協同工作。配合 BlueField-4 DPU 和 ConnectX-9 網路晶片,這項架構解決大規模推理任務中的資料流動瓶頸。
輝達宣稱,相較於 Blackwell 平台,Rubin 可將推理 token 成本最高降低 10 倍,並將訓練混合專家模式所需的 GPU 數量減少至四分之一。
目前,微軟承諾在下一代 Fairwater AI 超級工廠部署數十萬 Vera Rubin 晶片,CoreWeave 等雲端服務商打算在今年下半年提供 Rubin 實例。
針對 AI「多想一會兒」產生的儲存瓶頸,輝達推出了由 BlueField-4 驅動的推理上下文記憶體儲存平台。該平台在 GPU 記憶體與傳統儲存間創建「第三層」,透過硬體加速的上下文資料管理、Spectrum-X 高性能網路和 DOCA 等軟體零件,實現高速、大容量的上下文共享。
根據輝達官方數據,上述方案可讓每秒處理 token 數提升最高 5 倍,並優化能源效率,該設計直接支援 Agentic AI 的長期運作需求,使 AI 能從「一次性對話」進階為具有記憶和協作能力的智能體。
為擴展至資料中心規模,輝達也發表新一代 DGX SuperPOD。該系統由 8 個 Vera Rubin NVL72 機架組成,總計 576 個 GPU,透過 NVLink 6 擴展網路和 Spectrum-X 乙太網路連接,並整合推理上下文記憶體儲存平台及 Mission Control 管理軟體。
此外,新一代 SuperPOD 引進基於 Spectrum-6 晶片的乙太網路交換器和 COP 技術,縮短訊號傳輸距離以降低功耗與延遲。這項方案為企業提供了開箱即用的大規模 AI 基礎設施,支援超大規模模型訓練和複雜任務處理。
在軟體生態方面,輝達顯著擴展了開源模型宇宙,涵蓋生物醫學 AI、物理模擬、Agentic AI、物理 AI、機器人和自動駕駛六大領域。更新內容包括算力平台、資料集、預訓練模型、程式碼庫、訓練流程腳本和端到端範本。Nemotron 系列成為重點,涵蓋推理、檢索增強生成、安全和語音四個方向。
物理 AI 領域迎來實質進展。輝達推出開源物理世界基礎模型 Cosmos,透過海量視訊、駕駛資料與 3D 模擬預訓練,能理解物理規律並產生合成資料。Cosmos 支援內容產生、軌跡預測和罕見場景還原,緩解了真實資料收集的瓶頸。
與此同時,輝達發布還首個開源視覺 - 語言 - 行動推理模型 Alpamayo,專為自駕設計。與傳統規則驅動系統不同,Alpamayo 引入推理能力,可理解因果關係和預測他人意圖,實現從「按規則行駛」到「像人一樣思考」的升級。
黃仁勳還宣布,輝達 DRIVE 系統進入量產階段,首款應用為賓士 CLA 車型,打算 2026 年在美國上路,採用 L2++ 級自動駕駛混合架構。機器人領域同樣進展顯著,Boston Dynamics、Franka Robotics 等企業基於 Isaac 平台和 GR00T 模型開發產品,涵蓋工業、醫療、消費級機器人,而在現場,多種機器人同台展示,也凸顯輝達的軟體生態多樣性。
從晶片級創新到系統級部署,輝達在 CES 2026 上完整呈現了推理時代 AI 基礎設施的藍圖。透過降低長期運作成本、突破儲存限制和建構開源生態,公司正推動 AI 從實驗室概念轉化為現實世界的生產力工具。
隨著物理 AI 的「ChatGPT 時刻」臨近,輝達的技術佈局有望能成為定義下一代智慧應用的關鍵變數。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網