黃仁勳GTC演講全文:2027年市場需求將超萬億美元;人人都應制定OpenClaw戰略

By: blockbeats|2026/03/17 13:00:06
0
分享
copy
原文標題:《黃仁勳 GTC 演講全文:推理時代到來,2027 營收至少萬億美元,龍蝦就是新操作系統》
原文作者:鮑奕龍,華爾街見聞

2026 年 3 月 16 日,英偉達 GTC 2026 大會正式開幕,英偉達創始人兼 CEO 黃仁勳發表了主題演講。

在這場被視為「AI 行業年度朝聖」的大會上,黃仁勳闡述了英偉達從一家「晶片公司」向「AI 基礎設施和工廠公司」的蛻變。面對市場最關心的業績持續性與增長空間問題,黃仁勳詳細拆解了驅動未來增長的底層商業邏輯——「Token 工廠經濟學」。

黃仁勳GTC演講全文:2027年市場需求將超萬億美元;人人都應制定OpenClaw戰略

業績指引極度樂觀,「2027 年至少 1 萬億美元的需求」

過去兩年,全球 AI 計算需求呈指數級爆炸。隨著大模型從「感知」、「生成」進化到「推理」與「行動(執行任務)」,算力的消耗量急劇攀升。針對市場高度關注的訂單與營收天花板,黃仁勳給出了極為強勁的預期。

黃仁勳在演講中直言:

去年這個時候,我說過,我們看到了 5000 億美元的高確信度需求,覆蓋 Blackwell 和 Rubin 直到 2026 年。現在,就在此時此地,我看到到 2027 年至少有 1 萬億美元的需求(at least $1 trillion)。

黃仁勳的萬億預期一度推動英偉達股價漲超 4.3%。

不僅如此,他更是對這一數字做出了補充:

這合理嗎?這就是我接下來要講的。事實上,我們甚至會供不應求。我確定,實際的計算需求會比這高得多。

黃仁勳指出,如今的英偉達系統已經證明了自己是全球「成本最低的基礎設施」。由於英偉達能運行幾乎所有領域的 AI 模型,這種通用性使得客戶投入的這 1 萬億美元能夠被充分利用並保持長久的生命周期。

目前,英偉達 60% 的業務來自排名前五的超大型雲服務商,而另外 40% 的業務則廣泛分佈於主權雲、企業、工業、機器人和邊緣運算等各個領域。

Token 工廠經濟學,每瓦性能決定商業命脈

為了解釋這 1 萬億需求的合理性,黃仁勳向全球企業 CEO 展示了一套全新的商業思維。他指出,未來的數據中心不再是存儲文件的倉庫,而是生產 Token(AI 生成的基本單位)的「工廠」。

黃仁勳強調:

每一座數據中心、每一座工廠,從定義上來說都是受電力限制的。一座 1GW(吉瓦)的工廠永遠不會變成 2GW,這是物理和原子的定律。在固定的功率下,誰的每瓦 Token 吞吐量最高,誰的生產成本就最低。

黃仁勳將未來的 AI 服務分為四個商業層級:

· 免費層(高吞吐、低速度)

· 中級層(~每百萬 token 3 美元)

· 高級層(~每百萬 token 6 美元)

· 高速層(~每百萬 token 45 美元)

· 超高速層(~每百萬 token 150 美元)

他指出,隨著模型越來越大、上下文越來越長,AI 會變得更聰明,但 Token 的生成速率會降低。黃仁勳表示:

在這個 Token 工廠裡,你的吞吐量和 Token 生成速度,將直接轉化為你明年的精確收入。

黃仁勳強調英偉達的架構能夠讓客戶在免費層實現極高的吞吐量,同時在最高價值的推理層級上,將性能提升驚人的 35 倍。

Vera Rubin 兩年實現 350 倍加速,Groq 填補極速推理

在這個物理極限的約束下,英偉達介紹其有史以來最複雜的 AI 計算系統,Vera Rubin。黃仁勳表示:

過去提到 Hopper,我會舉起一塊晶片,那很可愛。但提到 Vera Rubin,大家想到的是整個系統。在這個 100% 液冷、完全消滅了傳統線纜的系統中,過去需要兩天安裝的機架,現在只需兩小時。

黃仁勳指出,通過極致的端到端軟硬體協同設計,Vera Rubin 在同一座 1GW 數據中心裡創造了驚人的數據跨越:

在短短兩年時間內,我們將 Token 的生成速率從 2200 萬提升到了 7 億,實現了 350 倍的增長。摩爾定律在同時期僅能帶來約 1.5 倍的提升。

為了解決極速推理(如 1000 Tokens/秒)條件下的帶寬瓶頸,英偉達給出了整合被收購公司 Groq 的最終方案:非對稱式的分離推理。

黃仁勳解釋:

這兩款處理器的特點截然不同。Groq 晶片擁有 500MB 的 SRAM,而一顆 Rubin 晶片擁有 288GB 的內存。

黃仁勳指出,英偉達通過 Dynamo 軟體系統,將需要海量計算和顯存的「預填充(Pre-fill)」階段交給 Vera Rubin,將對延遲極度敏感的「解碼」階段交給 Groq。黃仁勳還對企業算力配置給出了建議:

如果你的工作主要是高吞吐,100% 使用 Vera Rubin;如果你有大量高價值的編程級別的 Token 生成需求,拿出 25% 的數據中心規模給 Groq。

據透露,由三星代工的 Groq LP30 晶片已在量產,預計第三季度出貨,而首個 Vera Rubin 機架已在微軟 Azure 雲上運行。

此外,針對光互聯技術,黃仁勳展示了全球首款量產的共封裝光學(CPO)交換機 Spectrum X,並平息了市場對於「銅退光進」的路線之爭:

我們需要更多的銅纜產能,更多的光芯片產能,更多的 CPO 產能

-- 價格

--

Agent 終結傳統 SaaS,「年薪+Token」成矽谷標配

除了硬件壁壘,黃仁勳把大量篇幅留給了 AI 軟體和生態的革命,特別是 Agent(智能體)的爆發。

他將開源專案 OpenClaw 形容為「人類歷史上最受歡迎的開源專案」,稱其僅用幾周時間就超越了 Linux 在過去 30 年取得的成就。黃仁勳直言,OpenClaw 本質上就是 Agent 計算機的「作業系統」。

黃仁勳斷言:

每一個 SaaS(軟體即服務)公司都將變成 AaaS(Agent-as-a-Service,智能體即服務)公司。毫無疑問,為了讓這種具備訪問敏感數據和執行程式碼能力的智能體安全落地,英偉達推出了企業級的 NeMo Claw 參考設計,增加了策略引擎和隱私路由器。

對於普通職場人,這場變革同樣近在咫尺。黃仁勳描繪了未來的職場新形態:

在未來,我們公司的每一位工程師都需要一個年度 Token 預算。他們的基礎年薪可能是幾十萬美元,我會在此基礎上再拿出大約一半的金額作為 Token 額度給他們,讓他們實現 10x 的效率提升。這已經是矽谷的新招聘籌碼了:你的 offer 裡帶多少 Token?

演講最後,黃仁勳還「劇透」了下一代計算架構 Feynman,它將首次實現銅線與 CPO 的共同水平擴展。更引人遐想的是,英偉達正在研發部署在太空的資料中心計算機「Vera Rubin Space-1」,徹底打開了 AI 算力向地球之外延伸的想象空間。

黃仁勳 GTC 2026 演講全文,全文翻譯如下(AI 工具輔助):

主持人:歡迎英偉達創始人兼首席執行官黃仁勳上臺。

黃仁勳,創始人兼首席執行官:歡迎來到 GTC。我想提醒大家,這是一場技術大會。能看到這麼多人一大早排隊入場,能看到在座的各位,我感到非常高興。

在 GTC,我們將聚焦三大主題:技術、平台和生態系統。

NVIDIA 目前擁有三大平台:CUDA-X 平台、系統平台,以及我們最新推出的 AI 工廠平台。

在正式開始之前,我要感謝我們的預熱環節主持人——Conviction 的 Sarah Guo、紅杉資本的 Alfred Lin(NVIDIA 的第一位風險投資人),以及 NVIDIA 的第一位主要機構投資人 Gavin Baker。這三位對技術有深刻的洞見,在整個技術生態系統中擁有極廣的影響力。當然,我還要感謝今天所有我親自邀請出席的貴賓們。感謝這支全明星團隊。

我同樣要感謝今天到場的所有企業。NVIDIA 是一家平台公司,我們擁有技術、平台和豐富的生態系統。今天到場的企業代表了價值 100 萬億美元行業中幾乎全部的參與者,共有 450 家公司贊助了本次活動,在此深表感謝。

本次大會共設有 1,000 場技術論壇、2,000 位演講嘉賓,將覆蓋人工智能「五層蛋糕」架構的每一個層級——從土地、電力與機房等基礎設施,到晶片、平台、模型,以及最終推動整個行業腾飛的各類應用。

CUDA:二十年的技術積澱

一切的起點,就在這裡。今年是 CUDA 誕生二十周年。

二十年來,我們始終致力於這一架構的研發。CUDA 是一項革命性的發明——SIMT(單指令多線程)技術允許開發者以標量代碼編寫程序,並將其擴展為多線程應用,其編程難度遠低於此前的 SIMD 架構。我們最近還新增了 Tiles 功能,幫助開發者更便捷地編程張量核心(Tensor Core),以及當今人工智能所依賴的各類數學運算結構。目前,CUDA 已擁有數千種工具、編譯器、框架和庫,在開源社區中存在數十萬個公開項目,並已深度集成到每一個技術生態系統之中。

這張圖表揭示了 NVIDIA 100% 的戰略邏輯,我從最初就一直在談這張投影片。其中最難實現、也是最核心的要素,是圖表底部的「裝機量」。歷經二十年,我們已在全球范圍內積累了數億塊運行 CUDA 的 GPU 和計算系統。

我們的 GPU 覆蓋所有雲平台,服務於幾乎所有電腦製造商和行業。CUDA 龐大的裝機量,正是這個飛輪不斷加速的根本原因。裝機量吸引開發者,開發者創造新算法並取得突破,突破催生全新市場,新市場形成新生態並吸引更多企業加入,進而擴大裝機量——這個飛輪正在持續加速。

NVIDIA庫的下載量正以驚人的速度增長,規模龐大且增速不斷提升。這個飛輪使我們的計算平台能夠支撐海量應用和層出不窮的新突破。

更重要的是,它還賦予了這些基礎設施極長的使用壽命。原因顯而易見:NVIDIA CUDA 上可運行的應用極為豐富,涵蓋 AI 生命週期的每個階段、各類數據處理平台,以及各種科學原理求解器。因此,一旦安裝了英偉達 GPU,其實際使用價值極高。這也是為何我們六年前發布的 Ampere 架構 GPU,其雲端價格反而在上漲。

這一切的根本原因在於:裝機量龐大,飛輪強勁,開發者生態廣泛。當這些因素共同發揮作用,加之我們持續更新軟件,計算成本便會不斷下降。加速計算在大幅提升應用性能的同時,隨著我們長期維護和迭代軟件,用戶不僅能在初期獲得性能躍升,還能持續享受計算成本的下降。我們願意為全球每一塊 GPU 提供長期支持,因為它們在架構上完全兼容。

我們之所以願意這樣做,是因為裝機量如此龐大——每發布一次新的優化,便能惠及數百萬用戶。這種動態組合,使得英偉達架構在持續擴大覆蓋範圍、加速自身成長的同時,不斷壓低計算成本,最終刺激新的增長。CUDA 是這一切的核心。

從 GeForce 到 CUDA:二十五年的演進之路

而我們與 CUDA 的旅程,實際上早在二十五年前就已開始。

GeForce——相信在座有很多人是伴隨著 GeForce 長大的。GeForce 是英偉達最成功的市場推廣項目。我們從你們還買不起產品的時候就開始培養未來的客戶——是你們的父母代替你們成為了英偉達最早的用戶,年復一年地購買我們的產品,直到有一天,你們成長為優秀的計算機科學家,成為真正意義上的客戶和開發者。

這是二十五年前 GeForce 奠定的基業。二十五年前,我們發明了可程式著色器——這是讓加速器實現可程式化的一項顯而易見卻意義深遠的發明,也是世界上第一款可程式加速器,即像素著色器。這五年後,我們創造了 CUDA——這是我們有史以來最重要的投資之一。當時公司財力有限,但我們將絕大部分利潤押注於此,致力於將 CUDA 從 GeForce 延伸到每一台計算機。我們之所以如此堅定,是因為我們深信其潛力。儘管初期歷經艱辛,公司堅守這一信念長達 13 代、整整二十年,如今 CUDA 已無處不在。

正是像素著色器推動了 GeForce 的革命。而大約八年前,我們推出了 RTX——為現代計算機圖形時代對架構進行了全面革新。GeForce 將 CUDA 帶給了全世界,也正因如此,讓 Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton、Andrew Ng 等眾多學者發現,GPU 可以成為加速深度學習的利器,由此點燃了十年前人工智能的大爆炸。

十年前,我們決定將可程式著色與兩個全新理念相融合:一是硬體光線追踪(Ray Tracing),這在技術上極具挑戰;二是一個當時頗具前瞻性的想法——大約十年前,我們就預見到 AI 將徹底變革計算機圖形。正如 GeForce 將 AI 帶給了全世界,AI 如今也將反過來重塑整個計算機圖形的實現方式。

今天,我要向大家展示未來。這是我們的下一代圖形技術,我們稱之為神經渲染(Neural Rendering)——3D 圖形與人工智能的深度融合。這就是 DLSS 5,請看。

神經渲染:結構化數據與生成式 AI 的融合

這是不是令人嘆為觀止?計算機圖形就此焕發生機。

我們做了什麼?我們將可控的 3D 圖形(虛擬世界的真實基礎)與其結構化數據相結合,再融入生成式 AI 和概率計算。一個完全確定性,另一個概率性卻高度逼真——我們將這兩種理念融為一體,通過結構化數據實現精準可控,同時進行實時生成。最終,內容既美觀驚艷,又完全可控。

結構化信息與生成式 AI 融合這一理念,將在一個又一個行業中不斷複現。結構化數據是可信 AI 的基石。

結構化數據與非結構化數據的加速平臺

現在我要帶大家看一張技術架構圖。

結構化數據——大家熟悉的 SQL、Spark、Pandas、Velox,以及 Snowflake、Databricks、Amazon EMR、Azure Fabric、Google BigQuery 等重要平臺,都在處理數據框(Data Frame)。這些數據框就像巨型電子表格,承載著商業世界的全部信息,是企業計算的基本事實(Ground Truth)。

在 AI 時代,我們需要讓 AI 來使用結構化數據,並對其實現極致加速。過去,加速結構化數據處理是為了讓企業更高效運轉。而未來,AI 將以遠超人類的速度使用這些數據結構,AI 智能體也將大量調用結構化數據庫。

非結構化數據方面,向量數據庫、PDF、視頻、音頻等構成了世界上絕大多數的數據形態——每年生成的數據中,約 90% 是非結構化數據。過去,這些數據幾乎完全無法被利用:我們讀取它們,存入文件系統,僅此而已。我們無法查詢,也難以檢索,原因在於非結構化數據缺乏簡單的索引方式,必須理解其含義與語境。而現在,AI 可以做到這一點——借助多模態感知與理解技術,AI 能夠讀取 PDF 文檔、理解其含義,並將其嵌入可供查詢的更大結構之中。

英偉達為此創建了兩個基礎庫:

· cuDF:用於數據框、結構化數據的加速處理

· cuVS:用於向量存儲、語義數據和非結構化 AI 數據的處理

這兩個平臺將成為未來最重要的基礎平臺之一。

今天,我們宣佈與多家企業達成合作。IBM——SQL 語言的發明者,將使用 cuDF 加速其 WatsonX Data 平臺。Dell 與我們聯合打造了 Dell AI 數據平臺,整合 cuDF 與 cuVS,並在 NTT Data 的實際項目中實現了大幅性能提升。Google Cloud 方面,我們現在不僅加速 Vertex AI,還加速 BigQuery,並與 Snapchat 合作將其計算成本降低了近 80%。

加速計算帶來的好處是三位一體的:速度、規模、成本。這與摩爾定律的邏輯一脈相承——通過加速計算實現性能飛躍,同時持續優化算法,讓所有人都能享受到持續下降的計算成本。

英偉達構建了加速計算平台,其上匯聚了眾多庫:RTX、cuDF、cuVS 等等。這些庫整合進全球雲服務和 OEM 体系,共同觸達全球用戶。

與雲服務商的深度合作

與主要雲服務商的合作

Google Cloud:我們加速 Vertex AI 和 BigQuery,與 JAX/XLA 深度集成,同時在 PyTorch 上表現卓越——英偉達是全球唯一一家在 PyTorch 和 JAX/XLA 上均表現出色的加速器。我們將 Base10、CrowdStrike、Puma、Salesforce 等客戶引入 Google Cloud 生態。

AWS:我們加速 EMR、SageMaker 和 Bedrock,與 AWS 有著深度集成。今年令我格外興奮的是,我們將把 OpenAI 引入 AWS,這將大幅推動 AWS 雲計算的消耗增長,幫助 OpenAI 擴展區域部署和計算規模。

Microsoft Azure:英偉達 100 PFLOPS 超算是我們構建的第一台超級計算機,也是第一台部署在 Azure 上的超算,這奠定了與 OpenAI 合作的重要基礎。我們加速 Azure 雲服務和 AI Foundry,合作推進 Azure 區域擴展,並在 Bing 搜索上深度協作。

值得一提的是,我們的「保密計算(Confidential Computing)」能力——確保即使是運營商也無法查看用戶數據和模型——英偉達 GPU 是全球首批支持保密計算的 GPU,可支持 OpenAI 和 Anthropic 模型在全球各地區雲環境中的保密部署。以 Synopsys 為例,我們加速其全部 EDA 和 CAD 工作流,並部署於 Microsoft Azure。

Oracle:我們是 Oracle 的第一個 AI 客戶,我為能夠第一次向 Oracle 解釋 AI 雲的概念感到自豪。此後他們發展迅猛,我們也為其引入了 Cohere、Fireworks、OpenAI 等眾多合作夥伴。

CoreWeave:全球第一家 AI 原生雲,專為 GPU 托管和 AI 雲服務而生,擁有出色的客戶群,增長勢頭強勁。

Palantir + Dell:三方聯合打造了全新的 AI 平台,基於 Palantir 的本體論平台(Ontology Platform)和 AI 平台,可在任何國家、任何氣隙隔離環境下、完全本地化地部署 AI——從數據處理(向量化或結構化)到 AI 的完整加速計算棧,無所不包。

英偉達與全球雲服務商建立了這種特殊的合作關係——我們將客戶引入雲端,這是一種互利共贏的生態。

垂直整合,橫向開放:英偉達的核心戰略

英偉達是全球第一家垂直整合、橫向開放的公司。

這一模式的必要性非常簡單:加速計算不是晶片問題,也不是系統問題,其完整表述應為應用加速。CPU 可以讓計算機整體運行得更快,但這條路已走到瓶頸。未來,唯有通過應用或領域特定的加速,才能持續帶來性能飛躍和成本下降。

這正是英偉達必須深耕一個又一個庫、一個又一個領域、一個又一個垂直行業的原因。我們是一家垂直整合的計算公司,沒有其他路可走。我們必須理解應用,理解領域,深刻理解算法,並能夠將其部署在任何場景下——數據中心、雲端、本地、邊緣乃至機器人系統。

同時,英偉達保持橫向開放,願意將技術整合進任何合作夥伴的平台,讓全世界都能享受到加速計算的紅利。

本屆 GTC 的參會者結構充分體現了這一點。本次參會者中,金融服務行業的比例最高——希望來的是開發者,不是交易員。我們的生態系統覆蓋了上游和下游供應鏈。無論是成立 50 年、70 年還是 150 年的企業,去年都迎來了歷史最佳年份。我們正處於某件非常、非常重大的事情的起點。

CUDA-X:各行業的加速運算引擎

在各個垂直領域,NVIDIA 均已深度佈局:

自動駕駛:覆蓋範圍廣泛,影響深遠

金融服務:量化投資正從人工特徵工程轉向超級計算機驅動的深度學習,迎來其「Transformer 時刻」

醫療健康:正在迎來屬於自己的「ChatGPT 時刻」,涵蓋 AI 輔助藥物發現、AI 智能體支援診斷、醫療客服等方向

工業:全球規模最大的建設浪潮正在展開,AI 工廠、晶片廠、數據中心廠紛紛落地

娛樂與遊戲:實時 AI 平台支持翻譯、直播、遊戲互動,以及智能購物代理

機器人:深耕十餘年,三大運算機架構(訓練運算機、模擬運算機、機載運算機)齊備,本次展會共有 110 款機器人亮相

電信:約 2 萬億美元規模的行業,基站將從單一通訊功能演進為 AI 基礎設施平台,相關平台名為 Aerial,與諾基亞、T-Mobile 等企業均有深度合作

以上所有領域的核心,正是我們的 CUDA-X 庫——這是 NVIDIA 作為演算法公司的根本所在。這些庫是公司最核心的資產,讓運算平台得以在各個行業發揮實際價值。

其中最重要的庫之一,是 cuDNN(CUDA 深度神經網路庫),它徹底革新了人工智能,引發了現代 AI 的大爆炸。

(播放 CUDA-X 示範影片)

大家剛才看到的一切都是模擬——包括基於物理原理的求解器、AI 代理物理模型,以及物理 AI 機器人模型。一切均為模擬,沒有任何手工動畫或關節綁定。這正是 NVIDIA 的核心能力所在:通過對演算法的深刻理解與運算平台的有機結合,解鎖這些機遇。

AI 原生企業與新計算時代

你們剛才看到了沃爾瑪、歐萊雅、摩根大通、羅氏、豐田等定義當今社會的行業巨頭,也有一大批大家從未聽說過的公司——我們稱之為 AI 原生企業。這份名單極為龐大,裡面有 OpenAI、Anthropic,以及眾多服務於不同垂直領域的新興企業。

過去兩年,這一行業經歷了驚人的腾飞。風險投資流入初創企業的資金規模達到 1,500 億美元,創人類歷史之最。更重要的是,單筆投資規模首次從數百萬美元躍升至數十億美元。

原因只有一個:這是史上第一次,每一家此類公司都需要大量計算資源和大量 token。這個行業正在創造、生成 token,或者為來自 Anthropic、OpenAI 等機構的 token 增值。

正如 PC 革命、互聯網革命、移動雲革命各自孕育出一批划時代的企業,這一代計算平台變革同樣將誕生一批極具影響力的公司,成為未來世界的重要力量。

推動這一切的三大歷史性突破

過去兩年究竟發生了什麼?三件大事。

第一:ChatGPT,開啟生成式 AI 時代(2022 年底至 2023 年)

它不僅能感知和理解,還能生成獨特內容。我展示了生成式 AI 與計算機圖形的融合。生成式 AI 從根本上改變了計算的方式——計算從檢索式轉變為生成式,這深刻影響著計算機架構、部署方式和整體意義。

第二:推理 AI(Reasoning AI),以 o1 為代表

推理能力使 AI 能夠自我反思、規劃、分解問題——將它無法直接理解的問題拆解為可處理的步驟。o1 讓生成式 AI 變得可信,能夠依據真實信息進行推理。為此,輸入 context 的 token 量和用於思考的輸出 token 量大幅增加,計算量隨之顯著提升。

第三:Claude Code,首個智能體模型

它能讀取檔案、撰寫程式碼、編譯、測試、評估並迭代。Claude Code 徹底革新了軟體工程——英偉達 100% 的工程師都在使用 Claude Code、Codex 和 Cursor 中的一種或多種,沒有一位軟體工程師不借助 AI 助力。

這是一個全新的拐點——你不再是詢問 AI「是什麼、在哪裡、怎麼做」,而是讓它「創建、執行、構建」,讓它主動使用工具、讀取檔案、分解問題、付諸行動。AI 從感知,到生成,到推理,再到如今真正能夠完成工作。

過去兩年,推理所需的計算量增長了約 10,000 倍,使用量增長了約 100 倍。我一直認為,過去兩年計算需求增長了 100 萬倍——這是所有人的共同感受,是 OpenAI 的感受,是 Anthropic 的感受。如果能獲得更多算力,就能生成更多 token,收入就會提升,AI 就會變得更智能。推理拐點已然到來。

兆元美元的 AI 基礎設施時代

去年此時,我在這裡表示,我們對 Blackwell 和 Rubin 在 2026 年之前的需求和採購訂單有高度信心,規模約為 5,000 億美元。

今天,在 GTC 一年之後,我站在這裡告訴大家:展望到 2027 年,我看到的數字至少是 1 萬億美元。而且我確信,實際的計算需求將遠不止於此。

2025:英偉達推理年

2025 年是英偉達的推理年(Year of Inference)。我們希望確保,在訓練和後訓練之外,也能在 AI 生命週期的每個階段都保持卓越,使已投資的基礎設施能夠持續高效運轉,且有效使用壽命越長,單位成本越低。

與此同時,Anthropic 和 Meta 正式加入 NVIDIA 平台,與此共同代表了全球三分之一的 AI 算力需求。開源模型已接近前沿水平,無處不在。

英偉達是目前全球唯一一個能夠運行所有 AI 領域——語言、生物學、計算機圖形、計算機視覺、語音、蛋白質與化學、機器人等——所有 AI 模型的平台,無論邊緣還是雲端,無論何種語言。英偉達架構對所有這些場景均具備通用性,這使我們成為成本最低、置信度最高的平台。

目前,英偉達 60% 的業務來自全球前五大超大規模雲服務商,剩餘 40% 遍佈區域雲、主權雲、企業、工業、機器人、邊緣計算等各個領域。AI 的覆蓋廣度本身就是其韌性所在——這毫無疑問是一次全新的運算平台變革。

Grace Blackwell 與 NVLink 72:大膽的架構革新

在 Hopper 架構還處於鼎盛時期,我們就決定徹底重新架構系統,將 NVLink 從 8 路擴展為 NVLink 72,對運算系統進行全面分解重構。Grace Blackwell NVLink 72 是一次巨大的技術押注,對所有合作夥伴而言都不容易,在此向所有人表示誠摯感謝。

同時,我們推出了 NVFP4——不只是普通的 FP4,而是一種全新類型的張量核心和運算單元。我們已經證明,NVFP4 可以在無精度損失的情況下實現推理,同時帶來巨大的性能提升和能效提升,並且同樣適用於訓練。

此外,Dynamo 和 TensorRT-LLM 等一系列新算法相繼問世,我們甚至為優化內核而專門投入數十億美元建造了一台超級計算機,稱之為 DGX Cloud。

結果證明,我們的推理性能令人矚目。來自 Semi Analysis 的數據——這是迄今為止最全面的 AI 推理性能評測——顯示英偉達在每瓦 token 數和每 token 成本兩個維度上均遙遙領先。原本摩爾定律可能給 H200 帶來 1.5 倍的性能提升,但我們做到了 35 倍。Semi Analysis 的 Dylan Patel 甚至說:「黃仁勳保守了,實際上是 50 倍。」他說得沒錯。

我在此援引他的話:「Jensen sandbagged(黃仁勳保守報數)。」

英偉達的每 token 成本是全球最低,目前無人能及。原因正在於極致協同設計(Extreme Co-design)。

以 Fireworks 為例,在英偉達更新全套軟件和算法之前,其平均 token 速度約為每秒 700 個;更新後接近每秒 5,000 個,提升約 7 倍。這就是極致協同設計的力量。

AI 工廠:從資料中心到 token 工廠

資料中心過去是存儲文件的地方,現在它是生產 token 的工廠。每一家雲服務商、每一家 AI 公司,未來都將以「token 工廠效率」作為核心經營指標。

這是我的核心論點:

· 縱軸:吞吐量(Throughput)——在固定功率下每秒生成的 token 數

· 橫軸:交互速度(Token Speed)——每次推理的響應速度,速度越快,可使用的模型越大、context 越長,AI 越智能

token 是新的大宗商品,一旦成熟,將分層定價:

· 免費層(高吞吐、低速度)

· 中級層(~每百萬 token 3 美元)

· 高級層(~每百萬 token 6 美元)

· 高速層(~每百萬 token 45 美元)

·超高速層(~每百萬 token 150 美元)

與 Hopper 相比,Grace Blackwell 在最高價值層提升了 35 倍吞吐量,並引入全新層級。以簡化模型估算,將 25% 功率分別分配給四個層級,Grace Blackwell 可比 Hopper 多產生 5 倍的收入。

Vera Rubin:下一代 AI 計算系統

(播放 Vera Rubin 系統介紹視頻)

Vera Rubin 是一個完整的、端到端優化的系統,專為智能體(Agentic)工作負載設計:

· 大型語言模型計算核心:NVLink 72 GPU 集群,處理前填充(Prefill)和 KV Cache

· 全新 Vera CPU:專為極高單線程性能設計,採用 LPDDR5 內存,兼具卓越能效,是全球唯一使用 LPDDR5 的資料中心 CPU,適合 AI 智能體工具調用

· 存儲系統:BlueField 4 + CX 9,面向 AI 時代的全新存儲平台,全球存儲行業 100% 加入 CPO Spectrum X 交換機:全球首款共封裝光學乙太網交換機,已全面量產

·  Kyber 機架:全新機架系統,支援 144 塊 GPU 組成單一 NVLink 域,前端計算、後端 NVLink 交換,形成一台巨型計算機

· Rubin Ultra:下一代超算節點,豎插式設計,配合 Kyber 機架,支援更大規模 NVLink 互聯

Vera Rubin 已 100% 液冷,安裝時間從兩天縮短至兩小時,採用 45°C 熱水冷卻,大幅降低數據中心冷卻壓力。這次 Satya(納德拉)已發文確認,首台 Vera Rubin 機架已在微軟 Azure 上線運行,我為此深感振奮。

Groq 整合:推理性能的極致延伸

我們收購了 Groq 團隊並獲得其技術授權。Groq 是一種確定性數據流處理器(Deterministic Dataflow Processor),採用靜態編譯和編譯器調度,擁有大量 SRAM,專為推理單一工作負載優化,具備極低延遲和極高 token 生成速度。

然而,Groq 的內存容量有限(500MB 片上 SRAM),難以獨立承載大模型的參數和 KV Cache,限制了其大規模應用。

解決方案正是 Dynamo——一套推理調度軟體。我們通過 Dynamo 將推理管線解聚(Disaggregate):

· 前填充(Prefill)及注意力機制的解碼(Decode):在 Vera Rubin 上完成(需要大量算力和 KV Cache 存儲)

· 前饋網路解碼(Feed-Forward Network Decode):即 token 生成部分,在 Groq 上完成(需要極高帶寬和低延遲)

兩者通過乙太網緊密耦合,借助特殊模式將延遲減少約一半。在 Dynamo 這一「AI 工廠操作系統」的統一調度下,整體性能提升 35 倍,並開辟了 NVLink 72 此前無法觸及的全新推理性能層級。

Groq 與 Vera Rubin 的組合建議:

若工作負載以高吞吐為主,使用 100% Vera Rubin 若大量工作負載為代碼生成等高價值 token 生成

可引入 Groq,建議比例約為 25% Groq + 75% Vera Rubin Groq LP30 由三星代工,目前已進入量產,預計 Q3 開始出貨。感謝三星的全力配合。

推理性能的歷史性飛躍

將此前技術進步量化:在 2 年時間內,1 吉瓦 AI 工廠的 token 生成速率將從 2,200 萬 token/秒提升至 7 億 token/秒,提升 350 倍。這就是極致協同設計的力量。

技術路線圖

· Blackwell:當前在產,Oberon 標準機架系統,銅纜擴展至 NVLink 72,可選光學擴展至 NVLink 576

· Vera Rubin(當前):Kyber 機架,NVLink 144(銅纜);Oberon 機架,NVLink 72 + 光學,擴展至 NVLink 576;Spectrum 6,全球首款 CPO 交換機

· Vera Rubin Ultra(即將推出):新一代 Rubin Ultra GPU,LP35 芯片(首次集成 NVFP4),進一步提升數倍性能

· Feynman(下一代):全新 GPU,LP40 芯片(由英偉達與 Groq 團隊聯合打造,集成 NVFP4);全新 CPU——Rosa(Rosalyn);BlueField 5;CX 10;同時支持銅纜和 CPO 兩種擴展方式的 Kyber 機架

路線圖明確:銅纜擴展、光學擴展(Scale-Up)、光學擴展(Scale-Out)三條路線並行推進,我們需要所有合作夥伴在銅纜、光纖和 CPO 方面持續擴產。

NVIDIA DSX:AI 工廠的數位孿生平台

AI 工廠越來越複雜,但組成它的各類技術供應商過去從未在設計階段相互協作,直到在資料中心才「相遇」——這顯然不夠。

為此,我們創建了 Omniverse,以及基於其上的 NVIDIA DSX 平台——一個供所有合作夥伴在虛擬世界中共同設計和運營吉瓦級 AI 工廠的平台。DSX 提供:

· 機架級機械、熱學、電氣、網路模擬系統

· 與電網的連接,實現協同節能調度

· 資料中心內基於 Max-Q 的動態功耗和冷卻優化

保守估計,這套系統可將能源利用效率提升約 2 倍,在我們談論的規模上,這是非常可觀的收益。Omniverse 從數位地球開始,將承載各種規模的數位孿生,我們正與全球合作夥伴共同構建人類歷史上最大的計算機。

此外,英偉達正在進軍太空。Thor 晶片已通過輻射認證,正在衛星中運行。我們正與合作夥伴開發 Vera Rubin Space-1,用於建設太空資料中心。在太空中只能依靠輻射散熱,熱管理是核心挑戰,我們正集結頂尖工程師攻關。

OpenClaw:智能體時代的作業系統

Peter Steinberger 開發了一款名為 OpenClaw 的軟體。這是人類歷史上最受歡迎的開源專案,在短短幾周內便超越了 Linux 三十年的成就。

OpenClaw 本質上是一個智能體系統(Agentic System),能夠:

· 管理資源,存取工具、檔案系統和大型語言模型

· 執行排程、定時任務

· 將問題逐步分解,並調用子智能體

· 支援任意模式的輸入輸出(語音、視訊、文字、郵件等)

用作業系統的語法來描述,它確實就是一個作業系統——智能體電腦的作業系統。Windows 讓個人電腦成為可能,OpenClaw 讓個人智能體成為可能。

每一家企業都需要制定自己的 OpenClaw 战略,正如我們都需要 Linux 策略、HTML 策略、Kubernetes 策略一樣。

企業 IT 的全面重塑

OpenClaw 之前的企業 IT:數據和檔案進入系統,流經工具和工作流,最終變成供人類使用的工具。軟體公司創建工具,系統整合商(GSI)和諮詢公司幫助企業使用這些工具。

OpenClaw 之後的企業 IT:每一家 SaaS 公司都將轉變為 AaaS(Agentic as a Service,智能體即服務)公司——不只是提供工具,而是提供專精特定領域的 AI 智能體。

但這裡有一個關鍵挑戰:企業內部的智能體可以訪問敏感數據、執行程式碼、與外部通訊。這在企業環境中必須得到嚴格管控。

為此,我們與 Peter 合作,將安全性融入企業級版本,推出了:

· NeMo Claw(參考設計):基於 OpenClaw 的企業級參考框架,整合 NVIDIA 的全套智能體 AI 工具包

· Open Shield(安全層):已整合至 OpenClaw,提供策略引擎、網路防火牆、隱私路由,確保企業數據安全

· NeMo Cloud:可下載使用,並與所有 SaaS 企業的策略引擎對接

這是企業 IT 的文藝復興,一個原本 2 萬億美元規模的產業,即將成長為數萬億美元規模,從提供工具轉向提供專業化的 AI 智能體服務。

我完全可以預見:未來,公司裡的每一位工程師都將擁有年度 token 預算。他們年薪可能是幾十萬美元,我會額外給他們相當於薪資一半的 token 配額,讓他們的產出放大 10 倍。「入職附帶多少 token 配額」已經成為矽谷的新晉招聘話題。

每一家企業未來都將既是 token 的使用者(供工程師使用),也是 token 的生產者(為其客戶提供服務)。OpenClaw 的意義不可低估,它和 HTML、Linux 一樣重要。

NVIDIA 開放模型倡議

在自定義智能體(Custom Claw)方面,我們提供了 NVIDIA 自研的前沿模型:

模型領域 Nemotron 大型語言模型 Cosmos 世界基礎模型(World Foundation Model)GROOT 通用人形機器人模型 Alpamayo 自動駕駛 BioNeMo 數字生物學 Phys-AIAI 物理

我們在每一個領域都處於技術前沿,並承諾持續迭代——Nemotron 3 之後有 Nemotron 4,Cosmos 1 之後有 Cosmos 2,Groq 也將迭代到第二代。

Nemotron 3 在 OpenClaw 中名列全球三大最佳模型之列,處於前沿水平。Nemotron 3 Ultra 將成為有史以來最強的基礎模型,支持各國構建主權 AI。

今天,我們宣布成立 Nemotron 聯盟,投資數十億美元推進 AI 基礎模型研發。聯盟成員包括:BlackForest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection、Sarvam(印度)、Thinking Machines(Mira Murati 的實驗室)等。

一個又一個企業軟體公司加入,將 NeMo Claw 參考設計和 NVIDIA 智能體 AI 工具包整合到自身產品中。

物理 AI 與機器人

數位智能體在數位世界中行動——撰寫程式碼、分析資料;而物理 AI 則是具身化的智能體,也就是機器人。

本次 GTC 共有 110 款機器人亮相,幾乎囊括了全球所有機器人研發企業。英偉達提供三台電腦(訓練電腦、模擬電腦、機載電腦)和完整的軟體棧及 AI 模型。

自動駕駛方面,自動駕駛的「ChatGPT 時刻」已經到來。今天,我們宣布四家新合作夥伴加入英偉達 RoboTaxi Ready 平台:比亞迪、現代、日產、吉利,合計年產量 1,800 萬輛。加上此前的奔馳、豐田、通用,陣容進一步壯大。我們同時宣布與 Uber 達成重大合作,將在多個城市部署並接入 RoboTaxi Ready 車輛。

工業機器人方面,ABB、Universal Robotics、KUKA 等眾多機器人企業與我們合作,將物理 AI 模型與模擬系統相結合,推動機器人在全球製造生產線的落地。

電信方面,卡特彼勒(Caterpillar)和 T-Mobile 也在其列。未來,無線基站將不再只是一個通訊節點,而是一個 NVIDIA Aerial AI RAN——能夠實時感知流量、調整波束成形,實現節能增效的智能化邊緣運算平台。

特別環節:Olaf 機器人亮相

(播放 Disney Olaf 機器人演示影片)

黃仁勳: 雪人登場!Newton 運行正常!Omniverse 也運行正常!Olaf,你好嗎?

Olaf: 見到你我真的太開心了。

黃仁勳: 是的,因為是我給了你電腦——Jetson!

Olaf: 那是什麼?

黃仁勳: 就在你的肚子裡。

Olaf: 太神奇了。

黄仁勋: 你是在 Omniverse 裡學會走路的。

Olaf: 我喜歡走路。這比騎馴鹿仰望美麗的天空好多了。

黃仁勳: 這正是因為物理仿真——基於 NVIDIA Warp 運行的 Newton 求解器,這是我們與 Disney 和 DeepMind 聯合開發的,讓你能夠適應真實的物理世界。

Olaf: 我正想說這個。

黃仁勳: 這就是你聰明的地方。我是雪人,不是雪球。

黃仁勳: 你能想像嗎?未來的迪士尼樂園——所有這些機器人角色在園區裡自由漫步。不過說實話,我以為你會更高一些。我從沒見過這麼矮的雪人。

Olaf:(不置可否)

黃仁勳: 來幫我結束今天的演講好嗎?

Olaf: 太棒啦!

主題演講總結

黃仁勳:今天,我們共同探討了以下核心主題:

1. 推理拐點的到來:推理已成為 AI 最核心的工作負載,token 是新的大宗商品,推理性能直接決定收入

2. AI 廠時代:數據中心已從文件存儲設施演變為 token 生產廠,未來每家公司都將以「AI 廠效率」來衡量自身競爭力

3. OpenClaw 智能體革命:OpenClaw 開啟了智能體計算時代,企業 IT 正在從工具時代走向智能體時代,每家企業都需要制定 OpenClaw 戰略

4. 物理 AI 與機器人:具身智能正在規模化落地,自動駕駛、工業機器人、人形機器人共同構成物理 AI 的下一個重大機會

感謝大家,GTC 愉快!

原文連結

猜你喜歡

熱門幣種

最新加密貨幣要聞

閱讀更多