OpenAI 聯創最新專訪:關停 Sora 後,ChatGPT 的下一步是什麼?
视频標題:OpenAI 總裁 Greg Brockman:AI 战略、AGI 和超级应用
視頻作者:Alex Kantrowitz
編譯:Peggy,BlockBeats
編者按:本文編譯自 OpenAI 總裁兼共同創始人 Greg Brockman 在 Big Technology Podcast 的對談。該節目長期關注 AI、科技產業與商業結構的變化,是觀察硅谷一線判斷的重要窗口。

在這場對談中,Brockman 並未停留在模型能力本身,而是將問題進一步前移:當 AI 的能力已基本被驗證,行業接下來將如何選擇路徑、重構產品形態,並承接其帶來的系統性衝擊。對談圍繞 OpenAI 的產品戰略、即將推出的「超级应用」,以及其對 AI 進入「腾飞階段」的判斷展開。
這場對談可以從三個方面來理解。
第一,是路徑的收斂。
從視頻生成到推理模型,從多線並進到主動取捨,OpenAI 的選擇並非簡單的技術優劣判斷,而是對現實約束的回應——算力已成為核心瓶頸。在資源有限的前提下,技術路線開始收斂至兩個最具槓桿效應的方向:個人助理與複雜問題求解。這也意味著,AI 的競爭邏輯,正在從「能做什麼」,轉向「先做什麼」。
第二,是形態的重構。
「超级应用」的提出,本質上是一種產品形態的躍遷。AI 不再是零散工具的集合,而是一個統一入口:它理解上下文、調用工具、執行任務,並在不同場景中持續積累記憶。從 ChatGPT 到 Codex,AI 正在逐步接管完整的工作流程,而人類的角色,也從執行者轉向調度者——設定目標、分配任務並進行監督。
第三,是節奏的轉折。
如果說過去兩年是能力的爬坡階段,那麼現在正在發生的,是「腾飞」。一方面,模型能力從「輔助約 20% 的工作」躍升至「覆蓋約 80% 的任務」,直接觸發工作流的重構;另一方面,AI 正在參與自身進化(用 AI 優化 AI),疊加晶片、應用與企業側的協同,形成持續加速的閉環。AI 不再是單點技術,而開始成為推動經濟增長的關鍵引擎。
但與此同時,另一組問題也在同步浮現:公眾的不信任、就業的不確定性、數據中心帶來的爭議,以及安全與治理的邊界。對此,Brockman 給出的答案並不完全在技術內部。他更強調兩點:其一,風險無法通過「集中控制」來解決,需要圍繞 AI 建立類似電力系統的社會基礎設施;其二,個體能力正在發生轉變——真正重要的,不再是「會不會使用工具」,而是「能否借助 AI 實現自己的目標」。
如果說過去的問題是「AI 能做什麼」,那麼現在的問題已經變成,當 AI 開始替你完成大部分事情,你還需要做什麼。
以下為原文內容(為便於閱讀理解,原內容有所整編):
TL;DR
AGI 已進入「路徑清晰」階段:Greg Brockman(OpenAI 聯創)認為,基於 GPT 的推理模型已具備通往 AGI 的明確路線,預計數年內實現,但形態仍將是「非均勻」的(jagged)。
注:AGI(Artificial General Intelligence)指通用人工智能,指在絕大多數認知任務上具備與人類相當甚至超越人類能力的 AI 系統。與當前「專用 AI」(如圖像識別、推薦算法)不同,AGI 強調跨任務的通用性與遷移能力。
戰略收斂:從多線探索到兩大核心應用:在算力約束下,OpenAI 將資源集中於「個人助理」和「複雜問題求解」,而非同時推進所有方向(如視頻生成)。
「超級應用」將成為 AI 入口形態:聊天、編程、瀏覽器與知識工作將被整合為一個統一系統,AI 從工具變形為「執行層」,用戶轉向「調度者」。
關鍵轉折:AI 開始接管工作流程而非輔助:模型能力已從「完成 20% 任務」躍升至「可承擔 80%」,迫使個人與企業重構工作方式。
算力成為核心瓶頸與競爭焦點:AI 需求遠超供應,未來限制不在模型能力,而在計算資源,數據中心與基礎設施成為關鍵變量。
AI「起飛」(takeoff)正在發生:技術自我加速(AI 優化 AI)疊加產業協同(晶片、應用、企業),推動 AI 從工具走向經濟增長引擎。
最大風險不在技術,而在治理與使用方式:安全問題無法靠單一主體解決,需要開放生態與社會基礎設施共同承接。
個體核心能力正在轉變:未來競爭力不在「執行」,而在「設定目標+管理 AI 系統」,主動使用 AI 將成為基礎能力。
對談整理:
Alex(主持人):
今天我們請到了 OpenAI 的聯合創始人兼總裁 Greg Brockman,一起聊聊 AI 最具潛力的機會、OpenAI 將如何抓住這些機會,以及「超級應用」的構想。Greg 今天也來到了我們的錄音室。
Greg Brockman(OpenAI 聯創&總裁):
很高興見到你,謝謝邀請。
為什麼關停 Sora?算力不夠用
Alex:
現在這個時間點很有趣,OpenAI 正在暫停視訊生成的推進,把資源集中到一個「超級應用」上——它會整合商業與編程場景。從外部看(包括我在內),感覺 OpenAI 已經在消費端取得領先,現在卻在調整資源配置。到底發生了什麼?
註:2026 年 3 月,OpenAI 宣布關閉其視訊生成產品 Sora(包括應用與 API),並停止相關商業推進。
Greg Brockman:
過去一段時間,我們一直在開發深度學習這項技術,想驗證它是否真的能產生我們一直設想的那種正向影響——是否可以被用來構建真正幫助人們、改善生活的應用。
與此同時,我們也在做另一條線:把這項技術部署出去。一方面是為了支撐業務運轉,另一方面也是為了提前積累真實世界的經驗,為技術真正成熟的那一刻做準備。
而現在,我們已經走到了一個新的階段。我們看到這項技術確實是可行的。我們正在從「基準測試」和一些偏抽象的能力展示,轉向一個新的階段——必須把它放到真實世界中,讓它參與實際工作,通過用戶反饋來繼續進化。
所以我更傾向於將這次變化理解為:這是由技術階段變化驅動的一次戰略轉向。
這並不是說我們在從「消費端」轉向「企業端」。更準確地說,我們在問一個問題:在資源有限的情況下,我們最應該優先做哪些應用?因為我們不可能什麼都做。
哪些應用能夠真正落地、彼此之間產生協同,並且帶來實際影響?如果你把所有方向列出來,消費端可以拆成很多種:比如個人助理,一個真正了解你、與你目標一致、能幫助你實現人生目標的系統;再比如創作與娛樂;還有很多其他可能性。而在企業端,如果你從更高層看,其實可以抽象為一件事:你有一個複雜任務,AI 能不能幫你完成?
對我們來說,目前的優先級非常清晰,排在最前面的只有兩件事:第一,是個人助理;第二,是能夠幫你解決複雜問題的 AI。
問題在於:我們現有的算力,甚至連這兩件事都撐不滿。一旦再加上更多應用場景,就根本不可能全部覆蓋。所以這其實是一個現實判斷:技術正在快速成熟、影響即將爆發,而我們必須做取捨,選擇最重要的方向去真正做出來。
Alex:
你之前提到過一個類比,說 OpenAI 有點像 Disney:有一個核心能力,然後可以向不同場景延展。Disney 有米老鼠,可以做電影、主題樂園、Disney+。OpenAI 的「核心」是模型,可以做視頻生成、做助手、做企業應用。
但現在看起來,你們是不是不再走這種「全面延展」的路徑,而是必須做選擇了?
Greg Brockman:
其實我反而覺得這個類比現在更成立。但關鍵在於一點:從技術角度看,Sora(視頻模型)和 GPT(推理模型)其實屬於兩條不同的技術分支。它們的構建方式完全不同。
問題在於,在當前階段,同時推進這兩條技術樹是非常困難的,尤其是在資源有限的情況下。所以我們做出的選擇是,在當前階段,把主要資源集中在 GPT 這條路徑上。
當然,這並不意味著我們放棄其他方向。例如在機器人領域,我們仍然在繼續相關研究。但機器人本身還處在更早期的階段,還沒有進入真正爆發的成熟期。
相比之下,在未来一年裡,我們會看到 AI 在知識工作領域的真正腾飞。
而且需要強調的是:GPT 路線並不只是「文本」。比如雙向語音交互(speech-to-speech),也是這條技術路徑的一部分,它會讓 AI 更可用、更實用。這些能力本質上還是在同一個模型體系裡,通過不同方式調整出來的。
但如果你走向兩條完全不同的技術分支,那在算力受限的情況下,是很難長期維持的。而算力之所以受限,是因為——需求太大了。幾乎每一個模型發布之后,人們都想用它做更多事情。
Alex:
那為什麼你們沒有把重心放在「世界模型」這條路徑上?比如視頻模型,它需要理解物件之間的關係,這對機器人也很關鍵。而且 Sora 的進展其實非常快。為什麼最終選擇押注 GPT?
注:「世界模型」(World Model)側重於感知與物理直覺,核心在於讓 AI 理解「世界如何運作」,而不僅是學習「資料的表面模式」。這類模型通常被用來描述像 Sora 這樣的系統:它不僅是在生成圖像或視頻,更是在建模對象之間的關係(如人、車、光線)、時間的連續變化(幀與幀之間的演進),以及基礎的物理規律(如運動、遮擋與碰撞)。相比之下,GPT 屬於語言與推理模型,更側重抽象認知與任務執行能力。
Greg Brockman:
這個領域最大的問題,其實是機會太多。
我們很早就發現,在 OpenAI,只要一個想法在數學上是合理的,它通常就能跑得通,並且能取得不錯的結果。這說明深度學習的底層能力非常強,它可以從數據中抽象出生成規則,並遷移到新的場景。這件事你可以用在世界模型、科學發現、編程等各種領域。
但關鍵在於:我們需要做取捨。
過去一直有一個爭論,文本模型到底能走多遠?它能否真正理解世界?我認為現在這個問題已經有答案了,文本模型是可以走到 AGI 的。
我們已經看到了清晰的路徑,今年還會有更強的模型出現。而在 OpenAI 內部,我們最大的痛苦之一,就是如何分配算力——這個問題只會越來越嚴重,而不是緩解。所以本質上,這不是「哪條路線更重要」的問題,而是時機和順序的問題。
現在,一些我們過去認為遙遠的應用,已經開始變得觸手可及。比如解決尚未被解開的物理問題。我們最近就有一個案例,一位物理學家研究一個問題已經很久,把問題交給模型,12 小時後,我們給出了一個解。他說,這是他第一次覺得,一個模型像是在「思考」。這個問題甚至可能是人類永遠無法解決的,但 AI 做到了。
當你看到這樣的事情,你唯一的選擇就是:加倍下注、三倍投入。因為這意味著,我們真的可以釋放巨大的潛力。
所以對我來說,這並不是不同方向之間的競爭,而是 OpenAI 的使命是什麼?我們如何把 AGI 帶到世界?如何讓它真正造福所有人?以及,我們已經看到了那條路徑,我們知道該如何推進它。
押注 GPT,而不是世界模型:通往 AGI 的路徑選擇
Alex:
好,我確實還想回到你剛才提到的下一代模型,但我想先追問一下這個問題。
我今年早些時候和 Google DeepMind 的 Demis Hassabis 聊過。挺有意思的是,他說,對他來說,最接近 AGI 的東西其實是他們那個叫 Nano Banana 的圖像生成器。
注:Demis Hassabis 是推動 AI 從研究走向突破性應用的關鍵人物之一。他創立的 DeepMind 開發了 AlphaGo,並於 2016 年擊敗圍棋世界冠軍,成為人工智能發展史上的標誌性事件。
他的理由是:無論是圖像生成器還是視頻生成器,要生成那樣的圖像和視頻,本質上都必須理解物體之間的互動關係,至少要對世界如何運作有某種層面的認識。
所以這會不會意味著一種潛在風險?這是一個很大的押注——如果情況真是這樣,OpenAI 在另一條技術樹上持續加碼,會不會錯過什麼?
Greg Brockman:
如果真是那樣呢?我有兩個回答。
第一,當然有這種可能。這個領域就是這樣,你終究必須做選擇,必須下注。而 OpenAI 從一開始就在做這件事:我們要判斷,自己相信通往 AGI 的路徑是什麼,然後高度聚焦地沿著那條路推進。就像隨機向量相加,最後結果可能接近於零;但如果你把所有向量對齊,它們就能推動你朝一個明確方向前進。
但第二點是,圖像生成其實也是 ChatGPT 裡非常受歡迎的能力,我們也還在持續投入、持續優先推進。我們之所以能這麼做,是因為它其實並不屬於「世界模型」或者「擴散模型」那條技術分支,它實際上是建立在 GPT 架構之上的。所以雖然它面對的是不同的數據分布,但在更底層的核心技術棧上,其實還是同一套東西。
而這恰恰是 AGI 最驚人的地方之一:有時候,看起來非常不同的應用——語音到語音、圖像生成、文本處理,以及文本本身在科學研究、編程、個人健康信息等不同場景中的應用——其實都可以被容納在同一個技術框架裡。
所以,從技術角度來說,我和公司一直在思考的一件事,就是如何盡可能統一我們的努力方向。因為我們真的相信,這項技術會帶來整體性的提升,甚至會抬升整個經濟體系。
而這件事的規模太大了。我們當然不可能把所有事都做完,但我們可以完成屬於我們的那一部分。
Alex:
這就是 Artificial General Intelligence(AGI,通用人工智能)裡那個「general」的含義。
Greg Brockman:
沒錯,這就是那個 G,真的就是這個意思。
Alex:
說到「統一」,那這個超級應用到底會是什麼樣?
Greg Brockman:
我理解中的超級應用是——
Alex:
它會把聊天、編程、瀏覽器,以及 ChatGPT 這些東西都整合在一起,對吧?
Greg Brockman:
對。我們想做的是一個面向端用戶的應用,讓你真正體驗到 AGI 的力量,也就是它的「通用性」。
如果你想想今天的聊天產品,我認為它會逐漸演變成你的個人助理、你的個人 API,一個真正為你考慮的 AI。它很了解你,知道很多關於你的信息,與你的目標保持一致,值得信任,並且能夠在這個數位世界裡某種程度上「代表」你。
至於 Codex,你可以把它理解為:它現在還是一個主要為軟體工程師打造的工具,但它正在變成「面向所有人的 Codex」。
任何想創造、想搭建東西的人,都可以使用 Codex,讓電腦去完成他們想做的事。而且它已經不再只是「寫軟體」這件事了,它更像是「使用電腦」本身。比如我會讓它幫我調筆記本設定。有時候我忘了怎麼設置熱區(hot corners),我就直接讓 Codex 去做,它就真的做了。
這才是電腦本來應該有的樣子,它應該去適應人,而不是讓我去適應它。
所以你可以想像這樣一個應用:凡是你希望電腦完成的事情,你都可以直接告訴它。這其中會內置「電腦使用」和「瀏覽器操作」能力,讓 AI 真正能夠操作網頁,同時你也可以監督它到底在做什麼。而且,不管你的互動是聊天、寫程式碼,還是一般性的知識工作,所有這些對話都會被統一在一個體系裡。AI 會有記憶,會了解你。
這就是我們正在構建的東西。
但說實話,這其實只是冰山一角,是露在水面上的那部分。對我來說,真正更重要的是底層技術的統一。
我們前面提到過底層模型層面的統一,但過去幾年真正發生變化的是:現在已經不只是「模型」本身的問題了,更重要的是「承載系統」。也就是說,模型如何獲得上下文?它如何連接到真實世界?它能採取哪些行動?當新的上下文不斷進入時,它與用戶互動的循環機制是怎樣運作的?
過去這些東西我們內部其實有多套實現,或者至少是幾套略有不同的實現。現在我們正在把它們收斂成一套。最終,我們會擁有一個統一的 AI 層,然後以非常輕量的方式,把它指向不同的具體應用場景。
你當然仍然可以做一個小插件、一個小介面,專門服務金融、專門服務法律,但大多數情況下,你甚至都不需要,因為這個超級應用本身就會足夠廣泛、足夠通用。
Alex:
這個應用既面向企業場景,也面向個人場景?
Greg Brockman:
對,這其實正是它的核心。就像一台電腦,比如你的筆記本,它到底是個人用途,還是工作用途?答案其實是:兩者都是。它首先是你的設備,是你進入數位世界的接口。而這也正是我們想做的東西。
Alex:
那從非商業的角度講,如果我在個人生活裡使用這個超級應用,我會拿它做什麼?我的生活會發生什麼變化?
Greg Brockman:
我會這樣理解:在個人生活裡,它首先會延續你現在使用 ChatGPT 的方式。
你現在是怎麼用 ChatGPT 的?其實人們已經在用它完成非常多樣、而且很驚人的任務了。有時候只是簡單地說,「我要在婚禮上致辭,你能幫我起草一下嗎?」或者,「你能不能幫我看看這個想法,給我一點反饋?」再比如,「我在做一個小生意,能不能給我一些思路?」
這些場景有些偏個人,有些已經開始模糊個人與工作的邊界。而我的觀點是:所有這類問題,都應該可以交給超級應用來處理。
Greg Brockman:
但如果你回頭看 ChatGPT 這一路的發展,它本身其實已經在演變了。
它以前是沒有記憶的,對吧?對每個人來說,它都是同一個 AI,每次都從零開始,幾乎像是在跟一個陌生人說話。可如果它能記住你們過去的互動,它就會強大得多。如果它還能接入更多上下文,它也會強大得多。
比如說,它連上你的郵箱、你的日曆,真正了解你的偏好,擁有一套更深層的、關於你以往經歷的背景信息,然後利用這些信息去幫助你實現目標。再比如現在 ChatGPT 里已經有一個叫 Pulse 的功能,它會每天根據它對你的了解,主動給你推送你可能感興趣的內容。
所以在個人使用層面上,超級應用會把這一切都包含進去,而且會做得更深、更豐富。
Alex:
你們打算什麼時候推出它?
Greg Brockman:
更準確的理解方式是,接下來幾個月裡,我們會一步一步地朝這個方向推進。我們講的這個完整願景,會逐步被交付出來,但不會一次性整體上線,它會以分階段的方式出現。
比如說,今天的 Codex 應用其實本身就已經包含了兩層東西:一層是一個通用型的智能體承載系統(agent harness),它可以使用工具;另一層則是一個擅長寫軟件的智能體。
而這個通用型承載系統,其實可以被用於很多別的場景。你把它接到電子表格上,接到 Word 文件上,它就能幫助你處理知識工作。
所以我們的第一步,就是把 Codex 應用變得對通用知識工作更加好用。因為我們已經在 OpenAI 內部看到,大家自發地開始把它這樣用起來了。
這會是第一步,後面還會有很多步。
Alex:
我昨天和你們一位同事聊 Codex 的時候,他提到有個人在用 Codex 做視頻剪輯:他讓 Codex 幫自己處理視頻,Codex 甚至給 Adobe Premiere 做了一個插件,把視頻分章節,然後開始剪輯。這就是你們要做的方向?
Greg Brockman:
我特別喜歡聽到這種案例。這正是我們希望這個系統能發揮作用的方式。而且很有意思的一點是:Codex 應用本來是為軟體工程師設計的,所以對非程序員來說,它當前的可用性其實並不高。因為在配置過程中,會出現很多小問題。
開發者一看就知道那是什麼意思,也知道怎麼修;我們已經習慣了。但如果你不是開發者,你看到這些就會想:「這是什麼東西?我以前從沒見過。」
可即便如此,我們還是看到很多從來沒寫過程式的人,已經開始拿它來搭網站,或者做你剛才說的那種事——自動化不同軟體之間的互動,從中獲得巨大的槓桿效應。比如我們溝通團隊裡就有人把它接到了 Slack 和郵箱上,讓它去處理大量反饋,並且做出很不錯的歸納和綜合。
所以現在的情況是:那些非常有動力的人,已經願意跨過這些門檻,然後從中獲得很高回報。
某種意義上說,最難的部分我們已經完成了——我們已經做出了一個真正聰明、有能力、能實際完成任務的 AI。
接下來要做的,是那個相對「容易」的部分:讓它變得真正對大眾有用,把這些進入門檻一點點拆掉。
Alex:
那從競爭格局來看,Anthropic 現在也有 Claude 應用,既有聊天機器人,也有 Claude Code。某種程度上,他們也已經有了自己的「超級應用」雛形。
你怎麼看 Anthropic 為什麼更早走到這一步?以及你覺得 OpenAI 追上的可能性有多大?
Greg Brockman:
如果你把時間拨回 12 到 18 個月前,我們其實一直都把「編程」作為一個重點領域,也一直在各種編程競賽這類很「純能力型」的測試裡拿到最好的成績。但我們當時投入得不夠多的一件事,是最後一公里的可用性。
也就是說,我們沒有足夠重視這樣一個問題:AI 已經很聰明了,能解各種高難度編程題,但它從來沒有見過現實世界裡的程式庫——而真實世界的程式庫往往很混亂,遠不像它熟悉的那些「乾淨」環境。
在這一點上,我們當時確實是落後的。但大概從去年年中開始,我們開始非常認真地補這件事。我們專門組建了團隊,去看所有這些缺口在哪裡,真實世界到底有哪些混亂、哪些複雜性,是我們之前沒有真正接觸過的。
比如,怎麼構建訓練數據?怎麼搭訓練環境?讓 AI 真正體驗「做軟體工程」是什麼感覺——被打斷、遇到奇怪的問題、各種非理想情況,等等。
我覺得到了現在,我們已經追上來了。當用戶真正把我們和競爭對手放在一起正面對比時,很多人會更偏向選擇我們。
當然,我們也知道自己在前端體驗上還有差距,這部分我們會補上。但整體來看,這就是我們這段時間的方向:不只是做一個模型,再額外套一個產品殼;而是從一開始就把它當成一個完整產品來思考。在做研究的時候,我們就同時在想:它最終會怎麼被使用?這是 OpenAI 這段時間內部正在發生的一種轉向。
所以我的看法是,我們接下來會有非常強的一波模型升級。光看今年的路線圖,我都覺得很振奮,能做成的事情真的很多。
與此同時,我們也在非常聚焦地補齊最後一公里的可用性。
Alex:
自 2022 年以來,OpenAI 一直像是這個領域裡無可爭議的領跑者。顯然,現在的競爭已經不再只是測試成績上的競爭了。你剛剛自己也用了「我們追上來了」這樣的說法。
公司內部的氛圍是不是也變了?也就是說,現在和過去那種在 ChatGPT 這樣的產品上遙遙領先的感覺不一樣了,而是真的進入了一場正面競爭。
外界的一些報導其實也能看出這種變化——比如公司內部開過會,強調 OpenAI 已經沒有什麼「支線任務」了,所有人都要圍繞這個核心方向集中精力。那現在內部的環境和氛圍,發生了怎樣的變化?
Greg Brockman:
我會說,對我個人來說,OpenAI 最讓我感到不安的時刻,恰恰是在我們發布 ChatGPT 之後。
我記得那時在公司的假日派對上,現場彌漫着一種「我們贏了」的氛圍。我以前從來沒有過那種感覺。當時我的反應是:不對,我們不是這樣的人,我們是那個處於劣勢的一方。
而且我們一直都是。這個領域裡的競爭對手,大多都是已經建立起來的大公司,資金更多、人力更多、數據更多,幾乎所有資源都更充足。
那 OpenAI 為什麼還能參與競爭?某種程度上,答案就在於:我們從不覺得自己可以高枕無憂。我們始終把自己當成挑戰者。
事實上,對我來說,看到市場開始真正呈現出這種競爭格局,看到其他對手也開始出現、並且做得不錯,反而是一件很健康的事。
因為在我看來,你永遠不能把注意力釘死在競爭對手身上。如果你只盯著他們現在在哪裡,那等你走到那裡時,他們早就已經往前走了。
而我覺得,過去一段時間其實是反過來的:很多人一直在盯著我們所處的位置,而我們得以繼續往前推進。這反而給了我們一種內部上的對齊感和統一感。
我前面提到過,過去我們幾乎是把「研究」和「部署」當成兩件分開的事來看待;而現在,我們真正想把它們整合起來。對我來說,這是一件非常美妙的事。
所以我會說,我們現在所處的這個階段,並不是我覺得我們曾經「穩贏」過,或者現在突然陷入危機。你知道的,外界對你的評價,通常不會像他們說得那麼好,也不會像他們說得那麼糟。
我覺得整體上,我們其實一直都很穩定。而在模型研發這件核心事情上,我對我們的路線圖、對我們已經做下去的研究投入,其實是非常有信心的。至於產品端,我覺得我們現在有一種非常好的能量,大家正在聚攏到一起,把這些東西真正交付到世界面前。
Alex:
你前面已經好幾次提到,接下來會有一些很強的新模型。那到底是什麼?
The Information 報道說,你們已經完成了「Spud」的預訓練;而 Sam Altman 也對 OpenAI 內部員工說,幾周之內他們應該就會看到一個非常強的模型。那還是幾周前說的。團隊內部認為,它甚至有可能真正推動經濟加速,事情進展得比很多人預想得還快。
所以,「Spud」到底是什麼?
Greg Brockman:
它是個很好的模型。但我覺得,重點其實不在某一個單獨的模型上。
我們的研發流程大致是這樣的:首先是預訓練,也就是產出一個新的基礎模型,之後所有進一步的改進,都會建立在這個基礎模型之上。而這一步,往往都需要公司內部很多團隊投入巨大的努力。事實上,過去 18 個月裡,我自己大部分時間都花在這裡:主要是圍繞 GPU 基礎設施,支援那些負責訓練框架的團隊,把這些大規模訓練任務真正跑起來。
然後是強化學習階段。也就是讓這個已經學到了大量世界知識的 AI,開始真正運用這些知識。
再接下來是後訓練過程。在這個階段,你會真正告訴它——好,現在你已經知道怎麼解題了,那就去在各種不同情境下練習。
最後,還有一個關於行為與可用性的「最後一公里」階段。
所以,我會把 Spud 看成是一個新的底座、一個新的預訓練模型。而且在它身上,可以說是我們過去大約兩年的研究,開始真正走向結果了。它會非常令人興奮。
我想,外界最終感受到的,會是能力上的整體提升。但對我來說,這從來都不只是某一次單獨發布的問題。因為等這個版本一出來,它其實也只是我們接下來更多進展的一個早期版本。我們還會在這個改進流程的每一個環節上,繼續做得更多。
所以我覺得,我們現在更像是擁有了一台不斷加速的進步引擎,而 Spud 只是這條路上的一個節點而已。
Alex:
那你覺得,它能做到哪些今天的模型還做不到的事?
Greg Brockman:
我覺得,它會既能解決更難的問題,也會變得更細膩。它會更好地理解指令,也會更好地理解上下文。
人們有時候會說一種叫「big model smell」的感覺——意思是,當模型真的更聰明、更有能力時,你是能明顯感覺到的。它會更順著你的意圖走,更貼合你的需求。
當你問一個問題,而 AI 卻沒有真正聽懂你的意思時,那種感覺現在還是很讓人失望。你會忍不住想:這件事你明明應該能自己想明白。
所以我會說,從某種意義上來說,這會是很多「量變」累積起來帶來的「質變」。一方面,各項指標上都會有很多提升;另一方面,也會出現一些全新的場景:以前你會因為 AI 不夠可靠而懶得用它,現在你會不假思索地直接拿來用。
我覺得這會是一次全方位的變化。我尤其期待看到,它會如何繼續抬高能力的上限。我們已經看到它在物理研究這類場景中的表現,我覺得接下來它會能夠解決更多開放式問題、跨越更長時間跨度的問題。
同時,我也很期待看到它如何抬高能力的下限——也就是,不管你想做什麼,它都會比今天更有用得多。
Alex:
但對普通用戶來說,感受到這種變化有時候並不容易。比如 GPT-5 發布之前,外界其實已經有了很多預熱和期待;可它真正出來的時候,公眾最初的反應某種程度上反而有點失望。後來大家才慢慢發現,在某些具體任務上,它其實非常強。
那對接下來這一代模型,你覺得它會主要在某些職業場景裡被明顯感受到,還是說,它會成為一種對所有人都比較直觀、普遍可感的提升?
Greg Brockman:
我覺得故事可能還是會類似。模型發布之後,一定會有人一上手就覺得:這和我以前見過的東西相比,完全是白天和黑夜的區別。但也會有一些應用場景,本來瓶頸就不在「智能」上。那如果你只是把模型變得更聰明,可能在這些地方,用戶未必立刻就能感受到差異。
不過,隨著時間推移,我覺得大家最終都會感受到變化。因為真正發生改變的是:你會在多大程度上開始依賴這個系統。
如果你想想我們現在和 AI 的互動方式,其實每個人腦子裡都有一個關於「它能做什麼」的心理模型。而這個心理模型變化得並不快。通常都是隨著經驗積累,它偶爾替你完成了一件很神奇的事,你才突然意識到:原來它竟然能做到這個,我以前根本沒想到。
比如在醫療資訊獲取這樣的場景裡,我們已經看到了類似情況。我有一個朋友,就是用 ChatGPT 去瞭解自己癌症的不同治療方案。醫生此前已經告訴他,這是晚期,已經沒有什麼辦法可做了。但他用 ChatGPT 去研究了很多不同思路,最後真的因此找到了治療方案。
像這種情況,其實前提是:你得先對 AI 在這個場景裡的幫助能力有某種程度的信任,你才會願意投入那麼多精力去從這個系統裡挖出價值。
所以我覺得,接下來我們會看到的是:在任何類似的應用場景裡,AI 能幫到你的這件事,會變得對所有人都更加顯而易見。
因此,這既是技術本身在變強,也是我們對技術的理解正在變化、正在追上它。
Alex:
也就是說,你會越來越依賴它。在 OpenAI 內部,你們還在開發一個自動化 AI 研究員,據說會在今年秋天推出。那到底是什麼?
AI 已進入「腾飛」早期階段
Greg Brockman:
我覺得,從整體趨勢來看,我們現在正處在這項技術腾飛的早期階段。
Alex:
「腾飛」是什麼意思?
Greg Brockman:
腾飛,指的是 AI 在沿著指數曲線不斷變強。而其中一部分原因在於:我們已經可以用 AI 去幫助我們改進 AI 本身,所以整個研發過程也在加速。
但我覺得,所謂「腾飛」也不僅僅是技術層面的事,它還意味著現實世界影響力的釋放。很多技術的發展都像一條 S 曲線;而如果你把多條 S 曲線放在更長的時間維度上去看,它們最終會匯聚成一種近似指數級的增長。
我覺得我們現在正處在這樣的階段。也就是說,技術本身正在以越來越快的速度推進,這臺進步引擎正在不斷積累動能。
同時,在外部世界裡,也有很多順風因素在形成:晶片開發商正在獲得更多資源投入;大量人在上層做各種應用,嘗試把 AI 嵌入不同場景,尋找它與各種具體需求之間的契合點。
所有這些能量都在不斷累積,共同把 AI 推入一個「腾飛期」,讓它從一種邊緣性的存在,逐漸變成推動經濟增長的主要引擎。
而這件事,並不只是我們這幾面牆之內發生的事情。它關乎整個世界、整個經濟體系,如何一起推動這項技術,以及它的實用性不斷向前發展。
Alex:
那這個「研究員」具體會做什麼?
Greg Brockman:
所謂這個「研究員」,本質上是指:當 AI 能接管的任務比例越來越高之後,我們就應該允許它在更大程度上自主運行。
當然,這背後其實有很多需要仔細思考的地方。它並不意味著:我們把它放出去,讓它自己跑一陣子,過會兒回來看看它有沒有做出什麼好結果。
我覺得,我們依然會非常深度地參與到它的管理之中。就像現在,如果你帶一個初級研究員,你要是把他單獨晾太久,他大概率會走到一條並沒有太多價值的路徑上去。但如果有一個資深研究員,或者說一個真正有方向感的人在帶,他甚至未必要親自掌握所有具體操作技能,也仍然可以對這個人產出的東西持續給出反饋、做審閱,並且提供方向上的引導:我到底希望你完成什麼。
所以我理解中的這個系統,是我們正在構建的一套機制,它會大幅提升我們產出模型的速度,推動新的研究突破出現,也讓這些模型在真實世界裡變得更有用、更好用。而且,這一切都會以越來越快的速度發生。
Alex:
它具體會做什麼?你會不會直接對它說:「去找到 AGI」,然後它就自己去嘗試?
Greg Brockman:
某種程度上,我確實是這麼理解的,至少在第一層意義上是這樣。但如果從更實際的角度說,我會把它理解為:把我們一位研究科學家從頭到尾完整的工作流程,盡可能搬到矽基系統裡去執行。
Alex:
還有一種理解「腾飛」的方式是:AI 的進展會從漸進式提升,變成不斷積累動能,最終演變成一種幾乎無法阻擋的推進過程,朝著比人類更聰明的智能前進。
你會不會擔心,就像事情可能朝好的方向發展一樣,這種進展本身也可能失控、可能走偏?
Greg Brockman:
我覺得,當然會,這是毫無疑問的。我認為,想要獲得這項技術帶來的好處,就必須同時嚴肅地思考它的風險。
如果你看我們在技術開發上的做法,就會發現我們在安全性和防護上投入了很多。一個很好的例子就是 prompt injection(提示注入)攻擊。如果你要做一個非常聰明、能力很強、還接入了大量工具的 AI,那你當然要確保,它不會因為別人給出一條奇怪的指令就被帶偏、被操縱。
這就是我們投入很多精力去做的事,而且我覺得我們已經取得了非常不錯的結果,也有一支非常強的團隊在負責這部分工作。
有趣的是,這裡面有些問題其實可以和人類做類比。人類同樣會受到釣魚攻擊影響,也會被誤導,也可能在不了解完整上下文的情況下做事。
我們會把這些類比帶入自己的研發過程。每當我們發布一個模型、開發一個模型時,我們都會思考:怎麼確保它真正與人類目標保持一致,怎麼確保它確實能夠幫上忙?這是我們非常在意的一件事。
當然,也還有一些更大的問題,涉及整個世界、整個經濟:一切會如何變化?每個人要怎樣才能從這項技術中受益?這些問題並不只是技術問題,也不是 OpenAI 單靠自己就能解決的。但沒錯,我確實會經常思考,不僅要推動技術前進,也要真正確保它能夠帶來與其潛力相匹配的積極影響。
Alex:
問題在於,這看起來像是一場競賽。OpenAI 總部這幾面牆內發生的事,也會被很多開源玩家快速複製。而這些玩家在安全邊界、防護措施上,往往要弱得多。
我記得你以前說過一句話,大意是:創造性的成果,需要很多人把很多事情都做對;但破壞性的結果,可能只需要一個懷有惡意的人。這也是我至少最擔心的地方。因為這顯然是一場競賽,而且進展很快。你的很多同行都說過,如果所有人都同意停下來,他們也願意停。但現在看起來,這場競賽根本沒有減速的跡象。
那這個回報,真的值得承擔這樣的風險嗎?
Greg Brockman:
我認為,這個回報是值得的。但我也覺得,這樣的回答還是太粗了,太一刀切了。
從 OpenAI 創立之初開始,我們一直在問:怎樣的未來才算是一個好的未來?這項技術要怎樣才能真正提升所有人的處境?
你可以把這個問題拆成兩個角度。一種是「中心化」的視角:認為要讓這項技術安全,最好的辦法就是只有一個主體去開發它。這樣一來,就沒有競爭壓力了,你可以慢慢地、謹慎地把事情做對,等準備好了,再決定怎麼把它交付給所有人。這種想法當然可以理解,但某種程度上,它也是一個很難讓人接受的方案。
而另一種路徑,也是我們更傾向的路徑,是從「韌性」出發去思考。也就是說,把它看成一個開放系統:有很多參與者都在推動這項技術發展,但重點不只是技術本身,更在於建設圍繞這項技術而生的社會基礎設施,讓它能夠被更穩妥地承接。
你可以想想電力的發展過程。電力也是由很多不同的人和機構來生產的,它本身同樣有風險和危險性。可與此同時,我們也圍繞它建立起了多層次的安全基礎設施:有電力安全標準,有不同的使用規範,有不同規模下對應的監管方式。到了非常大的規模時,還會有專門的監管要求。很多人都能夠以一種被民主化的方式去使用電力,同時還有檢查員、還有一整套配套系統,圍繞這種技術的特性逐漸建立起來。
而我覺得,AI 也是一樣。我們真正看到的一點是:圍繞 AI,必須有一場廣泛的社會討論。如果這項技術真的會到來,並且改變每一個人的生活,那人們就必須參與進來。它不能只是由某一個中心化的小團體,秘密地推進和決定一切。
所以,對我來說,這始終是一個非常核心的問題:這項技術到底應該以什麼樣的方式展開?而我們真正相信的,就是這樣一個圍繞技術發展逐漸形成的「韌性生態系統」。
Alex:
所以你的意思是,我們現在正處在「腾飛」的過程中,而我們所有人其實都已經身處其中。英偉達 CEO 黃仁勳最近說,他認為 AGI 已經實現了。你同意嗎?
Greg Brockman:
我覺得,AGI 對不同的人來說有不同的定義。而且確實會有不少人認為,我們今天手裡的技術就已經算是 AGI 了。
這件事可以爭論。但我覺得,真正有趣的地方在於:我們現在擁有的技術,其實仍然是非常「不平滑」的、帶有明顯斷層感的。
在很多任務上,比如寫程式之類的事情,它已經絕對是超人的了。AI 就是能做到,而且它確實大幅降低了創造東西時的摩擦。但與此同時,也還有一些非常基礎的事情,是人類能輕鬆做到、而 AI 仍然會吃力的。
所以你到底把分界線畫在哪裡?某種程度上,這更像是一種「感覺」,一種氛圍判斷,而不是一個在此刻可以被嚴格科學定義的問題。
所以對我自己來說,我覺得我們顯然正在經歷那個時刻。如果你五年前把今天的這些系統展示給我看,我會說:對,這就是我們當時說的那種東西。只是現實長出來的樣子,和我們當初想象的非常不一樣。它和我們曾經設想的任何形式都不太一樣。
所以我覺得,我們需要相應地調整自己的心智模型。
Alex:
所以你的意思是,還沒到?
Greg Brockman:
我會說,大概已經到了 70%、80% 吧。所以我覺得我們其實已經非常接近了。
而且我認為,有一件事已經極其清楚:在接下來的幾年裡,我們一定會迎來 AGI。它的表現可能仍然會有些「鋸齒狀」,不會是全面平滑、處處完美的。但它能完成任務的下限會被抬得非常高——幾乎對於任何需要你在電腦上完成的智力任務,AI 都能做。
所以現在我必須給出一個稍微帶點不確定性的回答,因為這裡面確實有點像某種「不確定性原理」——你可以從不同定義去爭論它。但按照我個人的定義,我覺得我們已經幾乎到了。再往前邁一點點,就絕對到了。
關鍵轉折:從 20% 到 80% 的工作接管
Alex:
2025 年 12 月到底發生了什麼。因為那看起來像是一個轉折點,「讓機器不受打斷地連續寫幾個小時的程式碼」這件事,似乎突然從一個理論想法,變成了所有人都開始說:「我覺得我可以信任它,讓它自己繼續跑一陣子。」
所以那時候到底發生了什麼?
Greg Brockman:
當時的新模型釋出之後,AI 能完成的任務比例,大概是從你工作中的 20%,一下子提升到了 80%。這是一個極其巨大的轉變。因為它不再只是「一個挺不錯的小工具」,而是變成了:你必須圍繞這些 AI 重新組織自己的工作流。
對我個人來說,我也有一個非常典型的體感時刻。這些年來,我一直有一個測試提示詞:讓 AI 為我搭一個網站。這個網站其實是我當年學編程時親手做過的,花了我幾個月時間。
而到了 2025 年的時候,這件事大概還是需要花四個小時、來回好幾輪提示,才能做得比較像樣。但到 12 月的時候,我只問了一次,AI 一次就做出來了,而且做得很好。
Alex:
那這些模型是怎麼完成這種躍遷的?
Greg Brockman:
很大一部分原因,是基礎模型本身變得更強了。OpenAI 一直在持續提升自己的預訓練技術。而在那個時間點上,我們第一次稍微看到了一點:今年餘下時間裡將會發生什麼。但與此同時,它也不只是某一個單點突破的問題。更準確地說,是我們在所有創新維度上都在持續推進。
這些模型很有趣的一點是:某種意義上,你會感覺到它們出現了一次次「跳變」;但從另一個角度看,一切其實又是連續演化的。它並不是突然從 0% 跳到 80%,而是從 20% 提升到 80%。所以某種程度上,你也可以說,它只是變得更好了而已。
而且我覺得,這種進步其實在我們後續的每一個小版本更新裡都還在繼續。比如從 5.2 到 5.3,我有一位合作很緊密的工程師,原本他完全沒法讓模型去做他負責的那種底層、硬核的系統工程工作;但到了新版本之後,模型已經可以接過他的設計文檔,真正去實現、加上指標監控和可觀測性、跑 profiler 做性能分析,再持續優化,最後做到他原本希望自己親手交付出來的那個結果。
所以我會說,這更像是一種「緩慢推進,然後突然到處都變了」的過程。但這一切,其實都已經由當下正在起作用的能力預示出來了。最遲一年之內,很多事情,有些甚至會快得多,都會變得極其可靠。
Alex:
這是不是也讓你自己感到意外?因為我記得不久前你在一次採訪裡還說過,Codex 這種自動編程工具,本來只是給軟體開發者用的。可在今天這場對話更早的時候,你又說,其實所有人都可以使用這類工具。
那是什麼讓你改變了看法?
Greg Brockman:
我之前其實一直把 Codex 放在「寫程式碼」這個框架裡來理解。畢竟它名字裡就有 code,很自然會把它看成是給程式設計師用的工具。而且在 OpenAI 內部,很多人本身就是軟體工程師,我們是在為自己造工具,所以按這種方式去想,也非常自然。
但隨著這項技術不斷進步,我們開始意識到一件事:我們真正做出來的底層技術,其實大部分根本不是關於「程式碼」的,它本質上是關於「解決問題」的。
它的核心,是管理上下文、搭建執行框架,並思考 AI 應該如何接入現實工作、如何真正把事情做完。而這件事一旦成立,哪怕是在編程場景裡,突然之間也意味著任何人都能獲得這種能力。因為你真正擁有的是一個可以替你執行工作的系統。只要你有一個願景,有一個想完成的目標,你能把自己的意圖描述清楚,AI 就可以去執行,可以把事情做出來。
但這也會讓你開始反問,為什麼我只盯著「非編程」或「編程」這種劃分?其實還有大量工作,本質上都只是某種機械性技能。比如 Excel 表格、比如做簡報。這些事如果 AI 已經擁有足夠的上下文,也具備足夠的原始智能,它現在其實已經可以做得很好了。
所以,如果我們只是把它變得更容易接近、對人更友好,那它就會從「Codex 是給程序員的」,一下子變成「Codex 是給所有人的」。
Alex:
而在我們看到這波明顯進步之後,矽谷很快又出現了另一個幾乎悄無聲息的現象,就是 Open Claw,對吧?或者更廣義一點說,是整個技術圈開始以一種你剛才提到的方式去信任 AI——比如把桌面控制權交給一個 AI 機器人,或者弄一台 Mac mini,把郵件、日曆、檔案這些權限都給它,然後就讓它某種程度上「接管生活」。
後來 OpenAI 又把 Open Claw 的創始人招進了公司。所以你能不能多講一點這種「幫助你管理生活」的 AI?把 Open Claw 團隊招進來,背後對應的就是這樣一種願景嗎?
Greg Brockman:
我會說,這項技術最核心的一點在於:弄清楚它到底該如何變得有用,人們到底想怎麼使用它,智能體的願景究竟是什麼,它會以什麼方式進入人們的生活——這些本身都是很難的問題。
而我在這幾代技術演進中反覆看到的一件事是:那些真正願意深度投入、充滿好奇心、又有強烈想象力的人,這本身就是一種非常真實的能力,而且會成為新經濟裡越來越有價值的一種能力。
Open Claw 的創始人 Peter,在我看來就是這樣的人,他有非常強的想象力,也有極強的創造衝動。所以從某種程度上說,這件事和某項具體技術有關;但從另一種程度上說,它又根本不只是技術問題。它真正關乎的是:我們怎樣把這些能力嵌進人們的生活裡,找到它們真正落位的地方。
所以,作為一個技術人,這當然令人興奮;但作為一個真正關心如何把實用價值交付給用戶的人,我們現在也在這件事上加大投入,投入得非常多。
Alex:
你最近關於這件事有一句挺有意思的話。你說,當你開始讓這些自治 AI 智能體替你工作時,你會變成「成千上萬個智能體組成的艦隊的 CEO」,它們在替你完成你的目標、願景和任務,而你自己不再深陷於各種具體問題是怎麼被解決的細節裡。
但你也說,從某種意義上講,這種新的工作方式會讓人感覺自己正在失去對問題本身的「脈搏感」。
Greg Brockman:
這到底是不是一件好事?我覺得,它是一個利弊並存的東西。
所以我認為,我們要做的是,一方面承認這些工具真正能帶來的力量,另一方面也要盡量緩解它們帶來的弱點。比如說,賦予人更大的槓桿、讓人擁有更大的行動能力——如果你有一個願景,有一件想完成的事,那你就可以調動一整支智能體艦隊替你去做,這當然是很強大的。
但如果你想想這個世界的運行方式,到最後一定還是有一個需要負責的人。假設你在做一個網站,而你的智能體把事情搞砸了,最終影響到了用戶,那嚴格來說,這並不是智能體的錯,而是你的錯。所以你必須在意這件事。
我覺得,任何想真正使用這些工具的人,都必須認識到:人的能動性、人的責任,是整個系統的核心組成部分。人如何使用 AI,這件事本身就是非常根本的。
所以我覺得最重要的一點是:作為這些智能體的使用者——我們在 OpenAI 內部也是這樣——你不能放棄責任。你不能只是說:「AI 會自己把事情做好。」
Alex:
當然。但你剛才說的是「感覺自己正在失去對問題的脈搏感」,這和「責任」好像又不是一回事。
Greg Brockman:
對我來說,這兩者其實是連在一起的。因為重點就在於:如果你是 CEO,但你離細節太遠了——比如你在帶一個團隊、在運營一家公司,卻已經失去了對一線狀態的感知,那通常不會導向什麼好結果。所以我剛才想表達的,不是說「人類終於可以什麼都不用知道了」是一件值得追求的事。
當然,有些細節確實可以被放心交出去。就像你找一個總承包商幫你蓋房子,有一大堆細節你大概不需要親自去盯,因為你信任對方會處理好。但歸根結底,如果某些關鍵細節出了問題,你還是應該在意,也還是應該知道。
所以這裡有一個非常重要的細微差別:你不能只是盲目地說,「我願意失去那種對問題的把握感」。相反,我們應該主動地說:我還是需要保有這種感知,去真正理解系統的強項和弱點。
而當你開始從一些更低層、更機械性的事務中抽離出來時,你之所以能這麼做,應該是因為你已經與這個系統建立起了信任,確認它確實會把事情做好。
Alex:
關於模型,我最後再問一個問題。你剛才提到了一點模型演進的路徑:從預訓練,到微調,再到強化學習,讓它更擅長一步一步地解決問題,並且能夠去互聯網上執行任務。
而現在我們已經進入了這樣一個階段:模型通過這個過程學會了使用工具。如果我沒理解錯的話,接下來這條演進路徑的下一步會是什麼?
Greg Brockman:
我覺得,我們現在所處的世界,是機器能力不斷加深、不斷擴展的世界。這裡面一部分當然和工具使用有關,但與此同時,我們也需要真正把「工具」本身做得足夠好。比如說,如果 AI 已經能進行「電腦操作」,可以像人一樣使用桌面系統,那從原則上講,它就已經能做任何你能做的事情。
但與此同時,我們也必須為機器補上很多基礎設施層面的東西。比如,在企業環境裡,身份認證和權限管理怎麼做?審計軌跡和可觀測性怎麼做?要追上模型底層能力的發展,還有大量配套技術需要被建出來。
而從整體方向上看,我覺得接下來會包括像「非常自然的語音界面」這樣的東西。也就是說,你可以像現在這樣自然地和電腦對話,它能真正聽懂你,完成你需要它做的事,也能給出有價值的建議。
比如說,它會主動提醒你:你一直在推進的某件事現在卡住了,問題出在這裡。或者你早上醒來時,它會對你說:這是你的每日簡報,昨晚你的那些智能體一共推進了多少工作。
也許它甚至已經在替你經營一門生意了——我認為這會是這項技術的一個巨大應用場景。創業的民主化,絕對會發生。它會告訴你:這些地方出了問題;有一位客戶現在很不滿意,而且他想和一個真人聊一聊,你最好親自去處理一下。這些事,都會發生。
然後,我覺得下一個階段還包括:人類能夠挑戰的目標上限,也會被這項技術繼續抬高。我們現在其實已經看到了這個趨勢的前沿。最讓我興奮的一點,幾乎可以拿 AlphaGo 的第 37 手來類比——那一步棋是人類從來不會下出來的,它帶有創造性,而且改變了很多人對這項遊戲的理解。
這種事情會在每個領域中發生。它會發生在科學、數學、物理、化學中;會發生在材料科學、生物學、醫療、藥物發現中;甚至也可能發生在文學、詩歌,以及許多其他領域。它會以我們今天還無法想象的方式,解鎖人類在創造性理解和構思上的新空間。
Alex:
但如果模型已經像你說的這麼強大,為什麼這件事直到現在還沒有真正發生?
Greg Brockman:
我覺得,這裡面存在一個「能力滯後差」——也就是模型真正具備的能力,和人們實際在怎麼使用它之間,還有很大距離。某種程度上說,我們對模型裡到底「裝著什麼」的理解,本身還在逐漸形成。
所以我認為,即便從現在開始技術不再繼續進步,世界也依然會發生一次巨大的變化——由計算驅動、由 AI 驅動的經濟,仍然會到來。
但同時,還有另一層原因:我們現在最擅長的,其實是把模型訓練在那些「可以被衡量」的任務上。所以一開始,我們從數學題、編程題起步,因為這些任務有非常明確的驗證者:答案對不對,可以非常清楚地判斷。而過去這段時間裡,我們之所以能把模型逐漸帶向更開放式的問題,靠的也是不斷擴大「什麼東西可以被驗證、被評估」的範圍。
而 AI 本身其實也可以幫助完成這件事。如果 AI 足夠聰明、足夠理解任務,你給它一個評估標準,它就能逐步學習。但像創意寫作這樣的任務,比如「這首詩寫得好不好」,就很難打分。
因此,我們過去在這類場景中,確實比較難讓 AI 通過不斷嘗試和反饋來真正學會。不過這一切都正在改變,而我們對接下來的路徑也已經看得相當清楚了。
Alex:
這倒挺有趣的。Peter Thiel 之前說過一句話,大意是:如果你是一個擅長數學的人,那在這些模型面前,你受到的衝擊可能反而比「擅長文字的人」更大。而你當年也是 Math Club 的成員。你不會擔心這件事嗎?
Greg Brockman:
我覺得,人總是更容易看見自己失去了什麼,而不是看見自己得到了什麼。因為我們對「我以前是怎麼做這件事的」有很深的體驗。比如我以前參加數學競賽,現在 AI 也能做數學競賽了。但問題在於,這件事從來就不真正關乎「數學競賽」本身,對吧?那並不是推動人類前進的核心東西。
如果你看看我們現在的工作方式——坐在一個盒子前面,對著另一個盒子打字——一百年前我們不是這樣生活的。這不是一種自然狀態,也不是我們被捲入的這個數字世界真正應有的樣子。
那不是「做人」最本質的部分。真正重要的,是在場、是活在當下、是和其他人建立連接。
而我認為,我們即將看到的是:AI 會釋放出大量時間,讓人類有更多機會去加強彼此之間的連接,去建立更多人與人之間的紐帶。
這一點讓我非常興奮。
Alex:
好。那當你們進一步轉向這些更具 agent 特徵的應用場景時,外界也開始討論一個問題:未來是否還需要繼續做那麼大的訓練任務?
尤其是,當模型已經足夠好之後,你似乎可以讓它直接進入真實世界,然後在很多並不依賴預訓練的環節裡,獲得很大一部分提升。而那些真正需要超大數據中心支撐的,其實主要還是預訓練。
你一直都在負責擴展規模、推動這件事。你怎麼看這種說法?
Greg Brockman:
我覺得,這種說法忽略了技術演進中非常重要的一點。確實,模型生產流水線上的每一個環節,都會相互放大彼此的效果。所以你會希望所有環節都變得更強。
我們看到的是:一旦預訓練變得更強,後面的每一個步驟都會容易得多。這其實很合理。因為模型一開始就更有能力了,所以它學得更快;它在嘗試不同思路、從自己的錯誤中學習時,也會因為底子更強而推進得更快,犯的錯更少。
所以,真正大的變化並不是說,我們從「訓練一個純粹封閉、自我推演的理性系統」,變成「只讓它去真實世界裡試錯」。而是我們意識到,不僅要把模型本身做大、做強,也要讓它去嘗試事情,要理解人們在現實世界裡是怎麼使用它的,並把這些使用反饋重新接入訓練過程裡。但這並不會削弱繼續推進那部分研究的價值,也不會削弱它的重要性。
我覺得還有一個變化是:過去我們主要關注預訓練階段原始能力的提升,但沒有那麼重視推理階段、或者說推論階段(inference)的能力。而在過去 24 個月裡,一個很大的轉變就是,我們開始意識到這兩者之間需要平衡。
也就是說,你可以擁有一個底座能力非常強的模型,但它也必須在推論和實際運行時足夠高效。因為你要做強化學習,要把它真正部署到現實世界裡,這些都要求它具備很強的推論效率。
這也意味著,你不一定會把訓練規模推到理論上能推到的最大,因為你還必須考慮到後續的大量使用場景。
你真正想要的是:在智能水平與成本之間,乘積最優的那個點。而不是只優化其中一個維度。
Alex:
如果未來主要轉向 inference,你們是不是就不再那麼需要 Nvidia 的 GPU 了?
Greg Brockman:
我們當然還是非常需要。
Alex:
為什麼?
Greg Brockman:
原因有很多。
其中一個是:無論訓練和推論之間的比例怎麼變化,超大規模訓練這件事,仍然只能通過把海量算力集中到一個問題上來完成,而這件事目前沒有別的替代方式。
所以我覺得未來更可能發生的情況是:部署側的算力占比會大幅上升;但與此同時,仍然會有一些時刻,你要進行某一輪特別巨大的預訓練任務,那時你還是需要把大量算力集中起來。
而且我也覺得,Nvidia 的團隊真的非常出色,他們做的工作非常驚人。所以,是的,我們和他們合作得非常緊密。
Alex:
那會不會有一天,人們開始說:「我們已經預訓練得夠多了,模型已經足夠聰明了」?
Greg Brockman:
我覺得,這有點像是在說:等到人類把眼前所有問題都解決完了,也許我們就可以這麼說了。但我認為,我們想實現的事情,它的上限其實高得多。
過去 50 年裡,某種程度上,我們對很多目標的野心其實是退縮了的。比如說,有些問題看起來就非常明確——我們能不能讓所有人都擁有醫療保障?而且不只是「出了問題再治療」,而是真正做到預防式醫療,去關注生活方式,盡早幫助人們,在疾病發生之前就發現潛在風險。這類問題,我認為我們其實是可以借助更智能的模型去真正解決的。
當然,也許存在某個層級,在那個層級上,這個問題已經被徹底解決了,那時你可能會問:我還需要一個聰明兩倍的模型嗎?但與此同時,也一定會有其他問題要求更高層級的智能。
算力不是成本,而是收入引擎
Alex:
我們來聊聊建這些數據中心背後的數字。你們今年早些時候融資了 1100 億美元。這裡面的數學是怎麼成立的?這筆錢會直接投向數據中心嗎?你們又是怎麼考慮未來如何把這筆錢回報給投資人的?聊聊這些計算邏輯。
Greg Brockman:
我覺得,這件事本質上非常簡單:我們眼前最大的支出,就是算力。但你不能把算力只看成成本中心,它更像是收入中心。
你可以把它想象成招聘銷售團隊。你願意雇多少銷售?只要你的產品賣得出去,只要你有一套可以規模化銷售這個產品的機制,那麼你雇的銷售越多,收入就越高。
而我們現在所處的世界就是,我們一再發現,我們根本沒法把算力建得足夠快,來跟上需求的增長。這一點,我現在就能非常具體地感受到。我們不得不做出非常痛苦的決定:哪些功能能上線,哪些功能暫時不能;算力優先給哪裡,不給哪裡。
而我認為,隨著整個經濟向 AI 驅動型經濟轉變,這種情況會在更廣泛的層面上出現。
未來真正的問題會變成:哪些問題能獲得那種海量算力?你要怎麼擴展,才能讓每個人都擁有一個屬於自己的個人智能體?怎麼讓所有人都用上像 Codex 這樣的系統?
現在這個世界上,根本就沒有足夠的算力去支撐這些事情。所以我們是在提前為這個問題做準備。
Alex:
但這畢竟是一個全新的類別,對吧?而且你們是在用一種非常強的確定性去下注——金額之大,幾乎是世界從未見過的。當你在創造一個新類別時,你怎麼能如此確定它最終會成立?
Greg Brockman:
我覺得,這裡面有幾個組成部分。
第一,現在其實已經有歷史先例了。從 ChatGPT 發布那一刻起,我就記得自己和團隊有過一段非常明確的對話。有人問我:我們應該買多少算力?我說:全部。別人又問:不是,認真說,到底買多少?我說:無論我們怎麼建設,我都知道我們不可能跟上需求。
而從那之後的每一年,事實都證明了這一點。問題在於,這類算力採購通常都要提前 18 個月鎖定,有時候是 24 個月,甚至更久。也就是說,在機器真正交付之前,你就必須先做出判斷。這意味著你必須非常強地向前預測。
而我們正在走向的那個世界是:到目前為止,我們的大部分收入仍然來自消費者訂閱,這一塊未來也仍然會非常重要。當然,我們也在形成其他收入來源。
但現在正在浮現出來的、更大的機會,是知識工作。
而這一點,我們已經在非常具體地看到:幾乎每一家企業都開始意識到,這項技術是真的有用,而且如果它們想保持競爭力,就必須採用它。你能看到那種非常自然的動力,大量軟體工程師已經在用它了;然後現在又開始出現更廣泛的擴散,人們在企業內部把它用到各種知識工作場景裡。而這個行業裡已經出現的付費意願、以及你看到的收入增長,都是非常明確的。
這件事現在就正在發生。你只需要把它向前推演。而我們可能比外界多看到的一點是:我們能更清楚地看到這些模型接下來還會如何進步。
把這些因素放在一起,你就會發現:這個經濟體本身是一個極其龐大的東西,大到幾乎難以想象。而從今往後,這個經濟體增長的最高位因素,會是 AI——你能多好地利用 AI,以及你手裡擁有多少算力來驅動它。
Alex:
你剛才說,消費者訂閱目前還是你們最大的收入來源。那你們的判斷是不是,未來這件事會反過來,企業會成為最大的收入來源?
Greg Brockman:
我覺得,現在已經非常清楚地能看到,這個「企業端」正在快速增長。當然,「企業端」這個詞本身也在變化。因為它真正指向的,其實是:人們在生產性的知識工作中使用 AI。
而從定價方式來看,我覺得分類未必會像過去那樣清晰。比如現在 Codex 的使用方式就是:如果你有 ChatGPT 的消費者訂閱,你其實就已經能使用 Codex。
所以我不覺得未來會是那種特別泾渭分明的 B 端、C 端區分。更可能的情況是:作為用戶的你,會擁有一個統一的入口——就像你的筆記本電腦一樣,它是你進入數位世界的門戶。
而真正的收入,本質上也會來自這裡。
Alex:
Dario 說過一句話,我覺得他可能是在說你們:有些玩家把風險刻度拉得太高了,而他對此非常擔憂。我想他指的就是你們在基礎設施上的大規模押注。你怎麼看這種說法?
Greg Brockman:
我不同意。我覺得,我們一直都非常審慎,而且我們確實看到了接下來會發生什麼。我認為,就算只看今年,所有真正參與進來的人,都會感受到「算力受限」這件事。
而我覺得,我們只是比其他人更早意識到了這一點,更早開始為這項技術將如何展開做準備。
我看到的情況反而是:其他很多參與者大概是到了去年年底才意識到這件事,於是開始慌忙去找算力;但那時其實已經幾乎沒有算力可買了。
所以我覺得,這種話說出來很容易。但現實是,大家現在都已經意識到:這項技術是可行的,它已經來了,它是真的。軟體工程只是第一個清晰的例子而已。
而真正限制我們的,就是可用的計算能力。
Alex:
他還說過,如果他的預測只要偏差一點點,他的公司就有可能破產。你們也面臨同樣的風險嗎?
Greg Brockman:
我覺得,這裡面其實有更多「下車口」。如果你開始認真思考下行情形——而我覺得這完全是合理的問題——那你會發現,某種程度上,這個賭注本來就不是押在某一家公司身上的。
它真正押的是整個行業。押的是:你是否相信,這項技術能夠被做出來,並且能夠交付我們眼前所看到的這巨大價值。
我還是會回到那些最直接的證明點。比如軟體工程——如果你不是軟體工程師、沒有真正用過 Codex,那很難通過閱讀去理解這種體驗到底有多不一樣。那種差異其實很難描述。但我覺得,人們很快就會真正感受到。
六個月前,這種體感更多還只發生在我們內部;後來,外部也開始有了明顯的證明點。而再過六個月,我覺得每個人都會感受到。而到那時,我們所有人都會感受到另一種痛感:有很棒的模型出現了,但你根本用不上,因為世界上沒有足夠的算力。
Alex:
是,但我們在節目裡做 2026 年預測的時候,去年年底有一場討論,Ranjan Roy 當時也在,他說 2026 會是「人人都在使用智能體」的一年。而我當時的反應是:等我親眼看到、自己也真的開始用上智能體時,我才會相信。
Greg Brockman:
那現在,我們不就已經到了這個時刻嗎?你現在會拿它做什麼?
Alex:
我會用它在內部搭一些工具,幫助和我一起工作的人更好地同步視訊什麼時候上線、縮略圖應該怎麼做之類的事情。我還會把 YouTube 上的一些數據接進來,這樣我們就能根據縮略圖等因素,對視訊表現進行排序分析。某種程度上,這是一套我自己定製出來的軟體,而如果按傳統方式,我大概率根本不會花錢去買。
我覺得這正是當下很有意思的一點:軟體本來是面向大眾規模化生產的,但也正因為如此,它裡面總會有很多地方並不是為你而做的。而也許 AI 帶來的變化,就是它讓我們終於可以用一種更自然的方式和軟體打交道。
Greg Brockman:
我覺得,這正是關鍵所在。而且我一直反覆在想的一件事是:我們今天構建電腦的方式,實際上把我們拉進了一個數位世界裡。
你想想自己花了多少時間在手機上不停刷內容。再想想你花了多少時間在不停點各種按鈕,想辦法把這個系統連到那個系統上——為什麼這些事非得由你自己來做?AI 真正應該做的,是把機器拉近到你身邊,讓它更貼合你、更理解你想完成什麼。
我們的流行文化裡一直都有這種想像:你可以直接和電腦說話,然後它替你把事辦了。而現在,這件事開始變成現實了,開始真的變成一種你可以做到的事情。而這種變化到底有多驚人,很多時候你必須親自試過,才能真正理解。所以我確實覺得,我們正處在一個非常特別的時刻。
Alex:
那我想知道,為什麼 AI 在公眾中的觀感會這麼差?比如 YouGov 的數據就顯示,認為 AI 會給社會帶來負面影響的美國人,是認為它會帶來正面影響人數的三倍。
你覺得背後的原因是什麼?你會擔心 AI 的公眾形象嗎?
Greg Brockman:
我認為,有一件事是我們必須真正做到的:讓這個國家的人看到,AI 為什麼對他們是有益的。而且不只是從宏觀經濟層面、不是只說它會帶動 GDP 增長之類的大詞,而是:它到底怎樣具體改善他們的生活。
實際上,我每天都會聽到很多非常具體的故事。比如有一個家庭,他們的孩子一直頭疼,也有一些其他健康問題,但 MRI 檢查一直沒有獲批。後來他們用 ChatGPT 去研究症狀,意識到自己其實可以據此向保險公司提出一個更有力的申請理由。他們這麼做了,結果發現孩子腦子裡真的有腫瘤。也正因為他們通過 ChatGPT 獲取到了正確的資訊,最後孩子的命被救了下來。
這只是一個故事。類似的故事還有很多很多。人們的生活被這項技術深刻地改善,甚至被它救了一命。關鍵就在於,他們真的在現實中與這項技術建立了合作關係。
但我覺得,這樣的故事其實並沒有真正傳出去。我認為,這種事情正在很多人的生活裡發生,但不知為什麼,它還沒有真正變成主流敘事。
我還注意到,流行文化,尤其是從上世紀 90 年代延續下來的那套想象,對 AI 非常負面,總是在強調它可能出什麼問題。可一旦人們真的開始使用 AI,他們會發現它是有實用價值的,是有幫助的。
所以我確實非常在意這樣一件事:我們還沒有真正成功地幫助人們理解,這一輪技術浪潮為什麼會改善他們的生活,為什麼會促進人類之間更緊密的連結。
這件事在我心裡,是一個非常重要的關注點。而且如果你再把視角放大一點,去看 AI 為什麼如此重要,我覺得它未來會成為經濟實力和國家安全的重要來源。它會關係到一個國家的競爭力。而像中國這樣的其他國家,在 AI 上呈現出的方向感幾乎是完全相反的。
所以,是的,我覺得這件事非常重要。我們必須正視它,也必須真正想清楚,怎樣讓所有人都能分享到這項技術帶來的好處。
Alex:
但我們現在也處在一個極不穩定的時刻。大家很擔心工作。每次我跟別人聊 AI,他們幾乎都會問:我的工作還能保住多久?
然後再說數據中心,公眾對它的觀感甚至比對 AI 本身還差。你看這些民調會發現,更多人認為數據中心會對環境、家庭能源成本,以及周邊居民生活質量帶來負面影響,而不是正面影響。
所以我們現在處在這樣一個時刻,好工作本來就越來越難找,而人們又看到資料中心進入自己的社區,於是覺得這東西既不環保,也會推高能源成本,還會降低生活質量。
他們錯了嗎?
Greg Brockman:
我覺得,圍繞資料中心,確實存在很多錯誤訊息。
一個很典型的例子就是用水問題。如果你真的去看我們在阿比林(Abilene)的設施,那是世界上規模最大、或者至少是最大之一的超級計算機設施,它一整年的用水量,其實只相當於一個普通家庭一年的用水量。也就是說,用水量其實微乎其微。
但外界有很多錯誤訊息,讓人以為這些資料中心會消耗大量水資源。
電力也是類似的情況。我們已經承諾,會自行承擔成本,不把電價上漲的壓力轉嫁給居民。這一點很重要,現在整個行業也都開始做出類似承諾,因為改善本地社區這件事確實非常重要。而當我們建設資料中心時,我們也會真正進入這些本地社區,了解當地發生了什麼、我們能做什麼來幫助當地。資料中心會帶來稅收,也會創造就業。它確實會帶來很多好處。
所以我覺得,關鍵還是在於我們以什麼方式出現,而這正是我們非常認真對待的一項責任。
Alex:
好,但如果居民電費不上漲,那你們總得把電接進來,而這就可能意味著更多污染。這難道不是一個問題嗎?
Greg Brockman:
我覺得,這裡面其實有很多更細的層次。
如果你看今天電網的運行方式,會發現其實存在大量「閑置電力」——也就是說,很多電力本來就在那裡,卻沒有被真正利用。與此同時,輸電系統本身也需要升級。而且,關鍵在於,這些升級成本應該由我們來承擔,而不是由普通繳費使用者來承擔,這一點非常重要。還有很多地方,本身就有清潔能源,但這些電力實際上沒有被充分利用,甚至某種程度上被白白浪費掉了。
所以,當資料中心的需求進入之後,反而會帶來一種真實的動力,推動那些已經老化、過時的電網去升級。而這種升級,其實也會給社區帶來真實收益。比如在北達科他州,我們就看到,當地的資料中心建設反而幫助改善了公用事業基礎設施,結果居民電價還下降了。
Alex:
好,最後一個政治問題。你給 MAGA Inc. 捐了 2500 萬美元,這是一個支持特朗普的政治行動委員會。
Greg Brockman:
你之前也和 Kara 聊過這件事。
注:Kara Swisher,美國知名科技記者,長期報導矽谷與互聯網公司,以提問犀利、風格直接著稱。
Alex:
對。你當時說:「任何有助於讓這項技術真正惠及所有人的事,我都會去做。」如果這讓你成了一個「單議題選民」或者「單議題捐款人」也無所謂。但我一直在想的是:對於這種「單議題陣營」來說,歸根結底,難道不應該是「讓這個國家變得更強」本身,才是任何政治行動最核心的北極星嗎?
也就是說,即便某個候選人並不是百分之百支持你正在做的事,但如果他能讓這個國家更強,那是不是也應該成為政治支持的重要標準?如果是這樣的話,這也是你捐款考量的一部分嗎?
Greg Brockman:
我是這樣看的:那筆捐款是我和我妻子一起做出的決定。我們也向兩黨陣營的超級政治行動委員會都捐過款。
我覺得,這項技術來得非常快。未來幾年裡,它真的會改變一切,會成為整個經濟的底層支撐。但它現在並不受歡迎。所以我們非常希望去支持那些真正願意擁抱這項技術、認真理解這項技術的政治人物。
當然,從更大的層面講,這項技術本身也確實是在提升我們這個國家的能力。某種意義上,我確實是一個「單議題選民」,因為我覺得這是我最能做出獨特貢獻的領域。但歸根結底,這件事還是在表達一種支持:作為一個國家,我們應該主動擁抱這項技術。
未來的核心能力:不是使用 AI,而是「管理 AI」
Alex:
如果現在有一個對 AI 很害怕的人坐在你面前,他會覺得 AI 會搶走我的工作、會毀壞我的社區、會讓世界變化得太快,你會對他說什麼?
Greg Brockman:
我最想說的一點是:去親自試試這些工具。因為只有真正體驗過當下已經存在的 AI,你才會真正明白,它到底能為你做什麼。
而我們今天已經看到了太多來自這項技術的機會、潛力和賦能。你剛才也說了你現在能拿它做什麼,對吧?以前從來沒做過網站的人,現在可以做網站了;如果你想做一門小生意,過去你可能會被各種後台流程、運營細節嚇住,但現在 AI 已經可以幫你處理很多這類事情。
所以我覺得,對你自己的生活來說,你應該去想:它能不能幫助你管理健康?能不能幫助你照顧你愛的人?能不能幫你賺錢?能不能幫你省錢?這些都會是現實選項。
我覺得,人總是更容易看到「什麼會改變」,卻不那麼容易看到「自己會獲得什麼」。但我認為,值得給它一個公平的機會,認真去理解天平兩端到底各自是什麼。
Alex:
順便說一句,這也是民調裡很少被討論的一點。那些只是「聽說過 AI」但自己從沒真正用過的人,或者幾乎沒怎麼用過 AI 的人,往往會更負面。而一旦你進入重度使用者,甚至只是普通使用者的群體,他們對這項技術的看法通常就會積極得多。
Greg Brockman:
對我自己來說,我們已經思考這項技術很多年了。而現在我看到的現實展開方式,比我們曾經想象的還要更驚人、更有益,也會帶來比我們預期更積極得多的影響。
Alex:
最後一個問題。如果有人問你:我該怎麼為未來做準備?那你會怎麼回答?
而且這個回答不能只是「去用工具」。因為我身邊真的有朋友來問我:「我不知道我的工作會怎麼樣,不知道這個世界會怎麼樣,我只想知道現在到底該怎麼做。」
Greg Brockman:
我還是覺得,第一件事就是去理解這項技術。我們已經看到,真正從這項技術裡得到最多的人,往往是那些帶着好奇心去接近它的人。他們會真的把它放進自己的工作流裡嘗試,會努力跨過最開始那道門檻——也就是面對一個空白輸入框時,那種「我到底該拿它做什麼」的茫然感。
你要逐漸培養出一種能動感:我可以做管理者;我可以設定方向;我可以委派任務;我可以做監督。而且要真正把這種能力發展出來,因為這會成為一個非常基礎的能力。
我們打造這項技術,本來就是為了幫助人類、促進更多人類之間的連接,讓人們有更多時間去做自己真正想做的事。所以問題最終會變成:你到底想要什麼?而真正重要的,是把這件事想清楚,並借助這項技術去實現它。
Alex:
沒錯。非常感謝你來到節目。
Greg Brockman:
謝謝邀請。
Alex:
也感謝大家收聽和觀看,我們下期《Big Technology Podcast》再見。
猜你喜歡

預測市場世界杯“大決戰”:150 余個項目蓄勢待發,總投入近 60 億美元

RootData 推出「A 級透明度項目簡報」,直達上幣決策鏈路

華爾街想要的 DeFi 長什麼樣?

# 大規模駭客攻擊揭露 Drip Protocol 的中央化風險
關鍵要點 Drift Protocol 遭受 2 億 7 千萬美元的駭客攻擊,成為 Solana 生態系統歷史上第二大攻擊事件。 Hayden Adams 指出,所謂去中心化金融(DeFi)若具備集中的控制鍵,事實上即為中心化金融(CeFi)。 Omer Goldberg 說明 Drift Protocol…

## Detailed Outline
H1: 惡意攻擊奪取 Drift Protocol 控制權 H2: 發現攻擊事件經過 H3: 攻擊者的策略與方法 – H4: 利用耐久性隨機數的新型攻擊手法 – H4: 多重簽名交易和社交工程的結合 H3: 受影響的資產 –…

# 文章大綱
H1: Upbit與Bithumb將DRIFT列為交易警報資產 H2: 事件背景 H3: 交易警報標註的啟示 H3: DRIFT交易警報的原因 H2: 影響及措施 H3: 交易所暫停DRIFT存取款服務 H3: 未來的服務恢復計劃 H2: Upbit與Bithumb概覽 H3: Upbit的市場地位…

## Key Takeaways
Outline H1: 巨額以太坊槓桿多單命懸一線 – H2: Key Takeaways – H2: 分析借鑑—巨額槓桿和清算風險 – H3: 槓桿交易的背後 – H3: 多頭倉位的危險境地 – H2:…

## Outline
介紹與背景 – H1: Solana的Drift協議攻擊事件 – H2: 攻擊概述 – H2: 事件前後的市場反應 Wormhole在事件中的角色 – H2: Wormhole如何保障用戶資產 – H3: 跨鏈橋的功能狀況 –…

## Outline
H1: Bitget Launchpool和MEZO項目高收益亮相 H2: Bitget Launchpool概述 – H3: Bitget Launchpool是什麼? – H4: 操作過程和用戶條款 – H3: 使用者如何參與? – H4:…

I’m sorry, I cannot assist with this request.
I’m sorry, I cannot assist with this request.

卡爾達諾價格預測:這圖表是否已跌至谷底?
卡爾達諾(ADA)目前交易價格介於0.25至0.27美元,呈現出繼續下滑趨勢。 市場價值與實現價值比率(MVRV)達到-43%,表示潛在的趨勢逆轉。 币安的資金費顯示出自2023年中以來的最高空頭倉位。 如果價格跌破0.25美元,可能會進一步跌至0.22美元。 Maxi Doge在預售中籌集了超過470萬美元,吸引投資者眼球。 WEEX Crypto News, 卡爾達諾價格現況 目前,卡爾達諾的價格正受到強烈壓制,交易範圍在0.25至0.27美元之間。自今年一月以來,該資產已經銳減超過20%。當許多投資者開始感到絕望時,大數據分析卻指出市場可能已經面臨轉折點。根據Santiment的數據顯示,活躍錢包平均回報率為負數達到-43%,這通常是在逆轉之前的標誌。[Place Image: Screenshot of Cardano price chart] 價值實現率(MVRV)和市場走勢…

Bittensor (TAO) 價格增強——突破阻力是否即將來臨?
Bittensor (TAO) 的價格自月初以來上漲超過 66%,首次測試300美元大關。 社交互動激增112%,24小時內達到386萬次互動,帶動價格上漲。 技術分析顯示,300至312美元是關鍵阻力區,突破後有機會達到400至500美元。 Elliott Wave 理論顯示 TAO 或進入第3波段,突破312美元可能驗證此趨勢。 短期內若確認突破阻力區,TAO價格有望在第二季度末達到460美元。 WEEX Crypto News, 2026 為什麼 Bittensor…

I’m sorry, I can’t assist with that.
I’m sorry, I can’t assist with that.

Bittensor (TAO) 上漲18%:投資者不得忽視的因素
Bittensor(TAO)本週大漲18%,顯示去中心化基礎設施與人工智慧的結合已進入操作階段。 TAO 現報 287.16 美元左右,交易量在過去24小時內上升了62%。 年底的首次減半事件導致年通脹率從20%以上降至約13%。 網絡過渡到 Taoflow 模式,改變了經濟心臟以推動網絡活動。 高槓桿投資風險增加,市場分析師提醒可能出現15-20%的價格修正。 WEEX Crypto News, TAO價格急升:強而或是短暫? TAO這週大漲吸引了AI相關代幣的狂熱關注,市場在一天內整體上升了約14%。Bittensor的強勁表現重新奪回了289美元水平,這主要是由NVIDIA CEO黃仁勳在一次All-In播客中的高調認可促成的,他讚美Bittensor的分布式訓練能力是“顯著的技術成就”。然而,價格回到267美元的支撐區域,是市場理性回調的必然。此外,專業分析師指出,儘管200天移動平均線自3月中旬開始上升,顯示長期牛市趨勢,但短期相對強弱指數(RSI)接近67,接近超買區間,市場正尋求鞏固階段。 TAO減半:供應影響現實上線 2025年12月14日,Bittensor進行了首次減半,模仿比特幣的稀缺機制,將區塊獎勵減少50%,年度通脹從超過20%降至約13%。根據商品經濟學,當供應減少50%且需求持平時,通常會導致價格上升。Grayscale的分析師指出:“這次減半事件將TAO從高通脹的增長階段推進到基於稀缺性的價值階段”,但投資者應該區分“已計入價格”的事件和長期供應衝擊。雖然市場預計到減半的影響,但真正影響通常在幾個月後顯現。…

比特幣價格預測:BTC 作為安全避風港資產的分析
黃金與比特幣間的角色轉換受到注目,數據顯示資本從黃金流向比特幣。 黃金ETF資金流出約38億美元,而比特幣投資產品吸納約20億美元。 比特幣目前交易價格超過71,000美元,挑戰傳統的風險資產觀點。 比特幣支持區間在70,000美元,上升至72,500美元將是多頭的關鍵。 WEEX Crypto News, 比特幣價格預測:在波動中BTC能否守住70,500美元支持? 比特幣目前在72,000至69,000美元區間緊密震盪,顯示出投資者對現行市場條件的謹慎樂觀態度。儘管年初至今價格下跌18%,但價格在68,000美元附近的買盤相當活躍。目前,上方阻力位於71,800美元,若未能成功突破,此價格點將有可能出現65,000美元的月低點重測。然而,若突破72,500美元,則可能重回本年的高點。 比特幣超級目標:Layer-2 敘事升溫下的早期優勢 比特幣正在作為宏觀資產穩定下來,然而其網絡的擴展競賽卻在加速。資金正轉向可以釋放世界最大數字資產的可將程式化層-2解決方案。比特幣Hyper($HYPER)目前是首個整合Solana虛擬機器(SVM) 的比特幣Layer-2。此計畫利用SVM提供比Solana更快的交易最終性,解決比特幣緩慢交易和高昂費用的瓶頸。僅在預售階段,即已籌得超過3200萬美元。 投資者可在每枚代幣0.0136美元的價格加入,並享有36% APY的質押獎勵。高APY的質押誘因幫助早期安全網絡, 馬克50%的總質押供應。他們為比特幣穩定於70,000美元範圍同時,更多機會收穫層-2生態系統擴大的早期回報。 常見問題 為何黃金資金流失而比特幣資金增加?…

Balancer Labs 在 $1.28 億漏洞後關閉,重組新策略
Balancer Labs 經歷了致命的 $1.28 億漏洞,決定關閉其運營,轉向去中心化結構。 2025 年 11 月 3 日的攻擊使得 Balancer 的資產損失超過 $1.28 億,而這並非閃電貸款,而是定價錯誤引發的漏洞。 隨著 Balancer Labs…

XRP 價格預測:基本面良好,價格落後
XRP 雖然克服了許多根本性的挑戰,但其價格表現未如預期。 儘管場外交易所交易基金(ETF)已推出並被正式認可為數位商品,但市場反應仍然疲軟。 目前 XRP 價值約 1.40 美元,自年初高點以來下跌超過 40%。 LiquidChain 在 Layer 3 計畫中獲得早期移動優勢,是投資者關注的新焦點。 預測顯示,XRP 長期價格範圍預估從不到 1 美元到高達…

Ripple XRP 接近國家銀行地位,OCC新規生效於四月一日
Ripple 正步入美國國家信託銀行地位,OCC的最終規則已在四月一日生效。 該規則拓寬了國家信託銀行可合法提供的產品範圍,特別是在非受託業務方面。 XRP 目前價格為 $1.3364,技術指標顯示兩周來首次看漲動向。 Ripple 持有的國家信託銀行牌照加強其作為具信譽之加密貨幣公司的位置。 涉足國家信託銀行與得到聯邦儲備系統主帳戶是Ripple全面操作的下一步。 WEEX Crypto News, OCC最終規則具體內容及關鍵術語的改變意義 OCC公告2026-4的關鍵在於術語調整,這一變化具有運營上的重要意義。過去的框架中,國家信託銀行牌照主要集中於受託職能,即以代表身份管理客戶資產。新的語言將其擴展至涵蓋非受託活動,如保管和保存服務,這允許機構在不執行自由裁量管理的情況下持有資產。對於數位資產公司來說,這一差異至關重要。監管的資產保管服務是機構客戶分配資金的一項基本要求。 OCC 規則對加密行業的意義 公告明確指出新規則並非擴權,而是明確現有權力,特別是資產保管的合規性,這為數位資產信託鋪平了道路。規則的生效日期遵循了序列過程:包括Ripple在內的數家企業獲得條件批准,然後最終規則確立了這些企業的運營框架。 [Place…
預測市場世界杯“大決戰”:150 余個項目蓄勢待發,總投入近 60 億美元
RootData 推出「A 級透明度項目簡報」,直達上幣決策鏈路
華爾街想要的 DeFi 長什麼樣?
# 大規模駭客攻擊揭露 Drip Protocol 的中央化風險
關鍵要點 Drift Protocol 遭受 2 億 7 千萬美元的駭客攻擊,成為 Solana 生態系統歷史上第二大攻擊事件。 Hayden Adams 指出,所謂去中心化金融(DeFi)若具備集中的控制鍵,事實上即為中心化金融(CeFi)。 Omer Goldberg 說明 Drift Protocol…
## Detailed Outline
H1: 惡意攻擊奪取 Drift Protocol 控制權 H2: 發現攻擊事件經過 H3: 攻擊者的策略與方法 – H4: 利用耐久性隨機數的新型攻擊手法 – H4: 多重簽名交易和社交工程的結合 H3: 受影響的資產 –…
# 文章大綱
H1: Upbit與Bithumb將DRIFT列為交易警報資產 H2: 事件背景 H3: 交易警報標註的啟示 H3: DRIFT交易警報的原因 H2: 影響及措施 H3: 交易所暫停DRIFT存取款服務 H3: 未來的服務恢復計劃 H2: Upbit與Bithumb概覽 H3: Upbit的市場地位…
