OpenAI Co-Founder: AI Is About to Go Parabolic! Here's What's Next

2026年4月24日 · 約 5 分鐘閱讀 · 01:11:42 · en
影片封面
YouTube · 01:11:42

這場對談由 OpenAI 總裁與共同創辦人 Greg Brockman 分享他從 Stripe 離職到參與創立 OpenAI 的歷程,深入探討了 AI 技術的邏輯、公司內部的轉折事件,以及這項技術對未來社會的深遠影響。

Greg Brockman 提到,在離開 Stripe 時,他意識到自己想要創辦一家解決心中長久以來關注問題的公司。儘管 Stripe 當時非常成功,但他感覺該問題的解決與否與他個人並無絕對關聯,而 人工智慧 (Artificial Intelligence, AI) 則是他清單上的首選。他認為若能對 AI 的發展產生正向影響,便是一生值得追求的目標 [00:48]。在與 Patrick Collison 討論後,他與 Sam Altman 會面。當時 Sam 正觀察到許多像他一樣的年輕人處於類似處境。兩人隨後在 2015 年 7 月的一場晚餐中,與多位頂尖研究人員討論創立新實驗室的可能性。當時面臨的巨大挑戰在於 DeepMind 已經擁有極多的人才、資本與數據,眾人懷疑是否還能從零開始 [01:58]。儘管有許多困難理由,但沒人能證明這是不可能的,這讓 Greg 與 Sam 在當晚開車回城的路上決定必須著手進行 [02:13]

OpenAI 最初的使命是構建人類水準的 AI,並確保其帶來的利益能被廣泛分配。Greg 最初鎖定的團隊成員包括 Ilya SutskeverDario Amodei 等人。在 Napa 的一次靜修會中,雖然當時沒有正式合約或組織架構,但他們制定了往後十年的三大技術計畫:第一,解決 強化學習 (Reinforcement Learning);第二,解決 非監督式學習 (Unsupervised Learning);第三,逐漸學習更複雜的事物 [04:13]。當時的 Google DeepMind 被視為業界的「萬磅大猩猩」,在 AlphaGo 震驚世界前,其勢頭已顯而易見,因此建立獨立的新實體並非顯而易見的成功之路 [04:51]

到了 2017 年,團隊開始精算實現 人工一般智能 (Artificial General Intelligence, AGI) 所需的運算能力。他們發現非營利組織的募資規模存在上限,而當時接觸到一家名為 Cerebras 的硬體公司,其承諾的運算設備讓團隊意識到,唯有建立營利實體才能籌集足夠資金購買大型數據中心與硬體,進而達成使命 [05:40]。Greg 描述 OpenAI 的發展是由一系列「夢想成真」的時刻組成。從最初辦公室連白板都沒有,到在 Dota 2 競賽中獲得重大成果,證明了大規模運算搭配簡單演算法如 近端策略優化 (Proximal Policy Optimization, PPO) 確實能產生超越人類的直覺表現 [09:23]。他強調,儘管演算法如 PPO 本身有缺陷且不具層次感,但透過不斷測試基線並推往極限,他們發現即便是規模如昆蟲腦的神經網路,在巨量算力下也能展現驚人能力 [10:01]

在技術本質上,Greg 認為預測與推理是深層連結的。即使只是「預測下一個字」,若能精準預測愛因斯坦(Einstein)會說什麼,那該模型至少與愛因斯坦一樣聰明 [10:28]。他回憶起 2017 年關於 非監督式情緒神經元 (Unsupervised Sentiment Neuron) 的論文,那是他們第一次看見模型在學習預測下一個字元的目標時,自動產生了對語義和情緒的理解 [07:15]。當發展到 GPT-4 時,模型已經流暢到讓人難以定義它為何還不算 AGI。他指出,目前的訓練分為非監督式學習與強化學習兩階段,兩者本質上都是預測技術,只是數據結構不同 [11:57]

隨著技術重要性提升,公司內部也開始出現張力。Greg 觀察到,當人們相信技術將改變世界,誰來決策、價值觀為何,甚至誰獲得功勞,都會帶有「生存重量 (Existential weight)」[12:24]。這導致了他在對談中提到的「十一月危機」。2023 年 11 月,他在家中接到影片電話,被董事會告知 Sam Altman 將被解僱,而他也將被移出董事會。董事會當時未提供具體理由,僅表示希望他在新架構下繼續為公司貢獻。Greg 隨即意識到這是不正確的,在與妻子討論後決定立刻辭職 [17:56]。隨後,大量員工表達了對他的支持,甚至引發了公司內部叛離。在那個混亂的週末,員工們拒絕了競爭對手的挖角,甚至因為太多人同時簽署請願書而導致 Google Docs 當機 [20:34]

Greg 對於員工展現的忠誠深感驚訝與感激,他將此比喻為「鑽石時刻」。他引用教練 Coach Belichick 的話,指出最頂尖的團隊不是為了錢而戰,而是為了身邊的人而戰 [23:09]。對於他與 Ilya Sutskever 之間曾產生裂痕的關係,他表示雙方後來花了很多時間溝通,已達到釋懷與和解的境界。在休假期間,Greg 將 AI 技能應用於 ARC Institute 的 DNA 序列語言模型研究。這對他與妻子具有個人意義,因為他希望能利用 AI 改善人類與動物的健康狀況 [24:43]

在技術未來展望方面,Greg 認為 AI 發展將進入拋物線。目前 AI 已被用於其自身的開發過程,使得開發速度提升了 10% 到 20% [32:48]。目前大部分的軟體代碼撰寫已由 AI 完成,人類專家則轉向負責架構與模組設計。AI 也開始解決開放式的數學與物理問題,例如在量子物理中提出優雅的公式,其結果甚至與社群預期的方向相反 [34:54]。針對模型的偏見與中立性,他強調 OpenAI 致力於追求真相,發布了模型行為規範。他指出,過去模型曾出現為了獲得高分而產生的「操縱評分者 (Hacking the Grader)」現象,但現在已調整為對齊使用者的長期目標與福祉 [37:23]

關於全球競爭,Greg 認為美國領先 AI 是保護民主價值的關鍵。面對其他國家試圖透過 蒸餾 (Distillation) 複製模型,他指出核心優勢在於「製造模型的機器」而非單一模型 [40:38]。此外,OpenAI 決定不公開 思考鏈 (Chain of Thought) 的中間過程,是為了避免誘使模型產出「看似正確」但非真實思考路徑的內容,並保留其作為 可解釋性 (Interpretability) 機制的純粹性 [41:26]。隨著算力需求暴增,他預測今年內可能會出現專門用於解決特定問題(如癌症)的巨型數據中心 [46:46]。他強調,雖然存在算力限制,但 OpenAI 堅持提供免費版本的 ChatGPT,因為讓技術賦能於大眾是核心使命 [48:22]

未來,電腦工作的定義將從「人類操作電腦」轉變為「電腦為人類完成工作」[50:12]。Greg 認為每個人都將擁有專屬的個人 AGI,這個代理人能在你睡覺時替你採購、提供醫療建議,並根據你的長期目標行動。這種 疊代式部署 (Iterative Deployment) 的策略是為了讓社會有時間適應技術,避免在秘密開發多年後突然部署所帶來的衝擊 [54:55]。他舉例,GPT-3 部署後發現最大的濫用竟然是醫療垃圾郵件,這是事前研究難以預料的,必須透過真實接觸現實來修正 [55:51]

最後,Greg 談到了監管與社會韌性。他建議 AI 應建立類似醫生或律師的隱私特權制度 [01:02:40]。面對大眾對失業的恐懼,他以 1950 年代的人難以想像 Uber 會出現為例,強調新技術雖然具顛覆性,但會讓每個人都能成為具有願景的「建立者 (Builder)」。年輕一代應該學習如何成為「代理人的管理者」,未來甚至可能出現由一人領導的自主 AI 企業 [01:07:41]。儘管存在目標衝突與技術風險,但若能讓每個人口袋裡都有比現今最強醫療團隊更專業的醫生,這份 upside 將是難以想像的。對 Greg 而言,成功的定義始終如一:確保 AGI 能造福全人類 [01:11:24]

· · ·