在釋出 AGI 之前記得先蓋好地堡───《AI帝國:阿特曼與 OpenAI 的權力夢魘》

Karen Hao的新書記錄2023年底「AI 帝國」Open AI 內部的政變真相。

 

原文|Karen Hao (著有《Empire of AI》(暫譯:「AI帝國:阿特曼與 OpenAI 的權力夢魘」)

編譯|Gerda

 

  2023 年夏天,OpenAI 的共同創辦人暨首席科學家 Ilya Sutskever 與一群新進研究員在公司內部舉行會議。從各種傳統指標來看,他理應處於人生巔峰──身為大型語言模型的核心推手,打造出 ChatGPT 這款當時史上成長最快的應用程式;公司估值一飛沖天;OpenAI 更是矽谷未來想像中的無可匹敵的引擎。然而,這位首席科學家,卻像是陷入了一場與自己內心的戰爭。

 

  Sutskever 長久以來深信,人工通用智慧(AGI)遲早會出現。而到了生成式 AI 的競賽全面升溫的 2023 年,他甚至相信 AGI 的降臨已迫在眉睫。根據他的博士導師、AI 先驅 Geoffrey Hinton 與另一位熟悉他思路的人士的說法,Sutskever 的思想幾乎被這場即將到來的文明轉變佔據。他的腦中不斷盤旋著問題:當一個超越人類的至高 AGI 出現,世界將會變成什麼樣子?OpenAI 又有什麼責任,要確保未來不是滑入災難深淵,而是走向極致繁榮?

 

  就在那天的會議中,Sutskever 對新進研究員們揭示了一項計畫。

 

  「等我們都進入地堡之後──」他這樣開場,據在場一名研究員回憶。

 

  「不好意思,什麼地堡?」那位研究員困惑地打斷他。

 

  「我們當然會在釋出 AGI 之前蓋好一座地堡。」Sutskever 說。這種威力驚人的科技,勢必會引來全球各國政府的激烈覬覦,而負責研發的核心科學家們,將需要被保護起來。「當然啦,」他補了一句,「要不要進去地堡是自由選擇的。」

 

  我訪問的另外兩位消息人士也證實,Sutskever 經常提起「地堡」。其中一位研究員這樣對我說:「有一群人——Ilya 是其中之一——他們相信 AGI 的誕生會帶來一場『神的救贖』。」

  「我是說,字面上的——救贖(rapture)。」

 

【詞語註解|rapture】
Rapture 「被提」是美國福音派與末世論基督教流派中特有概念,指的是在世界末日前夕,被神選中的少數義人會被「提」升到天國,而留下來的將面對末日災難(tribulation)。當一位 OpenAI 高層使用它來形容 AGI 來臨時的情境時,暗示著一種「我們是少數知情者、我們需要自保,你們可能不會一起走下去」的菁英主義與啟示錄想像。

 

  Sutskever 對於全能 AI 的恐懼,乍看之下或許顯得誇張,但其實在當時的 OpenAI 內部並不罕見,也不算偏離主流立場。2023 年 5 月,執行長 Sam Altman 也曾聯署一封公開信,將這項技術描述為一種「可能導致人類滅絕的風險」。這樣的敘事,某種程度上反而幫助 OpenAI 鞏固了其在全球 AI 監管對話中的中心地位。

 

  不過,對「末日將臨」的擔憂,還是必須和 OpenAI 不斷膨脹的商業版圖進行權衡:ChatGPT 已經大獲成功,而 Altman 的野心不只如此——他想要更多。

 

OpenAI 前共同創辦人暨首席科學家 Ilya Sutskever(右),與執行長 Sam Altman。

 

  OpenAI 創立之初的理念,是要發展 AGI,以「造福全人類」為目標。為了實踐這個理念,包含 Sam Altman 與 Elon Musk 在內的共同創辦人,將 OpenAI 設為非營利組織,並承諾將研究成果開放與其他機構分享。他們一致認為:技術的發展應該具有民主參與的精神——這也是 OpenAI 名稱的由來。

 

  但到了我開始報導這間公司時,也就是 2019 年,這些理想已經在快速瓦解中。公司高層逐漸意識到,他們想走的路,需要遠超一般非營利組織所能籌措的資金。於是,馬斯克與 Altman 爭奪 CEO 之位,最後 Altman 勝出,而馬斯克在 2018 年初退出,並撤回資金。

 

  為了填補資金缺口,Altman 改寫了 OpenAI 的法律架構,在原本的非營利體系中增設一個「有蓋盈利(capped-profit)」的子機構,以吸引外部資金投入。

 

【詞語註解|capped-profit】
所謂「capped-profit(有限盈收)機制」是 OpenAI 在 2019 年發明的法律架構折衷方案:允許投資者獲利,但設有報酬上限(如最多獲得 100 倍投入)。這表面上保留了公益色彩,但實際上卻讓 OpenAI 成為一個可以吸金又可主張非營利正當性的混合型組織。這種設計在法律上獨特,但也招致學界與業界批評,認為其已失去透明性與公共性。

 

  自那之後,我持續透過採訪超過 90 位 OpenAI 現任與前任員工(包括高層與外包人員)追蹤這間公司的發展脈絡。在我撰寫這本關於 OpenAI 的書籍期間,公司對我多次的採訪與詢問均未回應,直到本篇文章刊出前的最後一次聯絡仍是如此。(順帶一提,OpenAI 與《The Atlantic》有商業合作關係。)

 

  OpenAI 內部一直存在著兩種互相拉扯的文化──一邊是致力於「安全地發展 AGI」的理想,一邊是藉由不斷推出新產品、擴張使用者規模的商業野心。到了 2023 年底,這兩種力量終於爆發衝突。

 

  由於對 Altman 所引導的方向感到極度擔憂,Ilya Sutskever 與他的同僚 Mira Murati(當時是 OpenAI 的技術長)一同向董事會提出質疑。隨後,董事會做出了震撼決定:解除 CEO 職務。

 

  接下來所發生的一切──Altman 被開除,又強勢復位──徹底震撼了整個科技界。

 

【詞語註解|dueling cultures】
「Dueling cultures」意指兩種文化信念在一個組織中彼此競逐:在此指的是「安全/公益導向的 AGI 理想」vs「成長/商業導向的快速產品推出」——這是幾乎所有 AI 科技公司都在面對的內部張力。而在 OpenAI,這種張力最後演變成明確的權力衝突。

 

  然而,自那場事件之後,OpenAI 與 Sam Altman 的地位反而更加穩固,成為全球科技政局中的核心角色。就在上週,OpenAI 宣布啟動一項名為「OpenAI for Countries」的計畫,目標是協助各國(特別是美國以外)建構人工智慧基礎設施。Altman 本人則與川普政府關係日益密切:本週他與沙烏地官員共同出席活動;今年一月,更與川普總統一同登上舞台,宣布一項高達 5,000 億美元的 AI 計算基礎建設案。

 

  Altman 雖曾短暫被解職,但他能夠迅速回歸、甚至強化其權力,這段歷史對於理解 OpenAI 目前在全球 AI 發展中的角色至關重要。

 

  過去媒體對這場風暴的報導,仍缺乏許多細節──包括 Sutskever 與 Murati 的內部思考,以及員工對此事件的真實反應。直到我寫作這篇文章,才首次完整揭露。

 

【詞語註解|OpenAI for Countries】
此計畫為 OpenAI 推出的全球擴張戰略之一,目的是與各國政府建立合作關係,協助其建立本地 AI 計算資源與模型基礎設施。其實質作用,是讓 OpenAI 得以介入各國政策層面的 AI 建設,成為國際級的「AI 合作提供者」──某種形式的科技新殖民。

 

  在 GPT-4 的開發期間,據多位消息人士指出,Altman 與公司總裁 Brockman 的互動方式,曾經幾乎導致多位核心成員萌生離職之念。Altman 當時也多次試圖繞過內部的安全審查流程,以求產品快速推出。

 

  例如有一回,他向 Murati 表示:公司法律部門已批准讓最新版本 GPT-4 Turbo 直接跳過「部署安全委員會(DSB)」的審查──這個委員會由 Microsoft 與 OpenAI 的代表共同組成,專責判斷最強大模型是否適合公開釋出。但當 Murati 向負責法律事務的 Jason Kwon 查詢時,對方卻完全不知情,甚至不知道 Altman 為何會有那樣的說法。

 

  到了夏天,Murati 嘗試針對這些問題向 Altman 提出詳細回饋。但多位消息人士表示:她的回饋並未被接納,Altman 反而對她冷處理數週,兩人關係直到過了一段時間才略為回暖。

 

【詞語註解|Deployment Safety Board (DSB)】
DSB 是 OpenAI 與 Microsoft 共同組成的內部機制,用以評估重大模型是否適合對外釋出。此機制理應是「安全閥門」,但從 Karen Hao 的報導來看,Altman 有意繞過 DSB,加快釋出進度,這顯示即使在強調 AI 安全的公司內部,程序也可能被 CEO 權力架空。

 

  到了 2023 年秋天,Sutskever 與 Murati 幾乎在同一時間得出相同的結論。他們分別聯絡了 OpenAI 董事會中三位「非公司內部成員」──Helen Toner(喬治城大學安全與新興科技中心主任)、Tasha McCauley(機器人學家)、以及 Quora 的共同創辦人暨現任執行長 Adam D’Angelo,對 Altman 的領導提出深刻質疑。

 

  根據我閱讀過的會議紀錄,Sutskever 在其中一次會議上明白表示:「我不認為 Sam 是適合掌握 AGI 啟動鍵的人。」

 

  而 Murati 也在另一場會談中直言:「我無法安心地讓 Sam 帶領我們走向 AGI。」

 

  Sutskever 與 Murati 罕見地達成共識,對三位董事產生了巨大影響。據熟悉他們思考過程的消息來源指出:這三位外部董事,其實也已私下思考 Altman 的問題將近一年了。

 

  他們的不安來自多個面向──其中包括:Altman 在多次偶然的對話中,被發現刻意隱瞞董事會一些重大資訊,例如:DSB 流程被跳過、OpenAI Startup Fund(原應隸屬公司)實際上卻由 Altman 個人擁有等事實。

 

【詞語註解|OpenAI Startup Fund】
這是一個由 Altman 管理的投資基金,原本聲稱屬於 OpenAI 組織的一部分,用來投資具潛力的新創公司。但根據爆料內容,該基金實際上由 Altman 本人控制而非公開透明運作,這被部分董事視為重大利益衝突與誠信違規。

 

  到了 10 月底,Helen Toner、Tasha McCauley 與 Adam D’Angelo 幾乎每天透過視訊會議密集討論。他們一致認為,Sutskever 與 Murati 對 Altman 領導風格的批評,以及 Sutskever 建議解除其職務的主張,確實值得嚴肅面對。

 

  隨著會議進行,Sutskever 向三位董事提交了大量證據資料──包含文件與螢幕截圖,都是他與 Murati 共同整理的,詳細記錄 Altman 的行為樣態。其中包括:兩位高層主管指出 Altman 經常迴避、甚至直接忽略公司流程規範,不論這些程序是否為了 AI 安全或公司運營所設立。

 

  董事會也因此得知:Altman 曾試圖讓 GPT-4 Turbo 跳過 DSB 審查流程──這成為導火線之一。

 

  到了 11 月 11 日(週六),三位獨立董事作出了決定:依照 Sutskever 的建議,解除 Altman 的 CEO 職務,並由 Murati 擔任代理執行長。

 

  11 月 17 日中午(美西時間),Sutskever 與三位董事在 Google Meet 會議中,正式通知 Sam Altman 被解職。

 

  接著,他立刻在另一場 Google Meet 上通知 Greg Brockman:「你將不再是董事會成員,但保留公司職位。」

 

  隨即,OpenAI 對外發布了公開聲明。

 

  在那個瞬間,OpenAI 的未來彷彿打開了新的可能性──它或許可以從 Altman 主導的激進商業化路線中脫身。但事情並沒有往那個方向發展。

 

  在表面上短暫的幾小時平靜期裡,Murati 曾與當時 OpenAI 最大的資金後盾——Microsoft——進行一場富有成效的溝通。但很快地,她緊急聯絡董事會:Altman 與 Brockman 正在向公司內部四處放話,聲稱這是一場由 Sutskever 主導的政變。

 

  更糟的是,當公司召開全員大會、試圖釐清內部疑問時,Sutskever 的表現完全失控、語焉不詳。

 

  根據我取得的錄音,Murati 代表員工唸出問題:「這次開除事件有什麼具體導火線嗎?」

 

  Sutskever 回答:「這份文件中很多問題都會是關於細節的:什麼、什麼時候、怎麼發生的、誰、為什麼。我希望我能說清楚這些細節……但我不能。」

 

  不久之後,Sutskever 與其他仍留任的董事們與憤怒的公司高層進行了一場視訊會議。在場消息指出,策略長 Jason Kwon 與全球事務副總裁 Anna Makanju 領頭反擊,拒絕接受董事會對 Altman 的指控──即其「缺乏一貫誠信」。

 

  他們要求提出具體證據支持解職決策。但問題是:這些證據中有關鍵部分來自 Murati 的親身經歷,而董事會並不願揭露她的身份與內幕,陷入進退兩難。

 

  就在當天,Greg Brockman 抗議性地辭去職務,隨後有三位資深研究員也相繼離開。隨著夜幕降臨,員工的不滿持續升高,原因不僅是董事會不願說明開除 Altman 的理由,更因為這場動盪可能會導致:公司內部的股權「轉讓計畫(tender offer)」作廢,讓員工無法兌現價值數百萬美元的持股;整體組織信任崩潰與人才流失風險加劇,使多年努力可能功虧一簣。

 

  在目睹 OpenAI 可能土崩瓦解的現實面前,Sutskever 的決心,開始動搖了。

 

【詞語註解|tender offer】
「Tender offer」指的是私有公司內部為員工提供的股權變現機會──即開放部分員工以特定價格出售股票。這對高階工程師來說是實現財富的重要方式。此次政變導致 tender offer 面臨取消,許多人因此站隊 Altman,不是基於理念,而是基於「財富即將消失」的恐懼。

 

  同時,Murati 的代理執行長職位也開始遭受質疑。公司內部的動盪進一步擴散,蔓延至更大範圍的投資人圈。Murati 選擇不再公開支持董事會罷免 Altman 的決策。即使她的回饋意見曾促使整起行動啟動,但她從未實際參與董事會的討論程序。

 

  到了週一早上,董事會失守。Murati 與 Sutskever 相繼轉向,站回 Altman 一邊。

 

  Altman 將回歸,因為──這是唯一能「拯救」OpenAI 的方式。

 

  ──

  OpenAI 沒有毀滅,但也不再是原來那個 OpenAI。

 

  它仍然宣稱要「造福全人類」,但實際上,它似乎無可避免跟其他人類最初的偉大夢想一樣,漸漸變成一個聚斂權力與資源的嶄新科技帝國。問題只是在於,「地堡建起來了之後,我們在裡面嗎?

 

  Karen Hao 記錄這一切,提醒我們:如果我們不能治理科技,那麼科技將會治理我們──由絕對少數的一群人,為絕大多數的其他人,做出永遠無法回頭的決定。

  ──

 

 

本文全文原載於《The Atlantic》,為 Karen Hao 新書《Empire of AI :dreams and nightmares in sam altman's openai》前導報導,完整揭露 2023 年 OpenAI 董事會政變始末與後果。

 

你可能會喜歡

《完美伴侶》真正令人不安的不是機器人,而是厭女

我在戀童症獵人社團的臥底報告

一只眼睛閉上了,更多的眼睛卻打開:《不設防城市》

不在殿堂的政治哲學:大衛.朗西曼《世界還能變好嗎?》