商務投稿:18928809533【微信同號】
首頁 » 科技 » OpenAI面臨人才外流與財務壓力的雙重挑戰

OpenAI面臨人才外流與財務壓力的雙重挑戰

分享:

自從去年OpenAI的首席執行官Sam Altman遭到董事會解雇後又被重新聘用,該公司的人事變動愈演愈烈。今年以來,多名高層先後離職,目前OpenAI的11位聯合創始人僅剩下3位,包括Altman、語言和代碼生成團隊負責人Wojciech Zaremba以及正休假的總裁Greg Brockman。

在人工智能領域具有巨大影響力的OpenAI,為何難以留住這些創始人?本月初,對於ChatGPT的重要貢獻者John Schulman宣布離開OpenAI,轉投競爭對手Anthropic。Schulman表示:“我決定在Anthropic尋求研究AI對齊這一目標,並與深入研究我感興趣主題的人一起進行研究。”去年新加入的產品負責人、消費者產品副總裁Peter Deng也正式宣布離職。

上海交通大學副教授、生成式人工智能研究組負責人劉鵬飛在接受第一財經採訪時表示:“Schulman等高級研究人員的離職表明,OpenAI可能不再是頂尖AI科學家的首選,其他專注於AI安全的公司(如Anthropic)或新創立的公司正在吸引人才。這可能標誌著AI研究生態系統的多元化。”

值得注意的是,在去年罷免風波中堅定地和Altman站在一起的Brockman也幾乎同時宣布將休假至年底,並表示“任務遠未完成,我們還需要建立一個安全的AGI(通用人工智能)”。

對此,中歐國際工商學院決策科學與管理信息系統教授譚寅亮在接受第一財經採訪時表示,業內普遍將Brockman此舉解讀為即將離職,因為OpenAI前聯合創始人Andrej Karpathy,也是在休長假後離職的。

譚寅亮表示,Schulman和Brockman近日的動作釋放了兩個信號:第一,OpenAI內部管理存在問題,優秀科學家可能繼續出走,其他AI企業和OpenAI的發展差距可能逐漸消失;第二,GPT5和下一代模型的發展可能遇到了瓶頸,技術領域可能要思考Scaling Laws(規模化定律)是否已經接近了盡頭。

“等到下個月,美國企業的競業禁止性條款被全面廢止,AI人才流動被徹底解綁,OpenAI的人才流失問題可能更加嚴重。”他說。

根據行業研究機構統計,OpenAI已有近75名核心員工離職,創立了約30家人工智能初創公司。人工智能公司Anthropic的創始人、CEO Dario Amodei 7月在一檔節目中表示,人工智能模型公司即將獲得超萬億美元的收入。而萬億規模的人工智能市場中,OpenAI及其出走員工創業可佔據超一半。

阿莫迪兄妹曾任OpenAI研究副總裁和安全政策副總裁。2020年,他們因不滿OpenAI在安全問題尚未解決的情況下就直接發布GPT-3而離職,同時也帶走了前政策負責人Jack Clark和研究員Jared Kaplan等參與打造GPT-3的14位研究人員。公司2021年以來已從谷歌、亞馬遜等科技巨頭處籌集了至少70億美元資金。6月推出的聊天機器人最新版本Claude3.5Sonnet,被認為在整體表現上與OpenAI的GPT-4相當或更佳。

而由OpenAI前研究科學家Aravind Srinivas 2022年8月創立的人工智能搜索公司Perplexity,目前估值已超30億美元。該公司表示其上個月的查詢次數為2.5億次,是去年全年查詢次數的一半。爆發式增長讓Perplexity被視為谷歌旗下的Geimini和OpenAI的SearchGPT的強勁對手。

今年7月,OpenAI聯合創始人、特斯拉CEO馬斯克也“拿到了最後一張船票”,宣布了其人工智能公司xAI的成立,以“了解宇宙的真實本質”。

譚寅亮表示:“創始人出走的情況在硬科技領域還是比較常見的,而且硅谷興起之初就開始盛行這種‘出走’文化。最出名的就是‘仙童八叛逆’,這八位從仙童離職後,創立了包括英特爾、AMD等一大批早期科技企業,正是這一批企業,使舊金山成為硅谷。在人工智能時代,為大模型奠基的論文《Attention Is All You Need》的八位論文作者目前也全部離開了谷歌,創立了自己的公司。”

他表示:“個人的創業規劃、企業發展過程中出現的種種理念分歧,都可能成為創始人離開的原因。不過有些時候離開也不一定是壞事,正是這些‘叛逆者’開啟了全新的領域和時代。”

然而不可否認的是,在創始人們的離職聲明中,“安全”與“對齊”也是高頻詞彙。

除Schulman之外,OpenAI聯合創始人、首席科學家Ilya Sutskever和超級對齊團隊負責人Jan Leike於5月宣布離職。Leike更是在社交媒體X上控訴“安全文化和流程已經讓位於閃亮的產品”。

隨後,Sutskever於今年6月宣布創立了一家新人工智能公司Safe Superintelligence Inc.(SSI)並表示“安全的超級智能是我們唯一的關注點”。Leike則加入了OpenAI的競爭對手人工智能公司Anthropic,“繼續超級對齊的使命”。

對此,譚寅亮表示:“在人工智能領域,‘對齊’(AI Alignment)指的是確保AI系統的行為與人類的價值觀、意圖和預期目標保持一致。簡單來說,就是讓AI更好按照人的要求做事、人的價值觀思考。奧爾特曼在安全部分確實做得不夠,本來承諾給到超級對齊團隊20%的算力資源,但是最終被偷換概念,成了整個安全團隊瓜分這20%。對於一批有初心的科學家來說,安全是他們的堅持。”

今年7月末,OpenAI還把安全部門高級主管Aleksander Madry調離了安全崗位,並給他重新分配了“AI推理”(AI reasoning)的工作。而本月初,馬斯克再次對OpenAI及奧爾特曼提起訴訟,指控OpenAI將利潤和商業利益置於公共利益之上,背離了創立公司時造福全人類的初衷。

南開大學講席教授、中國公司治理研究院院長李維安在接受第一財經採訪時表示:“在傳統創業中,很多跳槽是由於沒有得到與所創造的價值相應的報酬、股份或職位等待遇問題,但OpenAI的聯合創始人的離開大多並不是這個原因。”

他表示,OpenAI的創始人基本不持有股份,從人工智能治理角度來看,創始人們離開的原因主要是治理理念的衝突,即人工智能治理是向善還是向利。

挑戰者Anthropic

從Leike到Schulman,Anthropic不斷吸引著OpenAI的核心成員。

該公司最近還聘請了今年4月因涉嫌泄漏信息而被解雇的OpenAI的前研究員Pavel Izmailov。在OpenAI擔任技術人員兩年多的Steven Bills上個月也表示他已離開OpenAI,加入Anthropic的對齊團隊。

劉鵬飛表示,Anthropic從創立之初就將AI安全和對齊作為核心使命,這種專注使得它能夠將更多資源和注意力集中在對齊問題上,可能為研究人員提供一個更純粹的研究環境。此外,對於像Schulman這樣的資深研究者來說,在一個較新、規模相對較小的公司工作,可能意味著更大的影響力和更多塑造公司方向的機會,這對於那些希望在職業生涯中期尋求新挑戰的研究者來說非常有吸引力。

李維安表示:“Anthropic在公司治理結構上的創新體現了在商業和安全之間更好的平衡,這可能也是它能不斷吸引人才跳槽過去的理由。”

他解釋稱:“為了在AI向善和AI向利之間取得平衡,在治理結構上,Anthropic專門成立了一個由社會知名人士組成的信託委員會對董事進行監督,他們有權罷免違背科技向善宗旨的董事會成員。此外,為了保障制度的執行,Anthropic還設置了一類特殊的T類股票,由信託成員持有。”

今年5月,Amodei更是在一場峰會上表示:“我們有七位聯合創始人。三年半過去了,我們所有人都還在公司。”

而對於OpenAI面對的挑戰,譚寅亮表示:“放眼其他AI企業,Claude的模型在某些領域已經超過了GPT,當大家都在Transformer這條既定路線上賽跑,終點和路徑其實都是很清晰的。目前看,如果科學家們持續出走,OpenAI存在的先發優勢並不是不可超越。”

“8月馬斯克也重啟了對OpenAI的訴訟。財務方面,OpenAI公司一年的虧損可能高達50億美元,現金流在未來一年內有可能耗盡。內憂外患之下,今年對於OpenAI來說應該是很艱難的。”他說。