OpenAI首席安全研究員Lilian Weng離職

鞭牛士報道,11月9日消息,據外電報道,OpenAI 另一位首席安全研究員 Lilian Weng 週五宣佈她將離開這家初創公司。Weng 自 8 月起擔任研究和安全副總裁,在此之前,她曾擔任 OpenAI 安全系統團隊負責人。

在X 上的一篇帖子中,翁女士表示,「在 OpenAI 工作了 7 年後,我感覺已經準備好重啓並探索一些新的東西了。」

翁女士表示,她的最後一天將是 11 月 15 日,但沒有具體說明她接下來會去哪裡。

「我做出了離開 OpenAI 的極其艱難的決定。」Weng 在帖子中說道。「看看我們所取得的成就,我爲安全系統團隊的每個人都感到驕傲,我非常有信心團隊將繼續蓬勃發展。」

翁的離職是去年一系列人工智能安全研究人員、政策研究人員和其他高管離開 OpenAI 的最新一員,其中幾人指責OpenAI 優先考慮商業產品而非人工智能安全。

翁的離職與Ilya Sutskever和Jan Leike一起,他們是 OpenAI 現已解散的Superalignment 團隊的負責人,該團隊試圖開發控制超級智能 AI 系統的方法,他們今年也離開了這家初創公司,轉而從事其他人工智能安全工作。

根據翁的領英 (LinkedIn) 信息,她於 2018 年首次加入 OpenAI,並在這家初創公司的機器人團隊工作,最終打造出一隻可以解開魔方的機械手——據她的帖子稱,這項任務耗時兩年才完成。

隨着 OpenAI 開始更加關注 GPT 範式,Weng 也開始關注。2021 年,這位研究人員轉而幫助建立這家初創公司的應用人工智能研究團隊。在 GPT-4 發佈後,Weng 的任務是創建一個專門的團隊,在 2023 年爲這家初創公司構建安全系統。根據 Weng 的帖子,如今,OpenAI 的安全系統部門擁有 80 多名科學家、研究人員和政策專家。

人工智能安全專家的數量相當多,但許多人對 OpenAI 在試圖構建越來越強大的人工智能系統時對安全的關注表示擔憂。長期從事政策研究的 Miles Brundage於 10 月離開了這家初創公司,並宣佈 OpenAI 將解散其 AGI 準備團隊,而他曾爲該團隊提供過建議。

同一天,《紐約時報》報道了前 OpenAI 研究員Suchir Balaji,他說他離開 OpenAI 是因爲他認爲這家初創公司的技術給社會帶來的危害大於好處。

OpenAI 向 TechCrunch 透露,其高管和安全研究人員正在努力尋找替代 Weng 的人選。

OpenAI 發言人在一封電子郵件聲明中表示:我們非常感謝 Lilian 對突破性安全研究和建立嚴格技術保障的貢獻。我們相信,安全系統團隊將繼續發揮關鍵作用,確保我們的系統安全可靠,爲全球數億人提供服務。

近幾個月離開 OpenAI 的其他高管包括首席技術官 Mira Murati、首席研究官Bob McGrew 和研究副總裁 Barret Zoph。8月,著名研究員Andrej Karpathy和聯合創始人John Schulman也宣佈將離開這家初創公司。其中一些人,包括 Leike 和 Schulman,離開後加入了 OpenAI 的競爭對手 Anthropic,而其他人則繼續創辦自己的企業。