o1研發團隊首次集體訪談:教AI數r用了一年半
笑死,原來o1也像人類一樣喜歡趕ddl(手動狗頭)。
這是在o1團隊的“大型見面會”上,OpenAI創始成員Wojciech Zaremba揭開的o1“黑歷史”。
包括Zaremba在內的18名團隊成員,在首席研究官Bob McGrew的帶領之下圍坐一團。
o1核心貢獻者Hyung Won Chung、Noam Brown等關鍵人物,也都在此列。
隨着成員們的踊躍發言,o1的發展歷程也逐漸被揭開——受AlphaGo和早期GPT模型的啓發,想到了將兩張背後的範式結合。
後來,團隊訓練出了第一個可以生成連貫思維鏈的模型,標誌着研究方向開始逐漸明朗和聚焦……
在充滿鬆弛感的氣氛當中,衆人還分享了有關o1研發的許多趣事:
同時在研究過程中他們還發現,o1不僅比人類更善於發現新的CoT推理步驟,並且還涌現出了自我批評能力。
有網友稱讚說,這的確是一個出色的團隊,非常喜歡聽他們的發言,並且模型的推理能力也確實比以前強。
量子位整理了這次訪談的實錄,下面就一起來看~
Bob McGrew:我是OpenAI研究團隊的負責人,我們剛剛發佈了o1和o1-mini模型。
對此我們感到非常激動,今天我們的整個團隊聚集在此,來介紹這兩個模型。
★什麼是o1?
Bob McGrew:所以,(第一個問題),到底什麼是o1?
Hyung Won Chung:我們開啓了新的模型系列,並且起了一個新的名字叫o1。
這是爲了強調,與GPT-4o等之前的模型相比,o1有很大的不同,稍後會有人詳細解釋。
o1是一個推理模式,所以它在回答問題之前思考的會更多。
我們發佈了兩個模型——(滿血)o1的o1-preview,以及更小、更快的o1-mini,它和(滿血)o1採用的是相同的訓練框架。
我們希望大家喜歡我們的新命名方式。
★推理又是什麼?
Bob McGrew:那麼推理又是什麼意思?
Giambattista Parascandolo:對於簡單問題來說,我們希望提問之後立刻就能得到答案。
比如你問意大利的首都在哪,你不用思考很多也知道答案是羅馬。
但如果你想知道一個複雜問題的答案,或者寫出一份好的商業計劃,或者寫一部小說,你可能就要思考一段時間了,並且你思考的越多,最後得到結果也就越好。
而推理就是把思考時間化爲更好的成果的能力。
★你們在o1上工作多長時間了?
Bob McGrew:你們在o1上工作多長時間了?
Jakub Pachocki:在OpenAI早期,我們深受AlphaGo的成績的啓發,看到了深度強化學習的潛力,因此我們對其進行了深入研究,並看到了數據和機器人技術的大規模擴展。
我們也開始思考如何才能在通用領域進行強化學習,從而實現非常強大的人工智能。
然後我們看到了GPT範式中擴展和監督學習帶來的驚人成果,從那時起,我們就一直在思考如何將這兩種不同的範式合二爲一。
Mark Chen:項目開始的確切時間很難確定,但已經與Yaku和Shimon進行了早期探索,與Lukash、Ilya進行了早期探索。
一個重要的時刻是Jerry的加入,他推動了這個大型項目的進展。
★研究過程中的“Aha moment”
Bob McGrew:我認爲在研究過程中最精彩的就是哪些“Aha moment”,你們的工作當中有哪些高光時刻呢?
Jerry Tworek:我們訓練了 GPT-2、GPT-3 和 GPT-4,每一次都成爲了媒體上的熱點。
但第一次有這種感覺是當模型出來的時刻,所有人都稱讚很棒。
對於我而言,這樣的時刻是當我們投入了更多計算資源,並第一次生成了連貫的思維鏈時。
當時我們心想,這和以前的模型看起來真的很不一樣。
Trapit Bansal:當我們考慮訓練一個推理模型時,我立即想到的一件事是,用人類的思維過程進行訓練。
但我發現,使用RL訓練模型來生成己的思維鏈,結果可以做得比人類寫的思維鏈更好。
在我看來這就是一個“Aha moment”,它告訴我們可以通過這種訓練方式,讓擴展模型的推理能力得到擴展。
Hunter Lightman:我們花了很長的時間,一直嘗試讓模型更好地解決數學問題。
爲此我們付出了很多努力,我們想出了很多不同的方法,但有一件事讓我一直很沮喪,
每次我讀到這些模型的輸出時,發現模型似乎永遠不會質疑自己哪裡出了問題,什麼時候犯了錯誤。
但當我們訓練早期的o1模型並與之對話時,發現它在數學測試中得分更高了。
通過觀察它的推理方式,我們發現它開始質疑自己,並進行了非常有趣的反思。
那一刻我感覺哇,我們發現了一些不同的東西。
★感覺模型像人還是像機器?
Bob McGrew:你們在看模型的思考過程時,覺得他們是更像真人還是更像機器人?
Liam Fedus:這更像是一種“精神體驗”。
你可以看到模型也會犯很多人類經常犯的錯誤,又能看到它對一些常識提出質疑。
很奇怪,模型會帶有人類的行爲。
Wojciech Zaremba:在模型被設定了ddl的情況下,往往會在快due的時候迅速得出結論。
好像大模型也知道自己必須立刻給出答案。
Karl Cobbe:我年輕的時候花了很多時間參加數學競賽,而我進入人工智能領域的原因,就是試圖實現這個過程的自動化。
所以對我來說,這是一個非常重要的轉折點,因爲我看到這個模型實際上能夠遵循我解決這些問題時使用的步驟
雖然這不是完全相同的思路,但非常非常可靠。
Wojciech Zaremba:可以相信,這些模型正在成爲真正推動工程和科學發展的因素。
如果它們似乎能解決即使專家也難以解決的問題,那麼將能夠推動科學進步。
★研發過程中的困難
Bob McGrew:我們談了很多令人興奮的時刻,那麼在工作過程中又遇到了什麼障礙?
Jerry Tworek:訓練大型模型從根本上來說就是一件非常非常困難的事情。
有成千上萬的事情可能出錯,而且在每個領域都有事情確實出錯了。
所以幾乎這裡的每個人都像你們知道的一樣,在訓練這些事情上付出了很多心血和汗水,並想出瞭如何讓模型繼續學習和進步的方法。
實際上,成功的道路非常狹窄,而失敗的方式卻有很多。
Wojciech Zaremba:就像發射火箭一樣,如果你偏離了一個角度,你就無法到達目的地,而這就是我們的工作。
Ilge Akkaya:這個模型非常好,通常比人類好幾倍,能達到博士的水平。
但是這有時是一個挑戰,因爲我們必須經常去驗證模型沒有偏離軌道。
但我們已經飽和了所有行業級的評估,我們不知道下一步該研究什麼。
Mark Chen:這也是一種成就感,就像每次遇到難題一樣。
這就像這個團隊要克服的另一個障礙,我真的很高興我們克服了所有這些小障礙。
★如何測試模型表現
Bob McGrew:你們測試模型的方法有哪些,有沒有什麼喜歡的問題,並發現模型在這些問題上變得越來越好?
Shengjia Zhao:Strawberry裡有幾個r?
Wojciech Zaremba:不管是什麼原因,ChatGPT無法可靠地解決這些問題。
我們花了一年半的時間,現在我們可以計算出strawberry中的“r”的數量。
Hunter Lightman:我有一個習慣,我想其他人也有。
每當上推特時,都會看到一些帖子說大模型無法解決這類問題。
我就把它複製粘貼進去,然後發現我們的模型可以做到。
★內部o1使用方法
Bob McGrew:爲了讓人們瞭解他們可以使用這個模型做什麼,我很想聽聽你們使用o1的一些方法。
Hyung Won Chung:我使用o1的方式主要是用來寫代碼。
我的很多工作都是關於代碼的,我越來越關注問題定義,並使用TDD(測試驅動開發)。
因此,我不再編寫實現功能的代碼,而是專注於編寫單元測試。
因爲o1可以實現東西,所以我可以專注於重要的、需要解決的高級問題,這真的是一種轉移我注意力的重要方式。
另一個領域是debug,現在當我收到一些錯誤消息時,我只需傳遞給o1,有時它會立即解決。
即使沒有,它至少會給出一些更好的問題,提供一些更好地思考這個問題的方法。
所以對我來說,這是一個非常重要的工作變化,我希望這也能幫助其他人。
★o1-mini的誕生過程
Bob McGrew:o1-mini的故事是怎樣的?它是如何誕生的?
Hongyu Ren:我們想把o1系列帶給更多人,它有更低的成本,所以做了o1 mini。它是o1框架的最小演示,是“推理專家”。它不一定能知道你喜歡的名人的生日,但是它能有效地推理,並且很智能。
實際上它真的很聰明,比我們之前最好的模型都要聰明很多,幾乎與o1相當,但是成本和時延比它低很多。
不過也確實有侷限性,可能不知道很多外部世界知識。這與技術本身無關,我們試圖讓它達到和此前最好模型最小版本差不多的水平,並且仍舊在努力進一步改進它。
用戶嘗試了o1 mini會很興奮,因爲它推理和思考的速度真的很快。
★是什麼激勵你做這些研究?
Łukasz Kaiser:我只是覺得在這個世界上,有一些可以做推理、有智能的東西,比想象中小很多。它們可以以不同方式做到這一點,這就非常迷人了。
Giambattista Parascandolo:我覺得這是向模型範式轉變的第一步。以前花很長時間才能解決的問題,現在做到了分鐘級,這只是漫長道路的第一步。我們希望能在幾個月或幾年後,邁出第二步。
Wojciech Zaremba:我覺得這很有意義,我們可以對世界產生一些實質性的積極影響。
而且這很有趣,我喜歡對着電腦“說話”,喜歡在集羣上開始一項工作,也非常喜歡合作。
Jerry Tworek:我認爲科技可以改善人類生活,我喜歡我們的模型能爲人工作,幫助我們解決日常問題,賦予它推理能力讓它做事。
Liam Fedus:我認爲這一範式解決了一些模型無法解決的問題,所以不僅僅是回答變好一點,而是通過規劃、通過錯誤糾正,它解鎖了全新能力,在世界上創造新知識的能力,比如科學發現,我認爲這是最令人興奮的部分。
短時間內,它的自身進化會越來越快,這真的很棒。
Mark Chen:我們團隊中一些成員有數學等方面的背景,這驅動我們自己想去創造一個最好的系統。
Hyung Won Chung:我認爲推理比人們想象中的還要強大。當人類想要完成某項任務時,最基本的方法就是推理,你會遇到困難,你必須要找到解決方法。
我覺得AI研究員的工作好像是要找到一種方法來投入更多的計算。硬件方面的研究者在這方面做的很好,很長一段時間硬件成本都在指數級下降。
需要的計算量越來越多,就好像肩膀上的重量越來越重。這個新模式找到了一種方法,來幫我們卸下一些重量。
★在這項研究中,你們還觀察到什麼嗎?
Jason Wei:我們發現一個有趣的現象是,每個模型都有自己的“怪癖”。
訓練的每個模型在每個任務上的表現都不完全相同。所以模型可能有些任務表現得更好,有些表現得更差。每個模型都有它自己的個性和優點。
原視頻地址:https://www.youtube.com/watch?v=tEzs3VHyBDM