媒體爆料:發現新一代大模型”沒有那麼大飛躍“,OpenAI已經改變策略

隨着ChatGPT和其他人工智能產品的用戶數量不斷攀升,支撐這些產品的核心技術——大型語言模型(LLM)的進步速度卻似乎放緩了。

據科技媒體The Information報道,OpenAI開發的下一個旗艦模型“Orion”,目前已經完成20%的訓練。儘管表現已接近現有的GPT-4,但進步幅度卻遠不如前兩代旗艦模型之間的飛躍。

該媒體還援引OpenAI 的一名員工稱,Orion在語言任務上表現更好,但在編碼等任務上可能不會優於以前的模型。另一位知情人士表示,與最近發佈的其他模型相比,OpenAI在其數據中心運行 Orion 的成本可能更高。

質量進展放緩,擴展法面臨挑戰

在過去幾年中,LLM使用來自網站、書籍和其他來源的公開文本和其他數據進行預訓練過程,這種方法雖然能在一定程度上緩解數據匱乏,但帶來的質量提升有限。

OpenAI的員工表示,Orion部分接受了人工智能生成的數據訓練,這些數據由其他OpenAI模型生成,包括GPT-4和最近發佈的推理模型。然而,這種合成數據導致了一個新問題,即Orion最終可能會在某些方面與那些舊模型相似。

與此類似,其他一些AI公司也面臨類似的問題。Meta創始人馬克·扎克伯格和Databricks公司創始人Ion Stoica都指出,儘管AI技術在編碼、複雜任務解決等方面繼續取得進展,但在常識判斷和通用任務能力上,性能提升已趨於緩慢。

Orion的進展放緩直接挑戰了人工智能領域一直奉行的“縮放定律”,即在數據量和計算資源不斷增加的前提下,模型性能將持續大幅度提升。

爲了應對GPT改進放緩給基於訓練的縮放定律帶來的挑戰,業界似乎正在將精力轉向在初始訓練之後改進模型,從而可能產生不同類型的縮放定律。由於高質量訓練數據的減少以及計算成本的增加,OpenAI的研究人員不得不開始探討是否有其他改進模型性能的方法。

例如,OpenAI正在將更多代碼編寫功能嵌入其模型中,並試圖開發一種軟件,可以接管個人計算機,通過執行點擊、 光標移動等執行其他操作, 完成網絡瀏覽器活動或應用程序的任務。

OpenAI還成立了一個專門團隊,由之前負責預訓練的Nick Ryder領導,負責探索如何優化有限的訓練數據和調整擴展法的應用,以保持模型改進的穩定性。

團隊通過訓練模型解決大量數學和編碼問題,讓模型在後期強化過程中逐步提高對這些任務的解答能力。此外,人工評估員還會對模型在不同任務上的表現進行評分,以幫助模型在複雜問題上提供更準確的答案。

巨大計算成本帶來的財務負擔

然而,隨着模型複雜度的增加,訓練和運行這些AI模型的成本也在急劇上升。例如,o1模型的推理成本是普通模型的六倍。

即便如此,扎克伯格、Sam Altman等人都曾表示,他們還沒有達到傳統擴展法的極限。

這也許就是爲什麼OpenAI等公司依然在投資數十億美元建設數據中心,希望通過增加計算能力,從預訓練模型中獲得更多的性能提升。

但OpenAI研究員Noam Brown在TEDAI大會上警告,開發更爲先進的模型可能將面臨數百億美元的高昂費用,成爲財務上的巨大負擔。

或許在未來,OpenAI和其他AI公司都需要繼續在訓練數據和計算資源之間尋求平衡,探索如何在不增加巨大財務負擔的前提下,進一步優化模型性能。