擴散模型攻克算法難題,AGI不遠了!谷歌大腦找到迷宮最短路徑
文章來源於新智元
「擴散模型」也能攻克算法難題?
一位博士研究人員做了一個有趣的實驗,用「離散擴散」尋找用圖像表示的迷宮中的最短路徑。
作者介紹,每個迷宮都是通過反覆添加水平和垂直牆生成的。
其中,起始點和目標點隨機選取。
從起點到目標點的最短路徑中,隨機採樣一條作爲解決方案的路徑。最短路徑是通過精確算法算出來的。
然後使用離散擴散模型和U-Net。
將起點和目標的迷宮被編碼在一個通道中,而模型在另一個通道中用解來消除迷宮的噪聲。
再難一點的迷宮,也能做的很好。
爲了估算去噪步驟 p(x_{t-1} | x_t),算法會估算 p(x_0 | x_t)。在這個過程中可視化這一估計值(底行),顯示「當前假設」,最終聚焦在結果上。
英偉達高級科學家Jim Fan表示,這是一個有趣的實驗,擴散模型可以「渲染」算法。它可以僅從像素實現迷宮遍歷,甚至使用了比Transforme弱得多的U-Net。
我一直認爲擴散模型是渲染器,而Transformer是推理引擎。看起來,渲染器本身也可以編碼非常複雜的順序算法。
這個實驗簡直驚呆了網友,「擴散模型還能做什麼?!」
還有人表示,一旦有人在足夠好的數據集上訓練擴散Transformer,AGI就解決了。
不過這項研究還未正式發佈,作者表示稍後更新在arxiv上。
值得一提的是,這個實驗中,他們採用了谷歌大腦團隊曾在2021年提出的離散擴散模型。
就在最近,這項研究重新更新了一版。
離散擴散模型
「生成模型」是機器學習中的核心問題。
它既可用於衡量我們捕獲自然數據集統計數據的能力,也可用於需要生成圖像、文本和語音等高維數據的下游應用程序。
GAN、VAE、大型自迴歸神經網絡模型、歸一化流等方法,在樣本質量、採樣速度、對數似然,以及訓練穩定性方面都各有千秋。
最近,「擴散模型」已成爲圖像、音頻生成,最受歡迎的替代方案。
它可以用更少的推理步驟,實現了與GAN相當的樣本質量,以及與自迴歸模型相當的對數似然。
論文地址:https://arxiv.org/pdf/2107.03006.pdf
雖然已有人提出了離散和連續狀態空間的擴散模型,但最近的研究主要集中在,連續狀態空間中運行的高斯擴散過程(如實值圖像和波形數據)。
離散狀態空間的擴散模型,已在文本和圖像分割領域進行了探索,但是還沒有在文本和圖像的大規模生成任務中,證明是一個有競爭力的模型。
谷歌研究團隊提出了一種全新的離散去噪擴散概率模型(D3PM)。
研究中,作者證明了過度矩陣的選擇是一個重要的設計決策,它能改善圖像和文本領域的結果。
此外,他們還提出了一種新的損失函數,它結合了變分下界和輔助的交叉熵損失。
在文本方面,這個模型在字符級文本生成方面取得了很好的效果,同時可以擴展到大詞彙量的LM1B數據集上。
在CIFAR-10圖像數據集上,最新模型接近了連續空間DDPM模型的樣本質量,並超過了連續空間 DDPM 模型的對數似然。
項目作者
Arnaud Pannatier
Arnaud Pannatier從2020年3月在導師François Fleuret的機器學習小組開始攻讀博士學位。
他最近開發了HyperMixer,使用超級網絡讓MLPMixer能夠處理各種長度輸入。這使得模型能夠以一種排列不變的方式處理輸入,並證明了它給了模型一種隨着輸入長度線性擴展的注意力行爲。
在EPFL,他先後獲得了物理學學士學位和計算機科學與工程碩士學位(CSE-MASH)。
參考資料:
https://arxiv.org/pdf/2107.03006.pdf
https://x.com/DrJimFan/status/1762888644933902681?s=20