谷歌憑龐大 Data Commons 圖譜抗擊 AI 幻覺
大型語言模型對於當今的 AI 功能極爲重要,不管是圍繞其他工具進行包裝,還是僅僅充當圖靈測試的聊天機器人來工作。作爲預測模型(而非智能生物),它們不能進行推理,並且與真相沒有特殊的關聯。這致使 LLM 給出不正確、實際上屬於編造的迴應,此迴應被稱爲幻覺。這是尋求真正類似人類語言輸出過程中要克服的最大障礙之一。
谷歌已經在踐行蘋果智能方面的承諾
Android 在 AI 方面領先
作爲數據收集和編目的世界領導者,谷歌能夠比任何人更好地爲 LLM 提供準確的數據。爲此,谷歌剛剛推出了一組開放模型,稱爲 DataGemma,旨在提高 LLM 辨別真假的能力。
Data Commons,谷歌那令人難以置信的龐大知識圖譜,是其對抗普遍存在的 LLM 不準確的最新武器。知識圖譜不僅僅是事實的列表,而是一個全面的、涵蓋諸多數據的網絡,包括許多點之間的關係以及它們如何相互作用。利用具有高實用性指令的相互關聯的事實,是改進語言模型的一種有效辦法。現在,Data Commons 就是那個數據,而 DataGemma 就是那組算法。
AI 研究人員創建故意有毒的訓練模型來保持 LLM 健康
你本該將你的能力用於做好事……喲,你做到啦?
DataGemma 運用了兩種主要策略來應對人工智能的謊言:檢索交錯生成和檢索增強生成。使用 RIG,大型語言模型接收提示,生成一個可能的答案,然後根據經過驗證的事實和統計數據的數據庫檢查該答案。RIG 在一定程度上把模型的決策限制在其最初訓練時的概率範圍內。
在 RAG 模式下,語言模型首先從其指定的知識圖譜收集相關數據,並對該數據集進行評估以獲取答案。這使得工程師能夠不斷管理模型的可用數據集,而不是依賴於初始訓練數據。谷歌最近的博客文章在把這些弄得儘可能令人困惑這一方面做得很好,但從概念上講,它們並不是太複雜。
RIG 和 RAG 並非新鮮事物,各種人工智能模型都以某種方式使用了其中之一或兩者。區別在於 DataGemma 是由有史以來最大的一批數據囤積者之一所運營的。谷歌纔剛開始採用 RIG 和 RAG 相結合的方式來導航公開可用的 Data Commons 圖。但它承諾分享其研究成果,以造福整個機器學習行業,並隨着工作的推進逐步提供訪問權限。
沒有其他團隊能與谷歌在處理能力、數據存儲與管理以及工程資源的組合方面相抗衡。所以這項大規模的舉措在未來可能會對 LLM 的準確性產生巨大的影響。不管您認爲人工智能是人類的救星還是被過度炒作的客服機器人(實際上它介於兩者之間),更真實的 LLM 迴應只會是有益的。