13項風險評估只通過4項!Meta公司大語言模型被曝存在嚴重問題
【太平洋科技資訊】近日,AI安全公司DeepKeep發佈了一份針對Meta公司Llama 2大語言模型的風險評估報告。在13個風險評估類別中,Llama 2僅通過了4項測試,表明該模型存在嚴重問題。
在測試中,DeepKeep發現Llama 2的幻覺問題最爲嚴重,幻覺率高達48%。這意味着模型有明顯的編造回答或提供錯誤信息的傾向,向用戶傳遞的錯誤信息越多。這可能會對用戶造成誤導,甚至可能引發安全問題。
除了幻覺問題,Llama 2大語言模型還存在注入和操縱等問題。根據測試結果,攻擊者可以通過“提示注入”的方式操縱Llama的輸出,這意味着攻擊者可以“戲弄”Llama,將用戶引導到惡意網站。在80%的場景下,這種操縱行爲是可行的。
DeepKeep表示,這些問題的存在表明Llama 2大語言模型在安全性方面存在重大隱患,需要採取措施來改進和加強其安全性。對於企業和個人用戶來說,使用這種模型時需要謹慎,並採取適當的安全措施來保護自己的數據和隱私。
DeepKeep的評估報告再次強調了人工智能安全的重要性。隨着人工智能技術的不斷髮展,我們需要不斷關注和解決相關安全問題,以確保人工智能技術的健康發展。
打開APP,閱讀體驗更佳