谷歌推出SAIF風險評估工具,以保護各行業AI系統

繼此前谷歌方面發佈安全人工智能框架(SAIF),旨在幫助用戶安全、負責任地部署AI模型後,日前其還推出SAIF風險評估工具。據瞭解,這是一種交互式工具,可幫助人工智能開發者和組織評估其系統安全狀況、風險,並實施更強大的安全防護。

目前,谷歌已經在其網站SAIF.Google上提供了SAIF風險評估工具,該工具以問卷的形式運行,用戶通過該網站主頁菜單欄進入“Risk Self Assessment”後即可體驗。據官方介紹,SAIF風險評估有助於將SAIF從概念框架轉變爲負責保護AI系統從業人員可操作的清單。

據悉,SAIF風險評估工具在進行風險評估時,將從收集有關用戶AI系統安全狀況信息的問題開始。而這些問題則覆蓋了多個方面,包括對模型和數據集的訪問控制、防止攻擊和對抗性輸入、用於生成式人工智能的安全設計與編碼框架、生成式人工智能驅動的代理,以及人工智能系統的訓練、調整和評估。

在用戶回答完相關問題後,SAIF風險評估工具會立即生成一份報告,以指導用戶確保AI系統的安全。具體而言,這一報告將重點顯示AI系統面臨的具體風險,例如數據中毒、提示注入和模型源篡改等,並根據用戶的回答提出建議和緩解措施。此外值得一提的是,該工具可識別出各種不同的風險,並提供風險產生的原因和其他詳細信息。此外,用戶還可以通過交互式SAIF風險地圖,瞭解在開發過程中如何引入、利用和緩解不同的安全風險。

爲推動關鍵人工智能安全措施的採用,此前谷歌方面基於SAIF原則與行業合作伙伴組建了安全人工智能聯盟(CoSAI)。據悉,谷歌最近已與35個行業合作伙伴啓動三個工作流程,其中包括AI系統的軟件供應鏈安全、爲不斷變化的網絡安全格局做好準備,以及AI風險治理。此外,CoSAI工作組將根據這些初始的重點領域創建AI安全解決方案。

對此谷歌方面表示,“SAIF風險評估報告功能與CoSAI的人工智能風險治理工作流程特別契合,有助於在整個行業中創建更安全的人工智能生態系統”。

【本文圖片來自網絡】