OpenAI發佈安全指南:董事會有權阻止CEO發佈新款AI模型
12月19日消息,美國當地時間週一,人工智能研究公司OpenAI表示,即使公司領導層認爲人工智能(AI)模型足夠安全,其董事會也可以選擇推遲發佈。這是該公司授權其董事加強尖端技術開發安全保障措施的另一個明顯跡象。
週一發佈的一套指導方針詳細說明了這一決策流程,並解釋了OpenAI計劃如何應對其最強大人工智能系統可能帶來的極端風險。該指導方針發佈前,OpenAI首席執行官薩姆·奧特曼(Sam Altman)曾被董事會短暫罷免,公司經歷了一段動盪時期,這使得董事和公司高管之間的權力平衡成爲人們關注的焦點。
OpenAI最近組建的“準備”(Preparedness)團隊表示,它將繼續評估公司的人工智能系統,以確定它們在四個不同類別中的表現,包括潛在的網絡安全問題以及化學武器、核武器以及生物武器威脅,並努力減少該技術可能造成的任何危害。具體來說,OpenAI正在監控所謂的“災難性”風險,它在指導方針中將其定義爲“任何可能導致數千億美元經濟損失或導致許多人受到嚴重傷害或死亡的風險”。
亞歷山大·馬德里(Aleksander Madry)是“準備”團隊的負責人,目前正在麻省理工學院休假。他稱,該團隊將向一個新的內部安全諮詢小組發送月度報告,後者隨即將分析馬德里團隊的工作,並向奧特曼和公司董事會提交建議。在奧特曼被短暫解僱後,公司董事會進行了全面改革。根據這份文件,奧特曼及其領導團隊可以根據這些報告決定是否發佈新的人工智能系統,但董事會有權否決他們的決定。
OpenAI在10月份宣佈成立“準備”團隊,使其成爲該公司監督人工智能安全的三個獨立團隊之一。另外兩個團隊分別是“安全系統”團隊,着眼於當前的產品,如GPT-4,以及“超級對齊”(Superalignment)團隊,專注於未來可能存在的極其強大的人工智能系統。
馬德里表示,他的團隊將反覆評估OpenAI最先進的、尚未發佈的人工智能模型,根據不同類型的感知風險將它們評爲“低等”、“中等”、“高等”或“關鍵”。該團隊還將做出改變,希望減少他們在人工智能中發現的潛在危險,並衡量其有效性。根據新的指導方針,OpenAI將只推出危險評級爲“中等”或“低等”的模型。
馬德里還希望其他公司也能使用OpenAI的指導方針來評估其人工智能模型的潛在風險。他說,這些指導方針是OpenAI之前在評估已發佈人工智能技術時遵循的許多流程的正規化。他和他的團隊在過去幾個月裡提出了許多細節,並從OpenAI內部其他人那裡得到了反饋。(小小)