剛剛通報:已辭退!

【導讀】字節跳動迴應實習生破壞大模型訓練傳聞:實習生已辭退

中國基金報記者 王建薔

近日,有傳聞稱字節跳動大模型訓練被實習生攻擊。10月19日晚間,字節跳動對這一傳聞進行了迴應。

字節跳動迴應傳聞:已辭退

字節跳動發佈聲明迴應稱,確有實習生髮生嚴重違紀行爲並已經被辭退,但相關報道也存在部分誇大及失實信息。

據字節跳動介紹,該涉事實習生惡意干擾商業化技術團隊研究項目的模型訓練任務,但並不影響商業化的正式項目及線上業務,也不涉及字節跳動大模型等其他業務。網傳“涉及8000多卡、損失上千萬美元”嚴重誇大。

字節跳動還稱,經覈實,涉事人一直在商業化技術團隊實習,並沒有AI Lab實習經歷。其社交媒體個人簡介及部分媒體報道有誤。另外,該實習生已在8月被公司辭退。公司也將其行爲同步給行業聯盟和所在學校,交由校方處理。

此前傳聞

近日有消息稱,字節跳動的大模型訓練被實習生入侵,注入了破壞代碼,導致其訓練成果不可靠,可能需要重新訓練。據稱遭到入侵的代碼注入了8000多張卡,帶來的損失可能超過千萬美元。

傳言稱,該實習生利用了HF(huggingface)的漏洞,在公司的共享模型裡寫入破壞代碼,導致模型的訓練效果忽高忽低,無法產生預期的訓練效果。

但傳聞曝出之後,該實習生還在某微信羣裡闢謠稱,自己發完論文後就從字節跳動離職,這個當口有另一個人鑽漏洞改模型代碼,把鍋扣到自己頭上。

大模型安全問題受關注

大模型在安全性方面的問題已經受到業內高度關注。

2023年底《自然》雜誌預測的2024年的重大科學事件中 ,GPT5的發佈以及聯合國人工智能高級別諮詢機構將發佈的AI監管相關報告位列其中,反映了全球對協調人工智能發展與安全的重大關切。

業內將促使大模型遵循人類價值觀、服從人類意圖,規避各類風險,並保障數字和物理空間的應用安全,實現有用性(Helpful)、無害性(Harmless)和誠實性(Honest)3H多目標的平衡,上升爲亟待解決的世界難題。

近日,阿里雲聯合中國信息通信研究院等30餘家行業單位共同編制發佈《大模型安全研究報告(2024年)》。

報告指出,大模型在訓練數據、算法模型、系統平臺和業務應用等方面面臨多重安全挑戰。其中包括訓練數據的違規獲取、含有違法不良信息、數據投毒、質量低下以及缺乏多樣性等問題;算法模型則存在魯棒性不足、出現“幻覺”現象、存在偏見和歧視、可解釋性差的風險;系統平臺方面,則需防範機器學習框架和開發工具鏈的安全隱患以及系統邏輯缺陷所帶來的威脅。

中國信通院近期發佈的大模型安全基準AI Safety Benchmark的測試結果則顯示,大模型(尤其是開源大模型)在惡意誘導手段下的攻擊成功率均較原始輸入有明顯提升。因此,對大模型進行安全對齊防護刻不容緩。

編輯:艦長

審覈:木魚

版權聲明

《中國基金報》對本平臺所刊載的原創內容享有著作權,未經授權禁止轉載,否則將追究法律責任。

授權轉載合作聯繫人:於先生(電話:0755-82468670)