五角大樓大讚AI:正在加速我們的“殺傷鏈”!

財聯社1月20日訊(編輯 黃君芝)自人工智能(AI)爆火以來,它已經滲透進了我們生活的方方面面。包括OpenAI和Anthropic在內的“AI領頭羊”們還在向美國軍方推銷軟件:讓五角大樓更有效率,同時不會讓人工智能“直接殺人”。

五角大樓首席數字和人工智能官Radha Plumb博士在接受最新採訪時表示,如今,他們的工具並未被用作武器,但人工智能在識別、跟蹤和評估威脅方面給國防部帶來了“重大優勢”。

“很明顯,我們正在增加加快執行‘殺傷鏈’的方法,以便我們的指揮官能夠在正確的時間作出反應,保護我們的部隊。”她說。

“殺傷鏈”(Kill Chain)是一個軍事術語,現在也廣泛應用於網絡安全領域。它描述了攻擊從開始到結束的各個階段,以便更好地理解和防禦攻擊。

據瞭解,“殺傷鏈”共由六個環節組成,涉及一個由傳感器、平臺和武器組成的複雜系統。它聽起來更像個科技產品:“發現、定位、跟蹤、瞄準、交戰與評估”。有一位指揮官是這麼描述的:這整個過程就像流水線,嚴絲合縫中展現出軍隊的冷酷與高效。

也正因爲如此,其過程中的每一個環節都必須環環相扣,容不得一絲差錯,它對信息系統也是極度依賴的。

根據Plumb的說法,在“殺傷鏈”的規劃和戰略制定階段,生成式人工智能被證明是有用的。

五角大樓與人工智能開發者之間的關係相對較新。OpenAI、Anthropic和Meta在2024年收回了他們的使用政策,允許美國情報和國防機構使用他們的人工智能系統。不過,它們仍然不允許人工智能傷害人類。

當被問及五角大樓如何與人工智能模型提供商合作時,Plumb說:“我們已經非常清楚,我們會在什麼情況下使用他們的技術,在什麼情況下不會使用他們的技術。”

隨着生成式人工智能在五角大樓證明其實用性,它可能會推動硅谷放寬其人工智能使用政策,允許更多的軍事應用。

Plumb表示:“它可以讓你利用我們的指揮官所擁有的各種工具,還可以創造性地思考不同的應對方案,以及在需要應對潛在威脅或一系列威脅的環境中可能出現的取捨。”

目前還不清楚五角大樓在這項工作中使用了誰的技術;在“殺傷鏈”中使用生成式人工智能(即使是在早期規劃階段)似乎違反了幾家領先模型開發商的使用政策。 例如,Anthropic 的政策禁止使用其模型來生產或修改“旨在對人類生命造成傷害或損失的系統”。

Anthropic首席執行官Dario Amodei最近強調:“我們永遠不應該在國防和情報領域使用人工智能的立場,對我來說毫無意義。而那種認爲我們應該瘋狂地使用人工智能製造任何我們想要的東西(甚至包括末日武器)的觀點顯然也同樣瘋狂。我們試圖尋求中間立場,以負責任的方式行事。”

Plumb也稱,自動化系統獨立做出生死決定的想法“太過二元化”,現實也不那麼“科幻”。相反,她認爲五角大樓對人工智能系統的使用實際上是人與機器之間的合作,在整個過程中,高級領導人都在做出積極的決策。