剛剛,李飛飛發公開信!力挺開源AI

智東西編譯 陳駿達編輯 Panken

智東西2月8日消息,今天下午,斯坦福大學教授、以人爲本AI研究中心主任李飛飛發佈公開信,大力支持開源AI。

近期,DeepSeek在爆火後遭遇美國乃至全球大量相關機構、企業的圍追堵截,不過,也有諸如楊立昆(Yann LeCun)、馬克·安德森(Marc Andreessen)等業內知名人士發出不同意見,支持開源AI。李飛飛此時就開源問題發聲,似乎也從側面迴應了近期的相關討論。

李飛飛在信中強調,AI的未來已來,但令人憂心的是,AI治理似乎缺乏一個總體框架,無法有效確保其能夠造福全人類。更嚴重的是,一些科幻小說般、意識形態化的概念似乎正滲透到AI治理框架的制定過程中,需要用科學的觀念和務實的態度極力避免。

她認爲限制對先進AI系統的訪問將製造障礙並減緩創新,這對學術界和人才培養來說都是極爲不利的,並會最終反噬AI行業的發展。

過去一年,李飛飛除了在空間智能領域創立World Labs之外,還一直積極參與AI領域相關政策、治理框架的公開討論,倡導公共部門加大對AI的投入,並反思了自己過去用ImageNet創造的衆包AI模式的公平性問題。

以下爲李飛飛公開信的完整編譯:

AI治理框架,刻不容緩

AI正在以驚人的速度發展。過去需要計算模型花費數天時間完成的任務,如今僅需幾分鐘即可完成。儘管訓練成本大幅上升,但隨着開發者學會用更少的資源做更多的事情,這些成本很快就會下降。我之前說過,現在再重複一次——AI的未來已來。

對於AI領域業內人士來說,這並不令人驚訝。計算機科學家一直在努力工作,企業多年來也在不斷創新。令人驚訝且引人關注的是,AI治理似乎缺乏一個總體框架。是的,AI正在快速發展——隨之而來的是確保其造福全人類的必要性。

作爲一名技術專家和教育工作者,我堅信全球AI生態系統中的每個人都有責任推動技術進步,並確保以人爲中心的方法。這是一項艱鉅的任務,需要一套結構化的指導方針。爲準備下週在巴黎舉行的AI行動峰會,我爲未來的AI政策制定提出了三項基本原則。

首先,依靠科學,而非科幻。科學工作的基礎是原則性地依賴實證數據和嚴謹的研究,同樣的方法也應應用於AI治理。儘管未來主義的場景——無論是烏托邦還是末日——激發了我們的想象力,但有效的政策制定需要對當前現實有清晰的認識。

我們在圖像識別和自然語言處理等領域取得了顯著進展。聊天機器人和輔助軟件程序正在以令人興奮的勢頭改變工作方式——但它們只是應用了先進的數據學習和模式生成技術。它們並非具有意圖、自由意志或意識的智能形式。理解這一點至關重要,能使我們免於被不切實際的場景分散注意力,並讓我們能夠專注於關鍵的挑戰。

鑑於AI的複雜性,即使專注於現實也並不總是容易的。爲了彌合科學進步與現實應用之間的差距,我們需要能夠準確分享有關AI能力最新信息的工具。像美國國家標準與技術研究院這樣的權威機構可以闡明AI在現實世界中的影響,從而制定基於技術現狀的精確、可操作的政策。

其次,務實而非意識形態化。儘管AI領域發展迅速,但它仍處於起步階段,其最大的貢獻還在未來。因此,關於什麼可以構建、什麼不可以構建的政策必須以務實的方式制定,以儘量減少意外後果,同時激勵創新。

以AI用於更準確診斷疾病爲例。這有可能迅速普及高質量醫療服務的獲取。然而,如果沒有適當的引導,它也可能加劇當今醫療系統中存在的偏見。

開發AI技術並非易事。開發一個模型可能是出於好的意圖,但該模型可能會在未來被濫用。因此,最好的治理政策應旨在戰術性地減輕此類風險,同時獎勵負責任的實踐。政策制定者必須制定實用的責任政策,以阻止故意濫用,同時不會不公平地懲罰善意的行爲。

最後,賦能AI生態系統。這項技術可以激勵學生,幫助我們照顧老齡化人口,併爲清潔能源創新解決方案——而最好的創新往往通過合作實現。因此,政策制定者賦能整個AI生態系統——包括開源社區和學術界——顯得尤爲重要。

開放獲取權限的AI模型和計算工具對進步至關重要。限制訪問將製造障礙並減緩創新,特別是對於資源較少的學術機構和研究人員而言。這種限制的後果當然不僅限於學術界。如果今天的計算機科學學生無法使用最佳模型進行研究,他們在進入私營部門或決定創辦自己的公司時將無法理解這些複雜的系統——這是一個嚴重的差距。

AI革命已經到來——我對此感到興奮。在AI驅動的世界中,我們有潛力顯著改善人類的生活條件,但爲了實現這一目標,我們需要以實證爲基礎、協作性強且深深植根於以人爲中心價值觀的治理體系。