OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹AI全能

智東西編譯 程茜 陳駿達編輯 Panken

智東西9月14日報道,近日,美國著名女脫口秀主持人奧普拉·溫弗瑞(Oprah Winfrey)錄製了一檔45分鐘的AI特別節目,主題爲“AI與我們的未來”。嘉賓包括OpenAI聯合創始人兼CEO薩姆·阿爾特曼(Sam Altman)、微軟聯合創始人比爾·蓋茨(Bill Gates)、YouTube知名科技博主馬庫斯·布朗利(Marques Brownlee,又稱MKBHD)和現任FBI局長克里斯托弗·雷伊(Christopher Wray)等人。

這檔節目也是OpenAI發佈傳說中“草莓”模型的部分預覽版——OpenAI o1預覽版後,阿爾特曼首次公開露面。OpenAI o1擁有進化的推理能力,在物理、生物、化學問題的基準測試中準確度甚至超過了人類博士水平。這些無一不引發人們對AI安全的擔憂。

在對話中,作爲目前這家最受矚目的AI創企的CEO,阿爾特曼強調了對AI系統進行安全測試的重要性,並透露他每隔幾天就會和政府官員就此碰面討論。

但同時,阿爾特曼也分享了AI能通過數據來學習並理解概念以及“AI將幫助我們解決一切問題”等極具爭議性的觀點,並在奧普拉提及他面對的信任危機時轉移話題。

蓋茨則強調,10年內AI會極大地改變教育和醫療領域。然而,他並未提及這些改變可能並非全都是正面的。有研究顯示,AI在醫療中的應用可能給診斷和治療效果帶來負面影響。

其它嘉賓則關注了深度僞造造成的危害和“超級智能帶來的全新風險”。

這檔節目在發佈前後引起軒然大波,許多網友和批評家質疑該節目在嘉賓選擇上過於單一,阿爾特曼與蓋茨都是從本場AI熱潮中直接受益的利益相關方,他們對AI的觀點可能有所偏頗。此外,部分嘉賓在節目中過度強調AI的遠期危害,可能導致公衆忽視AI目前已經對環境、社會造成的現實影響。

一、阿爾特曼再度開啓“推銷員”模式,稱AI能解決“一切問題”

阿爾特曼是接受奧普拉採訪的第一位嘉賓,他提出了一個頗具爭議的觀點:當今的AI是通過訓練數據來學習概念的。

在向節目觀衆解釋AI的原理時,阿爾特曼說道:“我們向系統展示一千個單詞的序列,並要求它預測接下來的內容,反覆重複這一過程,系統就能學會預測,進而學會背後的概念,這就是模型的底層邏輯。”

許多專家並不同意這一說法。最近,OpenAI發佈了傳說中“草莓”模型的部分預覽版——OpenAI o1預覽版。此類系統和之前的GPT系列模型確實可以高效、準確地完成下一詞預測的任務,但許多研究者認爲這種模型只是統計機器——它們只是學習數據模式,沒有意圖,只是做出有根據的猜測。

阿爾特曼稱,AI對經濟發展的影響程度之大是前所未有的,稱到2035年,“AI能幫助我們解決一切問題”。假設我們能讓模型變得極爲安全,但也無法改變AI融入經濟的速度,他認爲:“人們想要更多、更好(的AI),似乎有某股強大的力量在推動其發展”。

不過,高盛和紅杉在近期都曾指出AI領域存在投資和收益不匹配的問題。

二、阿爾特曼強調AI監管,避而不談信任危機

阿爾特曼可能誇大了當今AI的能力,他也同時強調了對這些系統進行安全測試的重要性:“我們需要做的第一件事就是要讓政府開始研究如何對這些系統進行安全測試,類似於飛機和藥物那樣的測試。”

但他的重點可能是後半句話:“如果我們現在能研究清楚這些問題,就能在之後發展出適合的監管框架。”換言之,他可能並不希望在當下就出現完整的監管體系。

▲阿爾特曼接受採訪(圖源:ABC)

在過去的幾年中,阿爾特曼常常以支持AI監管的形象示人,在本次採訪中,他說到:“我個人可能每隔幾天就會和政府裡的某個人交談一次。”

不過,在面臨歐洲和美國加州地方政府的實際監管政策時,阿爾特曼卻選擇反對。OpenAI的強力競爭對手Anthropic一開始雖然反對加州AI安全法案的初稿,但積極參與了修訂工作,OpenAI並未提出具體修改意見。

奧普拉還質問阿爾特曼,他作爲OpenAI的“頭目”(ringleader),之前曾被董事會以不信任爲由開除,人們爲什麼要繼續相信他?阿爾特曼迴避了這個問題,他只提到其公司正在努力逐漸建立信任。

阿爾特曼曾在多個場合提到,人們不應該相信他或者任何一個人能確保AI造福世界。不過,他不同意有些人稱他爲“世界上最有權勢和最危險的人”,他稱自己有機會和責任推動AI朝着對人類有利的方向發展。

三、深度僞造技術風險激增,青少年成侵害對象

在節目中,奧普拉和MKBHD談論了深度僞造的話題。

爲了證明合成內容的可信度,MKBHD將OpenAI的視頻生成模型Sora的樣本片段與幾個月前AI系統生成的片段進行了比較。Sora的視頻效果遙遙領先,這表明該領域的進步非常迅速。MKBHD還現場利用語音合成器生成了一段自己繞口令的音頻。

▲YouTube科技博主MKBHD現場演示深度僞造技術(圖源:ABC)

奧普拉對這項技術感到擔憂,但MKBHD認爲就像之前的種種技術那樣,在開始階段總是會存在混亂,但人類最終總是能解決問題。

來自美國人道技術中心的崔斯坦·哈里斯(Tristan Harris)和阿扎·拉斯金(Aza Raskin)在節目中強調了“超級智能帶來的全新風險”。然而,過去已有AI界人士批評,過分強調遙遠的“超級智能”,可能會導致社會忽視近期的AI風險,如AI的環境影響。

美國FBI現任局長雷伊談到AI詐騙日益盛行的情況。美國網絡安全公司ESET的數據顯示,2022年至2023年間,性勒索案件增加了178%,部分原因是AI技術。

雷伊說:“有人冒充同齡人瞄準青少年羣體,然後使用(AI生成的)的圖片說服孩子發送真實照片作爲回報。一旦他們拿到這些照片,就將其用來威脅孩子們。”雷伊還談到了美國總統大選的虛假信息。他認爲“現在還不是恐慌的時候”,但強調了每個人都有責任加強對AI使用的關注和謹慎。

四、蓋茨看好AI教育、醫療應用,但偏見與濫用頻發

奧普拉還採訪了微軟聯合創始人比爾·蓋茨(Bill Gates),他認爲10年內AI會極大地改變教育和醫療領域。

蓋茨說:“AI就像是坐在就診現場的第三人,記錄診斷結果,並提出處方建議。醫生不需要再面對電腦屏幕,而是可以與患者互動,讓軟件確保診斷結果得到完整記錄。”

▲蓋茨在節目中談論AI與醫療和教育(圖源:ABC)

然而,由於醫療、醫藥領域的樣本通常爲白人男性,用這些數據來訓練AI可能造成偏見。2023年發佈在學術期刊《自然》子刊上的一項研究表明,AI系統在某些情況下降低了手術的效果,特別是在涉及少數族裔的手術中。

在教育領域,蓋茨認爲AI可以在課堂上“隨時待命”並且給任何水平的孩子提供激勵,但實際上許多教室裡的情況並非如此。

英國安全互聯網中心的調查顯示,超過一半的孩子稱曾看到同齡人以不當方式使用生成式AI,如創建看起來可信的虛假信息或冒犯性的圖像。

聯合國教科文組織(UNESCO)去年底曾敦促各國政府規範生成式AI在教育領域的使用,包括對用戶實施年齡限制以及對數據保護和用戶隱私設置限制。

五、節目安排引發軒然大波,網友質疑奧普拉“拉偏架”

其實,在這檔特別節目發佈之前,就有不少網友和批評家對其嘉賓安排和內容提出質疑。

部分網友認爲,在AI界阿爾特曼等人顯然算不上最權威的專家。OpenAI前首席科學家伊爾亞·蘇茨克維(Ilya Sutskever)可能更瞭解AI,而OpenAI的強力競爭對手Anthropic的創始人達里奧·阿莫蒂(Dario Amodei)也應該被邀請,以體現對AI不同的看法。

▲網友吐槽奧普拉AI特別節目的嘉賓人選(圖源:X平臺)

起訴Stability AI和Runway AI等公司、並讓Runway AI於不久前“刪庫跑路”的藝術家卡拉·奧爾蒂斯(Karla Ortiz)認爲,這檔節目應該找一些“真正的專家”來參與討論。

她還進一步分析道,這檔節目或許將會是許多人第一次獲得與生成式AI相關的信息,然而參與這檔節目的人大多是既得利益者,他們忽視了生成式AI對大衆造成的現實影響。她的系列帖子獲得了大量閱讀和點贊。

▲卡拉·奧爾蒂斯批評奧普拉的節目嘉賓選擇(圖源:X平臺)

前《洛杉磯時報》科技專欄作家布萊恩·莫欽特(Brian Merchant)在X平臺上將這場節目稱之爲生成式AI行業困局中的一次“銷售宣傳”。

結語:批評聲浪減退但影響持續,或成部分觀衆“AI第一課”

這檔節目在發佈後繼續在社交媒體平臺上引發討論,反對的聲浪並未如播出前般巨大。有部分網友認爲,這檔節目其實是在面向“祖父母輩”羣體介紹AI,並不是十分深刻。但也有網友認爲這正是非技術人員所需要的內容。

▲Reddit論壇上的相關討論(圖源:Reddit)

相對較少的討論並不意味着這檔節目的影響力有限。奧普拉的觀衆羣體龐大,但可能並不是社交媒體的用戶,他們十分願意相信奧普拉和她的節目中其他嘉賓的觀點。

通觀這檔45分鐘的節目,奧普拉似乎將重點放在了AI安全問題上,卻又沒有進行深入且實際的探討,並呈現來自不同方面的觀點。不論這些觀點是否正確,偏頗與否,似乎已經成爲了部分觀衆的AI第一課。