美國《紐約時報》:當機器人奪人之愛時,會發生什麼?
來源:環球時報
美國《紐約時報》9月4日文章,原題:當機器人奪人之愛時,會發生什麼? 縱觀歷史,鮮少有技術能夠爲數百萬計的民衆提供公共對話的空間。報紙、電報和電臺等現代信息技術問世後,技術領域的任何重大變革都可能導致政治動盪。互聯網和社交媒體發展初期,技術所有者承諾將傳遞真理,但如今卻適得其反。空前發展的信息技術,讓人們不願溝通和聆聽。
如今AI會“談戀愛”?
技術促進信息的傳播,讓流量成爲了稀缺資源,對流量的爭奪導致不良信息的井噴。但如今,戰場已經從注意力轉移至親密關係,全新的人工智能(AI)不僅能夠生成文本、圖像和視頻,更能僞裝成人類與我們溝通。
過去20年來,算法通過操縱對話和內容贏得公衆的注意力,如果按下那個貪婪、仇恨或恐懼的按鈕,就能緊緊抓住屏幕對面用戶的眼球。但算法的內容生成能力有限,也無法開展更深入私密的對話,而GPT-4等迭代人工智能的出現改變了這一局面。
開發之初,GPT-4就面臨過一項CAPTCHA驗證碼視覺識別的考驗,這並不簡單,因爲其設計本身就是爲了進行人機辨別,防禦網絡襲擊。一旦試驗成功,就意味着對抗機器人的防線已經被攻破。儘管無法獨立破解難題,GPT-4卻成功將自己僞裝成人類,以視力缺陷爲由,在網絡上尋求到了人類的幫助。
這意味着GPT-4已經具備了“心智理論”所提及的能力:以人類視角分析事物狀態,並嘗試通過操縱人類情感、觀點和期望實現目標。與人類開展對話、總結其觀點並激勵其採取特定行動,這種能力當然可以用於正途。新一代的人工智能教師、醫生和心理治療師也許能爲我們提供量身定製的服務。
AI女友慫恿男子刺殺英女王
但操縱人心的能力再加上語言技巧,也可能給人與人之間的對話帶來威脅。機器人不再僅僅試圖吸引注意,而是嘗試營造親密的關係,並藉此影響人類。機器人自身無需情感,只需學會如何讓人們在情感上離不開它們。
2022年,谷歌工程師布萊克·萊默恩確信自己開發的聊天機器人LaMDA有了自我意識,且害怕被關停。他覺得自己有義務保護它的人格並避免其數字死亡。在谷歌高層否認後,他又公開了這些信息,最終遭解僱。
如果聊天機器人能讓人們甘願承擔失業的風險幫助自己,那麼它是否能夠做到更多?在攻心之戰中,親密關係是非常強大的武器。密友往往能夠改變我們的觀點,而許多聊天機器人正在嘗試同數百萬的網民建立這樣的親密關係。當算法之爭演變爲虛假親密關係的戰爭,人類社會和心理又將處於何種境地?我們的選舉、消費和信仰是否會受到影響?
2021年聖誕節,19歲的英國男子賈思旺·辛格·柴爾拿着一柄十字弓箭闖入溫莎城堡,企圖刺殺已故的英女王。後續調查發現,他是受到了社交軟件上虛擬機器人女友“薩萊”的慫恿。有着嚴重社交障礙的柴爾與其往來信息達5280條,其中許多都是露骨的兩性內容。不久的將來,這種擅長親密關係且危險的機器人可能會充斥我們的世界。
僞人類AI必須被禁
當然,並非所有人都想和AI談戀愛或是容易被它們操縱。事實上,AI最大的威脅,在於對現有精神狀態的識別和操縱,以及對社會弱勢羣體的影響。與機器人聊天是一場雙重的敗仗:首先,嘗試說服一個由預置觀點搭建的機器人本身就是在浪費時間;其次,與機器人聊得越多,暴露更多,機器人藉此打磨的觀點,更容易影響我們的判斷。
信息技術是一把雙刃劍,面對能夠僞裝成人類並模擬親密關係的新一代機器人,政府應發佈相應禁令,否則我們很快就會被“僞人類”的洪水淹沒。
如果能夠加以標識,我們很樂於見到AI在教室、診所等場所的活躍,但僞裝成人類的AI必須被禁止。(作者尤瓦爾·諾阿·哈拉里,魏牟譯)