AI失控的賽局
(圖/達志影像)
去年年底,ChatGPT橫空出世,受到的關注浪潮,重新點燃了科技公司之間開發和部署類似AI工具的軍備競賽。OpenAI、微軟和谷歌處於這一趨勢的浪頭,但IBM、亞馬遜、大陸的百度和騰訊也在開發類似的技術,一串的新創也在開發各種使用生成式AI的工具。
一些人工智慧專家越來越擔心AI工具所產生的偏見、傳播虛假資訊以及對消費者隱私的影響,這些工具也引發了關於AI如何消滅工作、幫助學生作弊以及改變我們與科技的關係等問題。因此最近由一些科技界知名的人士領頭(包括蘋果電腦創辦人之一沃茲尼亞克和特斯拉創辦人馬斯克)發表一封公開信,懇請所有人工智慧實驗室暫停至少6個月對AI訓練的工作,因爲AI會對社會和人類帶來「深遠的風險」。
公開信警告說人工智慧正在「陷入一場失控的競賽,部署越來越強大的數位智慧,沒人能夠理解、預測或可靠地控制。」這封信發表的時間距離OpenAI宣佈一個更強大的GPT-4版本僅有兩週,這個版本比ChatGPT更厲害,嚇壞了教師、記者以及任何依靠建立和/或驗證內容的人。
「先進的人工智慧可能代表了地球生命史上的深刻變革,應該以相對應的謹慎和資源來進行規畫和管理。」信中寫道。不幸的是,這種相對應程度的規畫和管理並沒有發生。
信中建議AI實驗室和獨立專家,應利用這個暫停期間共同開發和實施一套共用的高級AI設計和開發安全協議,由獨立的外部專家進行嚴格的審覈和監督。這並不意味着對AI開發的總體暫停,僅僅是從危險的競賽中退一步,這些競賽導致越來越大的不可預測的黑盒子——AI模型具有難以掌控的新能力。
這封信既反映了業界對近期AI大規模推向市場的真正擔憂,也帶有一點新派盧德主義( 搗毀科技設備或棄之不用,提倡簡樸的生活)的恐慌。此外,一點點恐慌能夠吸引那些對AI產生懷疑的媒體注意力。
也有科學家對此表示荒謬,雖然這封信表達了合理的擔憂,但要求研究人員暫停工作可能只是爲了幫助署名的某些人保持在AI領域的主導地位。企業的野心和主宰慾望往往戰勝了道德問題,如果這些署名的組織正在測試比ChatGPT或谷歌的Bard更先進的東西,大家也不用感到驚訝。
過去對人類可能產生災難性影響的技術必須暫停使用,這些例子包括人類的複製、人類生殖細胞的基因修改和優生學等等,AI是否屬於同一等級?而且6個月之後呢? (作者爲叡揚資訊數位轉型大使、臺北商大前校長)