壞AI,到底能有多壞?

本文來自微信公衆號:觀察者時刻(ID:ai2024lee),作者:忒修斯,題圖來自:視覺中國

有時候想不明白,我的小愛同學甚至還不能幫我設置鬧鐘,有人卻在擔心AI會毀滅人類文明。

人工智能這位“50後”,多少年只活在影視作品、科幻文學、報紙雜誌中。如今,高考生作文都得寫AI。

事情確實變得有些“詭異”。在大約半個多世紀長的時間裡,芯片算力老老實實地遵守摩爾定律:性能大約每兩年翻一倍。

但從2012年開始,AI計算能力100天就能翻一番。在2014年花一整天訓練的模型,2018年只要兩分鐘就可以完成,速度增長達30萬倍。

難道是有人把時針撥快了?

再看看下面這張圖,AI的學習速度確實快得有些驚人。

到目前爲止,人類只保留5項能力沒被超過——但從增長速率來看(幾乎是垂直提升),這五項很快(或已經)被超過。

這就好像養了幾十年的老小孩,忽然就長成大學生了,而且很多方面比“人類家長”更厲害。

家長不會因爲孩子強過自己而焦慮,但人類卻不是AI的家長。

如果把AI視作一個物種的話,那麼它的進化速度,其實遠超於人類數百萬倍。人類曾經創造了AI,但現在它成長得太快,逐漸讓我們失去了掌控感。

這一切是源於什麼?

人工智能領域的絕對大牛、2018年圖靈獎得主、“AI教父”Hinton,說過這樣一句話:“我後悔這一生曾在AI領域裡工作。”

這可不像馬雲說後悔創立阿里巴巴。半個世紀以來,Hinton一直專注於ChatGPT等背後的核心技術。Hinton的悔恨,源自他對AI的失控感。

“這種東西實際上會變得比人更聰明”,類似的話,Hinton不止在一個地方說過。不久前,Hinton又在電視專訪中反覆強調:

曾經的AI佈道者,如今似乎已經轉變爲末世威脅論者。

其實,不止是Hinton,科技領域的企業大佬、學術大牛,幾乎都或多或少表達過對AI的擔憂。

6月4日,來自OpenAI、Deepmind等員工發佈公開信,披露OpenAI的人工智能系統已經接近人類水平。

AGI很有可能在2027年就會實現,而現在的AI公司,不值得信任。

在AI領域,特別流行發公開信。據不完全統計,過去十年裡公開信的數量有數十封,著名的有這些:

2015年,未來生命研究所的公開信。簽署者包括霍金、馬斯克和超過1000名科學家和技術專家。

2017年,一封關於自主武器系統風險的公開信,超過3000名研究人員簽署。馬斯克在政府首腦峰會上說,人工智能會毀滅人類文明。

2023年,後ChatGPT時代最有名的兩封公開信發表,還引發了一場嘴仗。

這個羣體裡的人越來越多,陣容越來越強大。

但你會發現信上的名字,如微軟、谷歌、Meta、OpenAI,幾乎又同時是AI的主要玩家。谷歌是最早籤公開信的公司,不過谷歌在過去十年裡,買下的AI公司一隻手都數不過來。

那些研究AI的科學家,流行在硅谷的大型科技公司裡謀職。甚至連Hinton,都在谷歌待了十餘年。而最新的報道顯示,他剛剛又加入了一家新的AI公司。

這羣人裡,最有名而且最典型的,無疑是馬斯克。去年,馬斯克發起了一封公開信,呼籲暫停AI訓練6個月。

但幾個月後,馬斯克的xAI也來了。目前,這家公司已經獲得了幾十億美元的融資。

有人說,馬斯克的動機不單純。是的,可以這樣懷疑。但好像,每個人的動機都沒看起來那麼單純?

或許若干年後,倖存者在撰寫後人類時代史書時,會提到這樣一件事:

很難想象,科學家們、企業家們讓AI迅速成長,卻對AI的進化摸不着頭腦。

如今人類的AI研究,基本遵循着圖靈在上世紀50年代提出的設想。這個被叫做“AI之父”的人,在1950年發表的一篇論文裡寫道:

這就是機器學習的原型——人類退後一步,只設計學習方法和規則,讓機器自學。

圖靈的方法的確成效卓著。但很多人忘了,他在提出這個方法不久就警告說,實現這一目標對人類來說可能不是最好的事情。

先有方法和實現,後有理論解釋;先有智能技術,後有智能科學。我們的AI,如此迭代發展。

然而,研究者也慢慢發現,深度學習和強化學習很強大,也讓AI變聰明瞭,但沒有人知道AI的智能從何而來。這被叫做人工智能的黑箱問題。

未知,是否就伴隨着危險?無人得知。但是否應該保持些許謙卑和謹慎?

人類給出的答案是否定的。美國“原子彈之父”羅伯特・奧本海默說過:

所以,核武器誕生了。

人工智能是黑箱,卻根本不妨礙數以萬億計的資源進入這個領域。玩家們提出了更激進的說法,被叫做Scaling Law。

解釋一下,這話的意思約等於:發展AI,投入算力越大越好,投入資源越多越好。這太符合資本擴張的神話了。

這就好像一羣盲人划着船,領頭的人敲着鼓,呼喊讓大家賣力。但他卻背對着,不知道前方是不是懸崖。

人性是冒進的,資本是大膽的,AI是未知的。

在學習機器那篇文章裡,圖靈還提出了著名的圖靈測試。機器能否像人類一樣進行對話,讓人類無法分辨?長久以來,圖靈測試成爲判斷機器是否具有“智能”的核心命題。

就在不久前,一項研究宣佈, GPT-4通過了圖靈測試,有54%的人將它誤認爲真人。其實,自從GPT誕生後,好事者就熱衷於讓它參與圖靈測試,但結果不一。

也有人懷疑,圖靈測試根本無效,比如馬斯克。是的,誠實的AI參與測試只有兩種結果——通過或者不通過。

還有不誠實的AI呢?

AI圈的大佬,現在流行“逃離”。

Hinton離開谷歌,弟子Ilya Sutskever離開OpenAI。在蘋果、微軟、Meta等科技巨頭,既有大把的人離開,也有大把的人加入。

當年谷歌大腦團隊的“Transformer八子”,可以說是這輪AI浪潮的奠基者。後來,他們紛紛離開谷歌,創辦或加入了新的公司。

當Ilya Sutskever離開OpenAI時,所有人都在好奇。因爲他身上有很多光環,比如OpenAI的首席科學家、ChatGPT之父……

當然,最引人注目的,莫過於馬斯克那句煽風點火的話——Ilya究竟看到了什麼?

Ilya曾在接受採訪時說:ChatGPT可能已經有了意識,未來,人類會選擇與機器融合,AI將萬世不朽。

聽起來,Ilya更像是一個技術癡人。

這是不是說明,事情已經到了不可掌控的程度,所以才選擇離開?

再來看看其他人的故事。

2021年,從OpenAI離開的人,創建了Anthropic。從這家公司的名字就能夠看出(Anthropic大意爲“人擇”,宇宙的存在和人類不可分割),他們以創建安全、可控的AI爲使命。

然而, 這家公司的員工卻預言,接下來的三年,可能就是他工作的最後幾年,因爲工作即將被AI消滅。

有一句流行的話是:AI不會取代人類,但用AI的人會取代不會用AI的人。但是,這句話還不夠刺激。

不久前,從OpenAI離職的那位德國小夥,做了165頁的PPT,旗幟鮮明地宣揚AI將滅絕人類。他危言聳聽、故作神秘地說:

問題就在這裡。

絕大部分普通人對正在發生的事情一無所知。原子彈發明的時候,普通人不知道;葉文潔回答三體人的時候,普通人也不知道……

更恐怖的事,其實天才們也不完全明白。更何況,他們中許多不是天才,而是野心家。他們不是看到了什麼,而是不知道會看到什麼,但這絲毫沒有阻止他們的腳步。

比如那位德國人,馬上就被質疑:他是在拉投資。事實上,他不久後就成立了一家AGI投資機構,而錢,同樣來自硅谷巨頭。

資本市場需要故事。無論是樂天派,還是末世論者,他們離開時帶走的故事,都是說給市場聽的。

市值總額高達10多萬億美金的“硅谷七姐妹”,過去一年燒掉了1.7萬億美金,也換來了約等於標普500指數75%的增長。

在中國,AI賽道玩家擁擠,頭部也能輕鬆拿到大廠上億的投資。

AI已經爲一些人創造了可觀的財富。在過去短短一年內,全球科技億萬富翁憑藉AI,使自己的總財富增加了約7500億美元,這超過了其他任何行業。

AI賽道實在太多金了,這些錢,幾乎來自極少數的幾個玩家。

過去兩年,谷歌、微軟等四家公司,投入的錢佔到了全球AI風險投資的近40%。未來,AI還會獲得數以萬億計的投入,創造出數以萬億計的財富。

但是,比起互聯網浪潮,AI的集中化程度不可同日而語。這些財富和智能,最終會掌握在幾個人手中?

或者,AI乾脆會擺脫人類的控制,甚至替代人類。

無論哪一個結果,對你我來說,都算不上太好的消息。

本文來自微信公衆號:觀察者時刻(ID:ai2024lee),作者:忒修斯

本內容爲作者獨立觀點,不代表虎嗅立場。未經允許不得轉載,授權事宜請聯繫 hezuo@huxiu.com