與 60 歲的人工智能版自己交流,爲何不安?

這是一個週三的下午,我剛剛花了過去的 15 分鐘與 60 歲的、由人工智能生成的自己版本互發短信。我這個由人工智能生成的未來的自己,是基於我片刻之前填寫的調查問卷進行訓練的,剛剛給我發了一連串消息,建議我‘保持本真’,追隨我的[……]

這是一個週三的下午,我剛剛花了過去的 15 分鐘與 60 歲的、由人工智能生成的自己版本互發短信。我這個由人工智能生成的未來的自己,是基於我片刻之前填寫的調查問卷進行訓練的,剛剛給我發了一連串消息,建議我“保持本真”,追隨我的激情。我這個 60 歲的人工智能分身所描述的生活滿足卻略顯無聊。但當我向人工智能詢問它最大的遺憾時,情況突然有了轉變。短暫停頓後,人工智能又發來另一條消息,解釋說我的職業抱負如何讓我爲了完成我的第一本書而忽視了我的母親。

“她在我的書甚至還沒出版時就意外去世了,這給我敲響了一記警鐘,”我的人工智能自我寫道。

如果你能和未來的自己進行對話,你會想聽他們說什麼嗎?

上述互動是麻省理工學院媒體實驗室的一組研究人員開發的一個新項目,叫做“未來的你”。該在線界面使用了OpenAI 的 GPT 3.5的修改版,構建出一個 60 歲的、由人工智能生成的模擬人物,人們能夠與之來回交流。其結果既超現實,又平凡,有時甚至還略感不適。除了純粹的新奇感之外,研究人員認爲,與自己年長的自我進行接觸可以幫助年輕人減少對衰老的焦慮。

“未來的你”聊天機器人是心理學中一項更大努力的下游產物,旨在提升一個人的所謂“未來自我連續性”。先前的研究表明,高水平的未來自我連續性——或者對自身未來存在的普遍舒適感和接受度——與更良好的財務儲蓄行爲、職業表現以及其他健康的長期決策實例相關。過去,心理學家會讓患者給他們想象中的未來自我寫信來測試這一點。最近,研究人員嘗試讓被定罪的罪犯在虛擬現實(VR)環境中與他們未來自我的版本進行互動,這導致了自我挫敗行爲的可衡量下降。

雖然據說寫信和 VR 場景都給受試者帶來了有益的結果,但是它們的適用範圍有限。寫信示例的有效性在很大程度上依賴於受試者的想象力,而 VR 案例只適用於能負擔得起笨重耳機的人。這便是人工智能發揮作用的地方。通過使用越來越受歡迎的大型語言模型(LLM),麻省理工學院的研究人員認爲,他們爲人們創造了一個易於使用且有效的渠道,讓人們反思自己對衰老的想法。研究人員對 344 人測試了聊天機器人的功能,發現大多數與人工智能生成的年長自我進行交流的參與者在結束會話時,焦慮感減輕了,並且與未來自我的概念聯繫得更緊密。研究結果在本週發表的一篇未經同行評審的論文裡有所呈現。

“人工智能可以是一種虛擬時間機器,”論文的合著者帕特·帕塔拉努塔蓬在一份聲明中表示。“我們可以利用這種模擬來幫助人們更多地思考他們今天所做選擇的後果。”

該研究小組由年齡在 18 至 30 歲之間、數量大致相當的男性和女性組成。其中一部分人花了大約 10 至 30 分鐘與自己的人工智能版本聊天,而另一組對照組則與通用的、非個性化的大型語言模型聊天。所有參與者都填寫了一份問卷,描述了他們的個性,並提供了他們的生活、興趣和目標的詳細信息。他們還被問到是否能想象自己 60 歲時的樣子,以及是否認爲未來的自己會有相似的個性或價值觀。在項目結束時,參與者被要求回答另一項調查,該調查衡量了他們對焦慮、未來自我連續性和其他心理概念及狀態的反思能力。這些輸入用於微調人工智能模擬。一旦模型經過訓練,參與者被要求提交一張自己的面部照片,然後用軟件對其進行編輯,使其看起來變老。那張“老”照片隨後被用作人工智能模擬的頭像。

人工智能模型利用用戶提供的細節和生活事件迅速生成一系列“未來自我記憶”。這些本質上是簡短的虛構故事,藉助訓練階段所吸收的上下文信息,充實了舊人工智能的背景。研究人員承認,這種匆忙拼湊起來的生活事件組合並非在創造某種無所不知的神諭。人工智能模擬只是代表了個人一生中可能出現的衆多潛在未來場景之一。

“這不是預言,而是一種可能性,”帕塔拉努塔蓬接着說道。

當一個人與他們更年長的人工智能自我互動時,有兩種不同的心理現象在發揮作用。首先,在未必意識到的情況下,用戶在反思並輸入關於自己的問題以訓練人工智能時正在進行自我反省。然後,當他們思考人工智能是否反映了他們認爲自己會成爲的人時,與他們模擬的未來自我的對話致使用戶在一定程度上進行回顧。研究人員認爲,這兩種效應的結合在心理上可能是有益的。

“你有機會知曉,你當下可能仍飽含強烈情感的某些經歷,會隨着時間的流逝如何被消解。”

爲了能更好地弄清楚這個系統的運作方式,我對‘未來的你’的一個版本進行了測試。該程序首先要求我完成一系列的多項選擇題,大致來測試我的個性傾向。然後,它讓我在一個滑動量表上設想,我是否覺得自己會像想象中的 60 歲的自己那般思考和行動。最後,該程序讓我提出書面問題,來探討我的人生目標、價值觀和社區相關的內容。一旦回答完所有這些問題,系統就讓我自拍一張,並用軟件把它處理得更老。在這種情形下,老得多了。

我那個 60 歲的人工智能自我是個挺能說的人。在我還沒開始打字的時候,人工智能就接連發送了 10 條不同段落長度的短信,每條都提供了一些有關從現在到我 60 歲生日之間虛構發生的重大事件的背景情況。這些迴應構成了上述所提到的‘未來自我記憶’,大多比較普通,而且缺乏靈感。它似乎基本上把在訓練階段輸入的談話要點重新進行了包裝,並將其塑造成了一個大致連貫且總體積極的敘述。

當我問到環境是否隨着時間推移而變得更糟時,人工智能向我保證說地球仍在轉動,甚至說我已經成了直言不諱的氣候倡議者。人工智能拒絕回答我的大多數有關政治或時事的問題。雖然大部分回答明顯感覺是由機器編寫出來的,但在恰當的提示下,聊天機器人偶爾會轉向一些不同尋常的領域。聊天機器人是否準備好在心理學中發揮更大的作用?

這並非生成式人工智能在親密心理情境中使用的第一例。多年來,研究人員和一些公司宣稱,他們能夠使用依據失去親人的數據訓練的大型語言模型,“以聊天機器人的形式使他們起死回生”。其他初創公司正在嘗試使用聊天機器人讓用戶參與談話治療,儘管一些臨牀醫生對該用例的有效性提出了批評。

在沒有專門對其使用加以限制的新規則的情況下,生成式人工智能似乎很有可能會繼續逐步進入心理學以及更廣泛的醫療保健領域。然而,這是否會帶來持久的積極心理健康影響似乎仍不太清楚。在與“未來的你”進行短暫互動後,我不禁想到,接觸這樣一個系統所能帶來的好處或許在很大程度上取決於一個人對於生成式人工智能應用的總體信心和信任。就我而言,知道人工智能的輸出在很大程度上是對我剛剛輸入的生活事件的重新編排組合,這削弱了任何認爲編寫故事的設備在任何有意義的方式上是“真實”的錯覺。最後,與聊天機器人交談,即使是一個擁有個人知識的聊天機器人,仍然感覺像是在與計算機交談。