蘋果研究人員:人工智能多爲虛幻的假象

蘋果電腦公司的研究人員經測試發現了證據,表明基於人工智能的大型語言模型給出的看似智能的迴應實則不過是一種錯覺。在他們發表於 arXiv 預印本服務器上的論文裡,研究人員認爲,在測試了幾個大型語言模型後,他們發現這些模型無法進行真正的邏輯推理。

在這次新的嘗試中,蘋果團隊通過假定答案在於智能生物或機器能否理解簡單情形中存在的細微差別(這需要邏輯推理)來解決此問題。

其中一個細微之處在於能夠區分相關信息和不相關信息。例如,如果一個孩子問父母一個袋子裡有多少個蘋果,同時還提到有幾個太小不能吃,孩子和父母都明白蘋果的大小與它們的數量無關。這是因爲他們都具有邏輯推理能力。

在這項新研究中,研究人員通過間接要求它們忽略不相關的信息,來測試幾個大型語言模型真正理解所提問題內容的能力。

他們的測試是向多個大型語言模型提出數百個此前曾用於測試大型語言模型能力的問題——但研究人員還加入了一些不相關的信息。他們發現,這足以讓大型語言模型感到困惑,從而對之前正確回答的問題給出錯誤甚至荒謬的答案。

研究人員認爲,這表明大型語言模型其實並不真正理解所被問到的內容。相反,它們識別句子的結構,然後依據通過機器學習算法所學到的內容給出答案。

他們還指出,他們所測試的大多數大型語言模型常常給出看似正確的答案,但經進一步審查後卻發現並非如此,例如當被問及對某事的“感受”時,得到的回答表明人工智能自認爲能夠有這樣的行爲。