Nature:人工智能科學搜索引擎如何加速你的研究

藉助人工智能工具,文獻綜述等任務可以變得更加簡單,但必須謹慎使用。圖片來源:Olena Hromova/Alamy

人工智能 (AI) 工具正在改變我們的工作方式。許多產品試圖通過幫助研究人員整理大量文獻來提高科學研究的效率。

這些科學搜索引擎基於大型語言模型 (LLM),旨在篩選現有研究論文並總結關鍵發現。人工智能公司不斷更新其模型的功能,並定期發佈新工具。

《自然》雜誌採訪了這些工具的開發者和使用這些工具的研究人員,以獲取有關如何應用這些工具的提示以及需要注意的陷阱。

有哪些可用的工具?

一些最受歡迎的基於 LLM 的工具包括 Elicit、Consensus 和 You,它們提供了多種加快文獻審查的方法。

當用戶將研究問題輸入 Elicit 時,它會返回相關論文列表及其主要發現摘要。用戶可以針對特定論文提出進一步的問題,或按期刊或研究類型進行篩選。

人工智能科學搜索引擎的數量正在激增——它們有用嗎?

Consensus 幫助研究人員瞭解某一主題的各種科學信息。用戶可以輸入諸如“氯胺酮能治療抑鬱症嗎?”之類的問題,該工具會提供一個“共識計量表”,顯示科學共識所在。研究人員可以閱讀同意、不同意或不確定假設的論文摘要。馬薩諸塞州波士頓 Consensus 的首席執行官 Eric Olson 表示,這款人工智能工具並不能取代對論文的深入研究,但它對於對研究進行高層次的掃描很有用。

加利福尼亞州帕洛阿爾託的軟件開發公司 You 表示,它是第一個將人工智能搜索與最新研究引文數據相結合的搜索引擎。該工具爲用戶提供了探索研究問題的不同方式,例如其“天才模式”以圖表形式提供答案。上個月,You 推出了一款“多人遊戲工具”,允許同事協作並共享可自動執行特定任務(例如事實覈查)的自定義人工智能聊天。

共識可以讓人們瞭解科學界對某一特定主題或問題的共識程度。圖片來源:共識

總部位於倫敦的研究分析公司科睿唯安 (Clarivate) 於 9 月發佈了人工智能研究助手,讓用戶可以快速搜索 Web of Science 數據庫。科睿唯安表示,科學家可以輸入研究問題,查看相關摘要、相關主題和引文圖,這些圖會顯示每項研究引用的論文,並幫助研究人員識別關鍵文獻。

儘管 Web of Science 上的論文都是英文的,但科睿唯安的 AI 工具也能用不同的語言總結論文摘要。科睿唯安駐倫敦的產品副總裁 Francesca Buckland 表示:“大型語言模型中嵌入的語言翻譯功能具有巨大的潛力,可以讓世界各地的科學文獻更加均衡。”

BioloGPT 是越來越多的特定主題 AI 工具之一,可以對生物學問題提供總結和深入的答案。

哪些工具適合哪些任務?

當被問及最佳的人工智能搜索引擎工具時,加拿大卡爾加里的流行病學家拉齊亞·阿利亞尼 (Razia Aliani) 說:“我總是說,這取決於你真正想做什麼。”

當她需要了解某個話題的共識或分歧意見時,Aliani 會傾向於使用“共識”一詞。

Aliani 也在系統評價公司 Covidence 工作,她在審查大型數據庫時會使用其他 AI 工具。例如,她使用 Elicit 來微調她的研究興趣。在輸入初始研究問題後,Aliani 使用 Elicit 排除不相關的論文並深入研究更相關的論文。

Aliani 表示,人工智能搜索工具不僅可以節省時間,還可以幫助“提高工作質量、激發創造力,甚至找到減輕任務壓力的方法”。

Clarivate 的 AI 工具生成引文圖,顯示每項研究引用的論文。來源:Web of Science、Clarivate

安娜·米爾斯 (Anna Mills) 在加利福尼亞州舊金山的馬林學院 (College of Marin) 教授入門寫作課程,其中包括研究過程課程。她說,向學生介紹這些工具很有吸引力,但她擔心這些工具可能會妨礙學生對學術研究的理解。相反,她熱衷於教學生人工智能搜索工具如何出錯,這樣他們就可以培養“批判性地評估這些人工智能系統給他們的東西”的技能。

BiologGPT 的創始人、科羅拉多州戈爾登市的康納·蘭姆登 (Conner Lambden) 表示:“成爲一名優秀的科學家的一部分就是對一切事物保持懷疑,包括你自己的方法。”

那麼不準確的答案和錯誤的信息怎麼辦?

人們對主要人工智能聊天機器人(如 ChatGPT)輸出的準確性表示擔憂,因爲它可以“產生幻覺”產生虛假信息並編造參考資料。

ChatGPT 通過三種方式幫助我進行學術寫作

這導致人們對科學搜索引擎產生了一些懷疑——用戶表示,研究人員應該謹慎行事。人工智能研究工具面臨的常見錯誤包括編造統計數據、歪曲引用的論文以及基於這些工具的訓練系統的偏見。

體育科學家 Alec Thomas 在使用 AI 工具時遇到的問題導致他放棄了使用這些工具。瑞士洛桑大學的 Thomas 以前很欣賞 AI 搜索工具,但在發現“一些非常嚴重的基本錯誤”後停止使用它們。例如,在研究飲食失調的人蔘加體育運動會受到怎樣的影響時,AI 工具總結了一篇它認爲相關的論文,但實際上“它與原始查詢無關”,他說。“我們不會相信一個已知會產生幻覺的人,那麼我們爲什麼要相信 AI 呢?”他說。

開發人員如何解決不準確的答案?

《自然》採訪的開發人員表示,他們已經實施了安全措施來提高準確性。加利福尼亞州奧克蘭 Elicit 公司的工程主管 James Brady 表示,公司非常重視準確性,並使用了多種安全系統來檢查答案中的錯誤。

Buckland 表示,Web of Science AI 工具具有“強大的保護措施”,可以防止包含欺詐和有問題的內容。她說,在 beta 測試期間,該團隊與大約 12,000 名研究人員合作,收集反饋意見。

人工智能聊天機器人即將登陸搜索引擎——你能相信其結果嗎?

儘管這樣的反饋可以改善用戶體驗,但 Olson 表示,這也可能會影響幻覺。人工智能搜索工具“接受過人類反饋的訓練,它們希望爲人類提供良好的答案”,Olson 說。因此“它們會填補不存在的空白”。

印第安納州印第安納波利斯的生成式人工智能研究員安德魯·霍布利澤爾 (Andrew Hoblitzell) 通過一個名爲 AI4All 的項目在大學授課,他認爲人工智能搜索工具可以支持研究過程,前提是科學家驗證生成的信息。“目前,這些工具應該以混合方式使用,而不是作爲權威來源。”

未來知識庫是“ 歐米伽未來研究所”建立的在線知識庫平臺,收藏的資料範圍包括人工智能、腦科學、互聯網、超級智能,數智大腦、能源、軍事、經濟、人類風險等等領域的前沿進展與未來趨勢。目前擁有超過8000篇重要資料。每週更新不少於100篇世界範圍最新研究資料。