Nature重磅調查:1600餘名科學家,僅4%認爲AI當前是“必需品”
過去十年,關於人工智能(AI)的研究論文數量在各個領域都有顯著增加。
科學家們已經開始運用 AI 工具來協助總結和撰寫研究論文和編寫代碼。一些研究者嘗試藉助生成式 AI 技術來探索新的領域,如蛋白質結構的發現、天氣預報的改進以及醫學診斷的創新等各種有前景的領域。
AI 已然滲透到科學研究中。那麼,科學家們是如何看待它們的?
近日,頂級期刊《自然》(Nature)對全球 1600 多名研究人員進行了一項調查。結果表明,AI 工具在科學領域越來越常見,並且許多科學家預計它們將很快成爲研究實踐的核心。另外,超過一半的受訪者認爲 AI 工具將在未來十年內變得非常重要或必不可少。
相關調查結果以“AI and science: what 1,600 researchers think”爲題,已發表在Nature上。
在這項調查中,有 2/3 的受訪者認爲 AI 提供了更快的數據處理方式,58% 的人認爲 AI 加速了以前不可行的計算,55% 的人則提到 AI 節省了時間和金錢。
來自杜克大學的計算生物學家 Irene Kaplow 表示:“AI 讓我能夠在以前難以攻克的生物學問題中取得進展。”
然而,也有 69% 的研究人員表示,AI 工具可能導致更多地依賴模式識別而不是深刻理解,58% 的人認爲 AI 可能會在數據中強化偏見或歧視,55% 認爲這些工具可能會增加欺詐的發生概率,53% 的人指出草率使用可能會導致研究無法重現。
任職康涅狄格州的傑克遜實驗室、從事癌症圖像分析的 Jeffrey Chuang 表示:“主要問題在於 AI 正在挑戰我們現有的證據和真相標準。”
科學家的擔憂與興奮
爲了評估活躍研究人員的觀點,《自然》雜誌通過電子郵件聯繫了在 2022 年最後 4 個月內發表論文的 4 萬多名科學家,並邀請《自然簡報》的讀者參與調查。
在這些受訪者中,48% 的人直接開發或研究 AI,30% 的人在研究中使用了 AI,剩下的 22% 的人在科學中沒有使用 AI。
在那些在研究中使用 AI 的人中,超過 1/4 的人認爲 AI 工具將在未來十年內變得必不可少,而認爲 AI 工具現在是“必需品”的人只佔 4%。另有 47% 的人認爲 AI 將變得非常有用。然而,不使用 AI 的研究人員對此並不太感興趣。即便如此,仍然有 9% 的人認爲這些技術將在未來十年內變得必不可少,另有 34% 的人表示它們將非常有用。
當被要求從可能的生成式 AI 負面影響列表中選擇時,68% 的研究人員擔心信息傳播不準確,另有 68% 的人認爲這將使抄襲更容易,檢測更難,66% 的人擔心會引入錯誤或不準確的內容到研究論文中。
此外,受訪者還提到,如果用於醫學診斷的 AI 工具是基於具有歷史偏見的數據進行訓練,他們擔心會出現僞造研究、虛假信息和偏見。科學家們已經看到了這方面的證據:例如,美國的一個團隊報告說,當他們要求 GPT-4 爲臨牀案例研究提供診斷和治療建議時,答案會根據患者的種族或性別而變化。
英國布裡斯托爾大學攻讀醫學 AI 博士學位的軟件工程師和前企業家 Isabella Degen 表示:“大型語言模型(LLMs)被濫用,存在不準確和虛假但聽起來專業的結果。在我看來,我們對於正確使用和濫用之間的界限認識還不夠清晰。”
研究人員認爲,最明顯的好處是 LLMs 可以幫助非英語母語的研究人員,改進他們研究論文的語法和風格,總結或翻譯其他工作。新加坡國立大學材料科學家 Kedar Hippalgaonkar 指出,“儘管存在一小部分惡意玩家,但學術界可以展示如何善用這些工具。”
即使在對 AI 感興趣的研究人員中,經常在工作中使用 LLMs 的研究人員也仍佔少數。那些學習AI 的人中有 28% 表示每天或每週使用生成式 AI 產品,而僅使用 AI 的人中有 13% 這樣做,而其他人中只有 1%,儘管許多人至少嘗試過這些工具。此外,所有羣體中最流行的用途是與研究無關的創意娛樂;較少一部分人使用這些工具來編寫代碼、構思研究思路和幫助撰寫研究論文。
另外,一些科學家對 LLMs 的輸出並不滿意。一位使用 LLMs 來幫助編輯論文的研究人員寫道:“ChatGPT 好像複製了人類的所有不良寫作習慣。”芬蘭圖爾庫大學的物理學家 Johannes Niskanen 則表示:“如果我們開始使用 AI 來閱讀和撰寫文章,科學很快就會從‘由人類爲人類(for humans by humans)’轉變爲‘由機器爲機器(‘for machines by machines)’。”
AI 發展面臨困境
在這項調查中,大約一半的科學家表示他們在開發或使用 AI 方面遇到了阻礙。直接研究 AI 的研究人員最擔心的問題包括計算資源不足、爲其工作提供的融資不足以及獲取運行 AI 所需的高質量數據不足。而那些在其他領域工作但在研究中使用 AI 的人則更擔心缺乏熟練的科學家和訓練資源,此外,他們還提到了安全和隱私方面的考慮。然而,不使用 AI 的研究人員表示他們不需要 AI 或認爲它不實用,或者缺乏研究 AI 的經驗和時間。
調查中出現的另一個主題是商業公司主導了 AI 的計算資源和 AI 工具的所有權。研究 AI 的科學家中有 23% 表示他們與開發這些工具的公司合作或在這些公司工作(其中最常提到的是谷歌和微軟),而使用 AI 的人中只有 7% 這樣做。總體而言,略多於一半的受訪者認爲,使用 AI 的研究人員與這些公司的科學家合作是非常重要或有些重要的。
此前,已有研究人員多次警告稱,科學中對 AI 工具的天真使用可能導致錯誤、虛假陽性和無法重現的研究結果,從而潛在地浪費時間和精力。一些科學家表示,他們擔心使用 AI 的論文中存在質量不佳的研究。
堪薩斯州立大學曼哈頓分校的計算機科學家 Lior Shamir 表示,“機器學習有時可能有用,但 AI 引發的問題比幫助多。科學家在不瞭解自己在做什麼的情況下使用 AI,可能會導致虛假的發現。”
當問及期刊編輯和同行評審人是否能夠充分審查使用 AI 的論文時,受訪者意見不一。在那些使用 AI 進行工作但不直接開發 AI 的科學家中,大約一半表示不知道, 1/4 認爲審查是充分的,1/4 認爲不充分。直接開發 AI 的人傾向於對編輯和審查過程持更積極的看法。
另外,《自然》還詢問了受訪者對於 AI 在社會的 7 種潛在影響的擔憂程度,2/3 的人表示他們對此非常擔憂或很擔憂。自動化 AI 武器和 AI 輔助監視也高居榜首,最不令人擔憂的是 AI 可能對人類構成生存威脅的想法。
然而,許多研究人員表示,AI 和 LLMs 已經成爲不可迴避的趨勢。波士頓馬薩諸塞州貝斯以色列聖救主醫療中心的肝病專家 Yury Popov 寫道:“AI 是具有變革性的,我們現在必須關注如何確保它帶來更多的好處,而不是問題。”