剖析生醫產業導入生成式AI的機會與風險:該如何做好準備?

左起:勤業衆信風險諮詢服務資深執行副總經理陳威棋、賽諾菲香港臺灣公共事務企業溝通暨健保事務處長蔡德揚、德勤商務法律事務所合夥律師熊誦梅、臺灣人工智慧發展學會理事長暨輔大副校長謝邦昌、勤業衆信生技醫療產業負責人虞成全、工業技術研究院產科國際所副所長張慈映、勤業衆信醫療照護產業負責人林彥良; 攝影:北美智權報/李淑蓮

※如欲轉載本文,請與北美智權報聯絡

李淑蓮╱北美智權報 編輯部

AI + 生醫,1+1是不是一定會大於2? 這是一個值得探討的問題。勤業衆信聯合會計師事務所與環球生技於7月初舉辦了「AI浪潮席捲生醫:策略佈局實務與指南」論壇,邀集產業領袖與調研機構分享善用AI應對新局之道,併發布《透過AI與GenAI實現生命科技產業的轉型價值》報告[1]。報告指出,生成式AI在過去一年半的時間,協助企業拓展了AI的價值範疇。爲確保能成功推動大規模的AI轉型計劃,企業必須於組織內進行「心態、領導型態、投資態度、企業文化及運作模式」5大關鍵改革,以運用AI助攻企業全方位推升價值。論壇講者剖析了生醫產業導入生成式AI的機會與風險,並對企業該做的準備提出建言。

AI爲推動生醫產業轉型的重要關鍵之一

臺灣人工智慧發展學會理事長暨輔大副校長謝邦昌在致詞時表示,近年來,AI技術迅速發展並廣泛應用於新藥開發、診斷、醫療流程管理及保險理賠分析等領域。全球AI生命科學市場規模推估在2023至2032年的年複合成長率達19.9%;而AI醫療照護市場於2022至2030年的年複合成長率更高達37%,充分顯示出AI在生醫產業中的巨大潛力。此局面不僅激勵了業界對AI技術的信心,更需透過各領域專家間的討論與分享,推動整體產業邁向更爲穩健與成功的數位轉型之路。

勤業衆信生技醫療產業負責人虞成全則指出,「生醫產業此刻正迎來重要轉捩點,而AI與生成式AI即是關鍵」。虞成全表示,勤業衆信研究發現,平均營收650~750億美元之全球TOP 10大型國際藥廠/生醫公司,在五年內擴大應用AI,將有機會創造出50至70億美元的最大價值(peak value);其中,近九成價值來自將AI應用在「研發、製造與供應鏈、商業活動」三大功能部門。不只國際大藥廠,科技公司、AI新創、醫療院所等都加入了AI智慧醫療生態系中,因此,組織如何實現AI數位革命帶來的潛在價值,並有效管理相應的風險,顯得格外重要。

「信任」爲生成式AI在生醫領域推動成功的關鍵 法律能提供保障?

在AI 、以及生成式AI呈爆發性成長的今天,如何有效規範成爲衆業者及使用者最關心的議題。德勤商務法律事務所合夥律師熊誦梅表示,歐盟理事會於2024年5月21日正式通過AI法案(EU AI Act, AIA),預計是全球的主要經濟體中,第一個具法律拘束力的跨行業、跨地域AI框架,部分規定預計今年即可生效。AIA以採取風險導向的監管設計(Risk-Based Approach),將市面上的AI區分爲「不可接受風險、高風險、有限風險、最低風險」,分別課予不同的監管義務;並以AI用途的廣泛程度,畫分單一用途AI與通用用途AI(GPAI),且對於後者有着更嚴格的要求,提醒企業須注意在快速變化的科技環境中,妥善運用智慧財產管理制度以避免法律風險。

不過,熊誦梅認爲,在任何產業發展之初,法規可以慢慢來,讓產業可以先自行摸索、成形,待水到渠成的時候,自然會知道什麼該管、什麼不該管。

另一方面,勤業衆信風險諮詢服務資深執行副總經理陳威棋指出,生成式AI正爲生醫產業帶來變革性的創新,從新藥開發、醫學影像分析、診斷輔助、個人化精準診斷和智慧醫院等應用,期望可改善醫療體驗,提高醫療品質並降低醫療成本。然而,「信任」是生成式AI在生醫領域推動成功的關鍵要求。針對生成式AI應用在面臨風險及各國瞬息萬變的監管環境下,企業如何確保在導入生成式AI時兼顧創新與責任至關重要,並提醒應遵循風險爲導向的原則,建立全面AI風險治理框架,以打造可信賴的永續發展AI產業生態系。

陳威棋強調,資料治理及管理人才及風險方面的管控,是未來生醫醫療產業在推動生成式AI的時候,最主要的一個考量方向。導入生成式AI對企業而言是一種變革,在整個變革的過程中,要如何保有一個穩健的治理機制,是全球目前在建立法規時最在意的議題。因爲生成式AI不是一個產品、不是一種技術、也不是一個算力的問題,它是整個管理的議題。在導入的過程中,組織(政府單位、企業、學研單位)是需要做很多準備的。

圖片來源:《透過AI與GenAI實現生命科技產業的轉型價值》報告;2024勤業衆信

風險誰來控管?

就帳面上而言,生醫產業引入AI是利多的,像是有助新藥開發時間縮短、製程效率的提升等等;但在利多的背後,風險要由誰來控制?陳威棋提出了顯而易見的6大風險,包括:

(1) 偏見風險:在一些相關臨牀的實驗裡面使用到的一些資料數據,由於本身可能不是很完備,便可能會對特定的一些族羣或特定的類型,產生偏見或歧視的現象。如此一來,會不會導致我們的模型、一些智慧醫療的醫材或設備有誤診的情況?

(2) 黑箱的決策:由於模型太複雜了,現在談的所謂一些厲害的大型模型,雖然很多闡述,但到底他最後結果怎麼出來,其實是大家沒辦法解釋的。假設病患詢問:「到底爲什麼結果是這樣子?」,如果沒有辦法把黑盒子打開,也無法得知答案。

(3) 集中委外風險:很多一些頂端的平臺,很多相關的人工智慧醫材解決方案,有太多技術集中的風險。假設這個主要平臺出現問題,即會影響整個醫療產業。

(4) 隱私保護的問題:患者的病歷、疾病的診斷或治療方式,都應該進行相關的保護措施。假設有不當的使用或外泄,會影響到病患的權益。

(5) 責任歸屬的不確定性:在法律的議題裡面,這是蠻大的重點。假設未來我們很信任一個相關的人工智慧系統作出了一個決策判斷,但結果卻導致我們做了錯誤的決定,那最後責任到底歸屬在那一方?

(6) 監管的困難:這一部分有蠻大的挑戰,由於AL/ML本身的複雜性,以及藥廠方出於利益及專利考量,許多資訊無法公開,造成監管困難。

現今,整體生技醫療產業面臨人工智慧監管的需求是肯定的,除了歐盟的人工智慧法案外,全球各地也有很多特別的規定。特別是在美國,像是美國食品藥物管理局(U.S. Food and Drug Administration,FDA),在最近幾年有很多針對新藥開發使用AI的一些徵詢意見,包含針對一些人工智慧智慧醫療器材的方面的要求、也有針對像是GMLP如何成爲一個良好的學習實踐的意見。

備註:

1.《透過AI與GenAI實現生命科技產業的轉型價值》報告

半導體科技雜誌(SST-Taiwan)總編輯

CompuTrade International總編輯

日本電波新聞 (Dempa Shinbun) 駐海外記者

日經亞洲電子雜誌 (臺灣版) 編輯

延伸閱讀&電子報訂閱連結:

【詳細內容請見《北美智權報》361期;歡迎訂閱《北美智權報》電子報】