大模型催化AI手機進化,如何讓個人隱私不“裸奔”?

伴隨AI智能體“接管”手機屏幕,數據安全和隱私保護問題正變得更加複雜。尤其是當將AI“裝入”手機的兩張“技術地圖”——端側AI與雲側AI時,還涉及第三方大模型,手機終端廠商、大模型提供者和開發者等不同商業主體間的生態模式及責任邊界尚不清晰。

另有專家提出更深一層擔憂:在AI手機時代,手機廠商和App開發者將爲用戶權限展開激烈爭奪,原有的市場競爭格局將被重塑,當市場競爭由傳統的以App主導變爲以端側大模型主導,可能觸及現有《反壟斷法》和《反不正當競爭法》未曾涉及的問題。此外,面對越來越瞭解自身需求的手機智能體,用戶難免會產生智能體“自動化決策”的擔憂。

越聰明,越開放,越危險

和任何一種基於大模型的創新應用一樣,AI手機功能的實現,往往建立在“吞下”大量的個人數據的基礎上。尤其是訓練AI智能體時,需要不斷地收集、處理和分析用戶的各種信息、瀏覽習慣乃至生物特徵數據,以訓練自動化推理能力,實現自動化決策。

“所以,隱私保護是一切商業故事的起點。”近日,在一場以 “AI手機隱私危機:新秩序中的安全挑戰與抉擇”爲主題的學術研討會上,有業界人士提出。

目前AI手機主要基於三種開發路徑:基於端側AI大模型,自研AI的端雲配合以及第三方AI參與的端雲配合。

也因此,AI手機生態囊括了手機終端、第三方大模型、APP以及雲服務等參與主體。不同於傳統手機以App爲抓手的隱私保護策略,AI手機各主體間的數據安全責權關係將更加複雜,要想達成令用戶信服的數據安全解決方案,挑戰也更大。

中國法學會網絡與信息法學研究會常務副秘書長周輝在前述研討會上提到,相較於雲側AI,端側AI能夠實現數據本地處理,本地模型個性化訓練與優化,理論上能夠最大限度地減少數據傳輸,避免用戶敏感信息被上傳至雲端。如果管理到位,這是一種“更私密”的解決方案。此外,由於端側AI設備相對獨立,算法更新和優化在本地完成,用戶更易察覺和監督。

但端側大模型真的能實現“AI鎖在手機硬件裡”,讓用戶數據和隱私變得更安全嗎?

一種業界觀點認爲,由於大模型各方、用戶與端、端與應用、端與雲等風險責任有待清晰界定,目前法律制度尚待健全。

尚隱科技有限公司CEO張仁卓表示,純端側的模式能完全在本地處理用戶的數據,其安全性比較可控。但其風險是,在第三方App介入時,隱私保護的邊界往往模糊不清,也容易引發數據濫用或過度採集的問題。

北京漢華飛天信安科技有限公司總經理彭根從事手機端側研究多年,他稱,AI手機誕生後,原本爲了幫殘障人士“打破障礙”的無障礙權限正變成AI手機裡的“上帝模式”,能夠打破各個App之間的沙箱隔離機制,具有極高的權限。“便利的同時也孕育了更大的危機。”彭根說,在無障礙模式下,AI手機的隱蔽式調用可能反而造成安全和隱私風險,乃至被不法分子使用,作爲竊取用戶信息的工具。

另一個不可否認的事實是,端側AI計算能力不如雲端。有調研顯示,儘管手機廠商都宣稱自己的端側AI大模型能力,但AI手機全部功能的實現,仍將依賴雲側大模型。

“爲了實現高算力、強算法等能力,目前AI手機的主流模式依然是端雲配合,即將數據處理分散到本地與雲端。”張仁卓說。他以蘋果手機舉例稱,蘋果努力採用本地AI處理數據,但也與其私有云計算(Private Cloud Compute, PCC)緊密配合。

而當用戶數據隨模型遷移至雲端,如何強化雲端數據的安全,使之與端側保持一致,並防止數據被濫用,就成爲了數據安全和隱私保護領域的新挑戰。

此外,AI手機數據交互邊界的不斷擴大,同樣存在“硬幣的正反面”。

自誕生以來,AI手機的終端廠商就對第三方大模型報以開放合作態度。比如,榮耀、三星與百度的合作,小米接入豆包大模型,再如近一段時間以來,華爲、榮耀、OPPO等一衆國產手機廠商相繼官宣接入DeepSeek-R1。

“即便是蘋果這樣的科技巨頭,涉及第三方AI的時候,PCC的保護程度也稍顯捉襟見肘,僅能保證數據的預處理安全。雖然手機廠商們大多會宣稱保護用戶數據,但這些聲明往往缺乏具體細節,潛藏着諸多不確定性與隱患。國內廠商數據保護舉措的透明度亦不充分。”張仁卓說。

在他看來,第三方AI大模型通常需要訪問大量用戶數據,這進一步增加了數據泄露的可能性;數據在端側、雲端和第三方AI之間的流動複雜,透明度較低,責任分配也不明確,出現問題後恐怕難以追責。

“技術的監管永遠優先於法律的監管”

中國信通院互聯網法律研究中心主任何波表示,人工智能是引領這一輪科技革命和產業變革的戰略性技術,相關產業正在向多智能融合新階段發展。從目前情況來看,AI手機的發展不是完全裸奔的。

首先,現有的法律法規都適用並需要遵守。何波舉例說,《網絡安全法》《數據安全法》《個人信息保護法》明確規定了處理個人信息的要求,包括知情同意規則、最小必要原則等;今年1月1日生效的《網絡數據安全管理條例》進一步對涉及自動化工具、生成式人工智能等新興技術的數據處理活動作出了特殊規定,這些都可以作爲AI手機的監管依據。

對外經貿大學數字經濟與法律創新研究中心主任許可同樣認爲,在既有法律規制的框架之內,對AI手機的監管實際已非常多了。“儘管在某種程度上,中國互聯網發展的歷史就是不斷打破既有法律甚至在無法狀態中進行的歷史,但過去十年間,尤其是在過去五六年間,中國互聯網法律體系已經相當全面了,基本覆蓋到每個領域。”許可說。

此外,何波還提到,我國在新興領域的監管“還是非常及時的”。無論是此前的區塊鏈、算法推薦還是生成式人工智能,都在出現需求的第一時間出臺了相應的監管規則。

但由於AI手機涉及主體衆多,數據在不同主體間流動,導致各環節責任難以區分,何波亦承認,AI手機的誕生,確實給監管帶來了挑戰。

何波稱,AI手機作爲一個新應用新事物,對很多普通用戶而言目前還難以清晰認知到可能帶來的安全風險,尤其是在用戶信息被抓取和隱私權限被開啓時。此外,雖然現在的隱私政策更加細緻了,但對普通用戶而言也更加複雜難懂。

更值得警惕的是,一旦用戶開啓彭根所言的“上帝模式”——無障礙權限,儘管手機系統會進行提醒,但這些提醒通常只有一次,且警告內容模糊,用戶很難真正理解其潛在風險。當一些AI手機自帶的內置應用權限高於普通App時,用戶“鈍感”會再次被放大。

“無障礙模式的核心問題是數據安全和網絡安全問題,這個安全問題首先應該由技術專家去提出,並負責解決。”許可說,比如,無障礙權限的設立是否已形成行業共識?它在何種場景下開通收益大於風險?在雲端數據交互模式下,包括雲端大模型蒸餾到本地化小模型時,技術標準如何制定?這些都需要行業予以迴應。

在他看來,對於AI手機的算法治理,第一,不能將數據和隱私的保護責任單方面壓給用戶;第二,技術的監管永遠優先於法律的監管。

北京大學政府管理學院教授馬亮注意到AI手機帶來的另一大新挑戰——市場競爭秩序的變化。伴隨廠商和App圍繞用戶權限的爭奪越演越烈,勢必會涉及權限的定義、掌控及優先級劃分等問題。“當前亟需形成共識,探索合理的權限治理模式。”馬亮說。

許可也提出了對市場壟斷的擔憂。他觀察到,AI智能體在手機中的作用日益重要,它決定了資源的調配方式,可能改變傳統的App主導模式。如果未來某些AI模型在市場上佔據主導地位,可能會給市場競爭帶來新的挑戰,甚至產生現有《反壟斷法》和《反不正當競爭法》未曾涉及的問題。

此外,許可提示稱,再聰明的AI智能體也需要加上“人類監督”這個角色,即通過“人在環中”(Human-in-the-Loop,HITL)技術優化,達成人類和機器智能的有機結合,讓手機AI智能體與現有法律相銜接。目前,該目標的實現仍待更多制度和倫理層面的破局思路。