瑞萊智慧CEO田天:沒有安全可控爲前提 大模型無法落地應用

《科創板日報》9月29日訊(記者 李明明)近期,韓國曝出“Deepfake”(深度僞造技術)事件,被認爲是採用新犯罪手段的“N號房”案件重現。隨着AI在大模型等技術的帶動下向深度應用方向邁進,AI帶來的數據泄露、“AI換臉”等安全問題愈發嚴峻,相關的AI詐騙案件頻發,正給社會帶來巨大挑戰。

早在AI安全問題引起廣泛重視之前,瑞萊智慧就已深耕這一領域,聚焦人工智能安全和垂類大模型應用,通過構建大模型安全基座、AI僞造內容檢測基座等,實現對AI大模型研發部署和應用治理環節全覆蓋,建立了包括基礎算法平臺層、底層資源層、應用層的全方位AI安全體系。

作爲清華系深耕中國人工智能領域的創業企業之一,瑞萊智慧由中國科學院院士、人工智能研究院名譽院長張鈸和清華大學人工智能研究院副院長、計算機系教授朱軍共同擔任首席科學家,清華大學計算機系博士田天出任首席執行官,其也是瑞萊智慧的創始人。

在人工智能時代,如何守護我們的信息安全?《科創板日報》記者就此專訪了田天,他表示,只有提供更加安全可控的AI才能夠更快速地把AI賦能千行百業,特別是嚴肅場景(比如to B)。如果沒有安全可控爲前提,大模型就無法落地和應用,這是零和一的問題,有了安全可控,纔有可能去實現應用。

提供安全可控的AI 將AI賦能千行百業

《科創板日報》:作爲一家初創企業,爲何選擇AI安全領域入局?

田天:這個問題其實就是創立初衷。瑞萊智慧2018年成立,目標就是要去做更加安全可控的第三代人工智能的落地,讓人工智能真正應用起來,能夠發揮作用和價值。

在公司成立之前,我們團隊也在清華大學裡進行相關技術研究,並於2018年發現,儘管AI在很多場景、領域的發展已經很火熱,但還不能迅速落地,因爲還缺乏一個非常重要的環節,即AI的安全可控問題尚未解決,而只有提供更加安全可控的AI才能夠更快速的把AI賦能千行百業,特別是嚴肅場景(比如to B)。

所以公司產品包括兩大類。一類是安全本身,即給AI產品做安全增強,提供AI安全增強模塊和完整的AI解決方案,幫助客戶實現AI技術的應用與價值。特別是在這兩年大模型安全需求越來越多之後,我們可以給客戶提供更加安全可控的大模型整體行業落地解決方案。

另一方面是利用AI去提升生產力,即相關領域的AI落地、提升和改善其工作效率等。其實從成立伊始公司就在做這些工作,比如一直在做的金融領域、政府和社會治理相關行業、工業製造領域等。

《科創板日報》:相比已經深耕數年的同行們,比如奇安信、啓明星辰、綠盟科技、安恆信息等,瑞萊智慧有何競爭優勢?

田天:傳統網安公司不太可能提供一個很強大的AI系統並解決AI安全問題。本質上真正的AI公司是關注如何構建一個更加可控、更加安全的AI系統,其和互聯網安全、數據安全是完全不同的領域。

隨着人工智能技術的發展,越來越多的企業開始關注AI安全,並試圖將AI技術應用於網絡安全領域。一方面,網安企業通過引入AI技術來增強自身的競爭力;另一方面,專門從事人工智能開發的公司也在積極探索AI安全。在這一過程中,擁有強大AI能力和專業知識的團隊成爲競爭的關鍵。

在AI安全可控領域市場方面,我們還是較爲領先的,並佔了絕大多數份額。目前,客戶構成方面包括幾百家的大型企業(包括央國企互聯網公司)、政府客戶、金融機構等。

隨着AIGC技術發展,將來AI合成假內容的比例會越來越高

《科創板日報》:在產品開發中,你和團隊遇到比較大的困難是什麼?如何去解決困難?

田天:困難還是在於AI安全可控領域發展的太快,並充斥着大量的技術迭代。目前主要面臨兩個問題。一方面,我們研發一個能力更強的AI安全系統,需要進行持續的投入,特別是在大模型日新月異的時代,如何跟上模型能力發展,並處於AI大模型安全行業的最前沿,這是一個難點;

另外一方面,最新的AI技術也會帶來很多更高層次的安全問題。此前,AI還比較弱,或者應用範圍還比較窄的時候,其安全問題不太嚴重。而隨着AI能力越來越強,應用越來越廣,其引起的安全問題類型也會越來越多,同時造成的風險隱患也會越來越大。因此,我們也要持續投入關注和研發。

此外,對於AI惡意應用,我們一直在持續跟進,會去做相關情報蒐集,並在支持客戶的過程中積累了很多經驗。甚至還會預演一下,比如模擬黑客,並先於實際黑客之前掌握攻擊方式,以便更早的做好防禦準備。

《科創板日報》:Sora等文生視頻的出現給AI視頻檢測帶來了更大的不確定性,帶出了“真的假視頻”(AI生成視頻),“假的假視頻”(真人擺拍冒充Sora生成視頻)等現象,具體應該如何防範?

田天:AI合成視頻挑戰了人們之前眼見爲實的常識,而且隨着AIGC技術發展,將來AI合成假內容的比例會越來越高,覆蓋面也會越來越廣。甚至很快在互聯網上的信息中,AI合成的假內容可能比真實產生的還要多,這也是未來的趨勢,所以這個問題首先很嚴重。

對此,需要從技術和用戶兩方面共同努力:一方面,AIGC技術和產品的供應商要去加強治理。通過技術手段如內容水印和平臺標識來標明信息的真實性;另一方面,提升用戶的辨識能力,使他們能夠自主判斷所見信息的真實性。比如,我們面向個人用戶的AIGC實時檢測產品RealBelieve,能幫助用戶鑑別通話或網絡視頻中的人臉真僞,也可在用戶瀏覽網頁內容時提供AI合成可能性提示。

《科創板日報》:當前大模型在哪些場景下更容易發揮作用,並面臨什麼挑戰?

田天:大模型最適合的是內容生產與創新類場景,但對於嚴肅場景(如生產力提升或決策分析)由於可控性不足而不受歡迎。由於模型頻繁出現錯誤或不可靠的結果,導致它們無法被放心地融入到工作流程中去進行自動化操作。

我認爲未來AI特別是大模型最終會在各個行業中實現落地應用,雖然目前AI落地仍存在許多問題,但這是一個大趨勢。然而,儘管現階段非常熱門,但大模型在實際業務場景中使用的案例相對較少。例如,在媒體行業中,實際應用的案例並不多見。

因此,公司正致力於實現更安全可控的大模型系統,使其能在不同行業中真正落地並有效使用,並已在政府、央企等多個標杆項目中取得成果。

《科創板日報》: 安全可控的大模型能否應對一些特殊或敏感問題,例如涉及政治、法律合規、倫理等領域?

田天:我們的模型通過設計和開發,能夠有效應對有意破壞或提出超常規交互的人。我們致力於在限定製度範圍內工作,保證模型的安全可控。

此外,超級智能安全將是未來的關鍵問題,這在國內外均處於起步階段,公司已在該領域投入更多資源,緊跟技術進展。同時,隨着人工智能升級,安全威脅增大,公司也將持續提高安全領域的投入比例。

目前產品已助力金融、政務、自動駕駛等領域

《科創板日報》:中國銀行行長李禮輝表示,從金融領域來看,現在主要的問題是AI算法和模型仍然不夠清晰和透明,有待解決技術方面的缺陷。如果把不太成熟的人工智能技術投入到高風險的金融領域,可能會放大現有風險,併產生新的風險。您怎麼看?

田天:對此,我是很贊同的。如果說我們對現有的AI系統風險沒有足夠的認識,就貿然將其用在一些相對敏感嚴肅的場景,很有可能會造成比較嚴重的後果。所以我建議相應的AI系統必須足夠安全,或者對其安全能力有足夠認識,再去應用到適合的場景裡,以避免放大現有風險或產生新的風險。

《科創板日報》:能否介紹一些具體的金融安全方面的案例?

田天:當下大家會通過手機銀行或者一些線上的方式刷臉,以便去驗證身份。但由於現在AIGC能力很強,網上相關方可以合成一個人臉,使其做張嘴、眨眼、搖頭等動作,然後通過高清屏或者直接注入的方式,欺騙身份覈驗系統,這也帶來了很大的風險。我們的其中一款產品人臉AI安全防火牆RealGuard,能夠有效檢測這種AI合成的人臉,作爲現有系統的補充。

目前銀行客戶羣體涵蓋了諸多頭部銀行,如郵儲、交行等。由於涉及客戶隱私,我們無法透露具體的減小了多少安全概率的數據。但可以根據實際效果來說,產品確實幫助客戶防禦了大量的攻擊。

《科創板日報》:除了金融領域,公司在大模型應用上有哪些典型案例及主要聚焦點?與其他專注政務、金融等領域的同行相比,貴公司在大模型應用上的獨特之處在哪裡?

田天:公司在政務領域有衆多成功案例,例如去年爲北京市政府打造了政策大模型並在相關比賽中獲得第一名。此外,還在工程管理、工業生產、金融等領域開展深度探索,但大模型主要是作爲現有工作流的改造升級和輔助改善工具,而非完全替代人類勞動力。公司的獨特之處在於提供的能力更加安全可控,這對許多領域的從業者來說是不具備的,同時注重提升行業原有工作流程中基於AI的新能力和應用場景。例如,在政策比較中,利用大模型可高效準確地對比不同地區政策間的異同,這是傳統方式難以實現的。

此外,我們還專注於研發自動駕駛領域的對抗攻防技術,並已成功開發出相應產品。並在多家車企和自動駕駛公司的研發階段進行了應用,並取得了一定的成功率,能有效防止商用系統在實際運行中遭遇重大故障。

值得一提的是,如果沒有安全可控爲前提,大模型就完全無法落地,從而無法應用,這是零和一的問題,有了安全可控,纔有可能實現大模型的應用。