第四範式發佈式說大模型 戴文淵:大模型未必需要通才
4月27日消息,第四範式首次向公衆展示其大模型產品「式說3.0」,並首次提出AIGS戰略(AI-Generated Software):以生成式AI重構企業軟件。式說將定位爲基於多模態大模型的新型開發平臺,提升企業軟件的體驗和開發效率,實現「AIGS」。
第四範式創始人兼CEO戴文淵表示:“C端產品已經逼近用戶體驗的上限,而B端的企業級軟件往往是個十分複雜的執行系統,堆砌十幾層菜單和成千上萬功能也不算多。”
戴文淵認爲,目前這些B端軟件極爲複雜的交互體驗,以及複雜性帶來的極低開發效率,恰恰爲生成式AI留下足夠大的重構和改造空間。
“過去很難通過人類語言(自然語言)的方式去調用企業軟件的功能,現在當我們有更強的語義理解和生成能力,再加上GPT任務翻譯、任務分發和推理的能力,就可以通過更好的「對話框式」交互方式實現功能的調用,不再需要找到某個位於十幾級的菜單目錄之下的功能。”
這背後還是大模型的能力。第四範式現場拔網線,展示了式說大模型的圖片理解、多輪對話、寫小說、迅速畫圖等能力。
此外,現場展示了式說通過推理能力完成更加複雜的“裝箱”操作,以及其現場編寫代碼的能力。
在戴文淵看來,要做到AIGS,大模型未必需要是知識廣博、十項全能冠軍的通才,更重要的在於模型具備Copilot(副駕艙),和思維鏈CoT(chain of thoughts,多步推理)的能力。
“要去改造企業軟件,大模型不能只有語言能力。式說2.0就加入了多模態和Copilot,因爲很多企業軟件裡的數據是多模態的,而Copilot能把人的指令翻譯成要調用後臺的哪個API。”此前發佈的式說2.0的Demo中,門店員工通過語音、文本等交互方式向式說發起指令,式說理解後,聯網門店監控軟件調出後廚未戴口罩的圖片,並直接將圖片以對話框的形式輸出給員工。
大模型去調用軟件內置的一個個功能、數據來「對話框式」完成任務,已經能產生巨大價值。但員工用企業軟件時也會面臨複雜任務,需要人按照順序執行一個個功能。
因此,式說3.0強調的是Copilot加上思維鏈CoT,具有更強的推理能力,在學習大量數據和“攻略”後,能形成中間的邏輯推理步驟,從而做到拆分並執行復雜工作。
第四範式將AIGS的路徑總結爲三個階段:
第一階段,Copilot調動不同的信息、數據、應用,作爲助手完成用戶的指令。相當於在所有企業級軟件系統裡,配備一個指揮官。指揮官聽用戶的指揮,比如“把照片亮度調亮20%”。
第二階段,Copilot+基於企業規則的“知識庫”,AI能夠參照規則做複雜工作,進一步豐富了「對話框」的能力。比如AI查詢了“人像美化”知識庫後,能執行把照片修好看的步驟。
第三階段,Copilot+CoT(思維鏈)。軟件系統的使用行爲最終會被大模型學會,形成AI針對這個領域的思維鏈,意味着“把照片處理得更好看”這種複雜指令,AI能自動地按照步驟完成。
第四範式的AIGS戰略,就是指基於式說大模型背後的Copilot+COT能力,把企業軟件改造成新型的交互範式,並在新型交互上不斷地學習軟件的使用過程,形成領域軟件的“思維鏈”。
在我國航空製造代表企業的實際場景演示中,其與第四範式基於Copilot技術,聯手改造了某工業設計軟件。
現場某醫療行業的實際場景演示中,式說的“思維鏈”能夠清晰指出將藥品銷售出去的具體步驟。
最終,由於新的交互形式的出現,企業軟件的開發效率變得更高。以前是功能和執行邏輯被編排在軟件界面,每次一個功能升級,都要周而復始的經歷原型圖、設計、開發等,至少是月級別的開發時間。而現在由於「對話框式」的界面是固定的,功能和邏輯被改寫在數據、API和內容層面,變成了天級別的開發效率。(靜靜)