豆包大模型升級 仍需進一步提升競爭力
本報記者 李昆昆 李正豪 北京報道
近日,火山引擎方面在成都披露了字節豆包大模型的最新進展:截至今年7月,豆包大模型日均Tokens使用量已突破5000億,平均每家企業客戶日均Tokens使用量較5月15日模型發佈時期增長22倍。
字節方面接受《中國經營報》記者採訪時表示:“在字節內部,有超過50多個業務在使用豆包大模型,覆蓋了協同辦公、數據分析、文案創作、輔助編程、內容審覈、客服、遊戲NPC、角色對話、教育等各種場景,基於豆包大模型打造的新技術引擎正在加速業務創新;此外,豆包大模型的外部客戶已覆蓋手機、汽車、金融、消費、互娛等30多個行業,並聯合OPPO、vivo、榮耀、小米、三星、華碩等知名終端廠商和吉利汽車、長城汽車、捷途汽車、賽力斯、智己汽車等20餘家汽車廠商分別成立了智能終端大模型聯盟和汽車大模型生態聯盟。”
豆包大模型升級
近日,豆包模型家族升級了文生圖模型和語音模型,併發布豆包·圖生圖模型。基於文生圖模型打造,豆包·圖生圖模型能實現高度還原人物特徵,50多種風格場景自由轉換,並提供多種富有創意的延展編輯。該模型能力已經在抖音、剪映、豆包、星繪等字節系APP中落地,並通過字節跳動旗下雲服務平臺火山引擎服務了三星、努比亞等企業客戶。
據瞭解,近期,三星電子在面向中國市場的新一代Galaxy Z系列的產品發佈會上,官宣了Galaxy Z Fold6、Galaxy Z Flip6手機的智能助手和AI視覺接入豆包大模型;此外,智能純電汽車品牌smart也於近日官宣成爲豆包大模型首批智能座艙客戶之一。在此次火山引擎“AI創新巡展”上,藍領招聘平臺魚泡科技和智能客服企業曉多科技兩家豆包大模型西南區域的企業客戶典型,也各自分享了接入豆包大模型實現業務增長的案例經驗。其中,魚泡科技的豆包大模型日均調用量已超1億Tokens,應用場景覆蓋了崗位要求識別、工種識別、求職意向識別、推薦系統相似度識別等。
談起大模型的發展瓶頸,字節方面稱:“大模型行業目前整體還處在很早期階段。模型能力還需要繼續提升,比如前段時間豆包在一項‘大模型高考摸底’評測裡考上了文科一本,但理科並沒有達到一本水平。另外,還有如模型結構上的創新、多模態等問題還可以做得更好,在此基礎上,還需要控制成本,這些都是需要解決的問題。但是我們有足夠的信心。”
艾媒諮詢CEO張毅告訴本報記者,和其他大模型相比,豆包大模型是根植於自己的體系,跟其他大模型的區別就是它可能會更傾向於做這種基礎供應鏈,就是AI供應鏈上的這種能力,To B服務可能是它的一個突破點和方向,不管它在文字,還是其他應用場景,比如語音、圖像應用,再比如消費、零售、金融、汽車、教育科研等,能夠收到錢的,可能只能是根植在這種B端的垂直領域內。
“但是這個方向,對於大模型企業,其實大家都希望是這樣子。從目前的情況來看,我不認爲有特別大的爆品和不一樣的地方,至於說大家在這種多模態能力、高效計算、廣泛應用場景、成本以及長文本處理等方面,我不認爲哪家產品有絕對的優勢。”張毅說。
豆包大模型的優劣勢
談起與其他大模型相比,豆包大模型的優勢,字節方面告訴記者,整體上各家大模型現在還在快速地進化中,還有很多能力沒有開發出來,後面還是會有很多差異。
在模型能力方面,豆包大模型自今年5月發佈以來,在多個公開評測集以及智源、OpenCompass等很多專業第三方評測中表現出衆,是得分最高的國產大模型。在使用量上,在抖音內部就有50多個場景和業務線在大量使用,外部也有很多客戶,截至7月,豆包大模型日均tokens使用量已經超過5000億,外部企業客戶日均Tokens使用量較5月15日模型發佈時期增長22倍。基於豆包大模型打造的同名AI智能助手豆包,在各大應用商店AI類產品的下載量排名第一。
在此基礎上,豆包大模型通過工程優化的技術手段實現大模型推理成本的優化,把豆包最強的主力模型也降到了0.0008元/千Tokens。雖然豆包大模型降價後,也有很多大模型廠商跟進,但大部分廠商不是把最強模型大降價,而是把次強的模型降得比較低,或者把一個小模型給免費了。用開源的模型來測成本,也比用豆包大模型要貴,因爲工程優化要自己做,沒有規模優勢。同樣的效果下,企業自己做工程優化,也比直接用雲上的要貴好幾倍。現在,豆包大模型還給出了最高可達同梯隊模型數倍的每分鐘處理Tokens限額,讓模型服務具備更強的承載力。豆包通用模型pro爲客戶提供了業內最高標準的初始TPM(每分鐘Tokens)和RPM(每分鐘請求數),有助於企業的業務在高併發場景中落地。
最後是落地的應用性,包括插件、案例等,豆包大模型目前提供頭條抖音同款插件服務,新增網頁解析、計算器等插件,進一步擴寬模型能力的邊界,支持企業多樣的應用需求,同時帶來了釦子專業版、HiAgent平臺等多款產品,並構建了面向AI的全棧雲基礎設施。所以豆包大模型的優勢可以概括爲:更強模型、更低價格、更易落地。
談起各大模型的發展瓶頸,張毅認爲,首先,國內各大廠做大模型的發展瓶頸,應該講這是從大模型的技術原理和技術能力,以及它的技術路徑角度來看。總體來說,國內在發展大模型這塊還是比較順利的,除了起跑稍微比美國慢一點,其他都還好。
“但未來發展可能會出現瓶頸,首先就是從技術層面來看,主要還是在算力這塊,AI大模型的訓練和運行需要大量的結算資源,國內芯片市場受到進口和國內技術瓶頸的雙重影響,算力緊張肯定會是一個現實問題。商業上還需要解決收入的問題,所以目前在商業上還沒有突破,而在前期投入巨大的時候,算力也是個問題。另外就是語料的問題,目前高質量訓練數據不足,這個可能對很多企業的大模型來說都是一個問題。”張毅說。
張毅認爲,高質量的語言數據是訓練大模型的基礎,如何有足夠多的高質量的數據集,這恐怕會影響模型的性能和泛化的能力。與此同時,還有一個瓶頸在於應用場景,主要是商業模式如何變現的問題,這在所有的問題裡面是最重要的。就是找到適合自己變現的模式和能力,來反哺前面兩個方面,這纔是關鍵。
“未來我們還需要持續投入到攻克模型的種種技術難關上,比如控制幻覺、長文本等等,持續提升模型能力。”字節方面說。
(編輯:吳清 審覈:李正豪 校對:顏京寧)