火山引擎總裁譚待:從調用量來看,大模型成本已不是創新阻礙
《科創板日報》9月24日訊(記者 郭輝)從今年5月字節跳動發佈自研豆包大模型,並將API調用價格降至0.0008元/千Tokens——即低於當時行業價格的99.3%,四個月過去,豆包的日均調用數量已增長超過10倍。
在今日火山引擎AI創新巡展深圳站中,火山引擎總裁譚待宣佈,**截至今年9月,豆包大模型日均Tokens使用量超過1.3萬億(今年五月的日均調用量爲1200億次),日均生成圖片5000萬張、日均處理語音85萬小時。
“下半年是整個AI應用的元年,這個數字也進一步印證了這一觀點。”**譚待如是稱。
火山引擎總裁譚待
“當價格降十分之一,量就可能漲十倍。”至於低價大模型是否可持續,譚待在接受《科創板日報》等媒體採訪時表示,他們當前主要關注的是應用覆蓋,而不是收入。“要解鎖新場景,意味着需要更強的模型能力,我們覺得這更有價值”。
在譚待看來,只有大的使用量,才能打磨出好模型,大幅降低模型推理的單位成本;而當大模型價格從以分計價到以釐計價,也才能幫助企業以更低成本加速業務創新。
不過,譚待也認爲,面向B端市場的業務,首先其前提一定是要可持續,不能像2C業務一樣考慮靠廣告盈利。他並不認同外界對大模型廠商業務存在負毛利情況的看法,“2B產品要實現正毛利,我們有能力也有信心做到”。
火山引擎對大模型的定價策略,引來其他廠商的跟進。
以阿里云爲例,繼5月份將GPT-4級主力模型Qwen-Long價格直降97%之後,此次阿里雲百鍊平臺上的三款通義千問主力模型也迎來了價格的大幅下調,其中Qwen-Turbo的價格降幅達到了85%
“阿里這次降價挺好,第一次沒降到底,現在和我們一樣了。”譚待表示,以前成本是創新的阻礙,現在降價後,從調用量來看已不再是阻礙。“接下來要做的是在這個價格基礎上,提高質量和性能。其中質量指的就是讓模型能力更強、更多元。”
目前豆包大模型家族中,已經覆蓋了豆包通用模型、角色扮演模型、向量化模型等大語言模型,文生圖模型、圖生圖模型等視覺大模型產品,以及語音識別模型、語音合成模型等語音大模型。
今日(9月24日),火山引擎宣佈豆包大模型新增視頻生成模型,還發布了豆包音樂模型和同聲傳譯模型,實現對語言、語音、圖像、視頻等全模態的覆蓋。
其中,新發布的豆包視頻生成模型包括PixelDance、Seaweed兩款大模型產品,並開啓面向企業市場的邀測。據悉,目前豆包視頻生成模型已在即夢AI內測版小範圍測試,並將於今年國慶節後上傳至火山方舟平臺開放預約使用。
豆包視頻生成模型定價暫時還未確定。譚待表示,視頻模型和語言模型應用場景不同,定價邏輯也有所不同,比如要綜合考慮新體驗、老體驗、遷移成本,最終能否廣泛應用還取決於是否比以前生產力ROI提升很多。
此前豆包主力模型公佈在企業市場價格低於行業的99%,外界猜測字節跳動是否會進一步通過自研算力芯片實現降本。不過字節方面已對相關消息予以否認,並表示其在芯片領域探索還處於初期階段。
據悉,火山引擎此前曾推出自研DPU產品,來提供更高的帶寬能力,提升計算和存儲的傳輸效率,釋放單機GPU算力。
譚待接受《科創板日報》記者採訪進一步明確,火山引擎從第一天做雲就強調軟硬件全棧優化,但不意味着都由自己來做。其中硬件研發指的更多是計算、存儲、網絡,要做端到端優化,同時做好組合。
“比如DPU和視頻編解碼芯片我們自己做,CPU、GPU等和友商合作,通過工程能力做好混合級聯調度提升性能和成本。”譚待表示,豆包Token能實現可持續低價的原因之一,就是他們在軟硬件之間做了很多優化。
進入到AI時代,譚待關注到,B端市場的變化一方面是企業需求變得更慢了,並且核心需求就是降本增效;另一方面,AI應用從以前的自上而下規劃,變爲自下而上驅動創新。
因此,這對大模型廠商而言,挑戰變成從卷價格走向卷性能、卷更好的模型能力和服務。
譚待表示,大模型的應用成本已經得到很好解決,價格已不再成爲瓶頸,未來要保持性價比,進一步把能力做好。