AI之王就是狂!輝達新晶片驚動全球 哪幾家臺廠吞肥單?
輝達發佈「地表最強」新款GPU產品L40S,可望帶動臺灣相關供應鏈。(示意圖/達志影像/shutterstock)
輝達L40S迷人之處在哪?(圖/先探投資週刊提供)
爲了解決CoWoS產能不足使AI晶片缺貨的景況,輝達於上個月宣佈推出新款GPU產品L40S,可望帶動臺灣相關供應鏈。
今年以來,隨着全球大語言模型訓練和推理生成式AI(Generative AI)應用百花齊放,帶動高階AI伺服器和高效能運算(HPC)資料中心市場需求水漲船高,也因而使主要大廠輝達(Nvidia)推出的AI晶片A100及H100成爲科技廠瘋搶的主要產品。然由於A100和H100晶片均需採用臺積電CoWoS先進封裝,受限於產能不足,因此造成輝達AI晶片全面缺貨。
L40S成輝達營運新利器
爲了解決缺貨窘境,輝達也在八月上旬宣佈推出新款GPU產品L40S,其是前身L40的升級版,因此仍擁有L40的強項:渲染與3D設計繪圖、串流影片處理、工業數位化等功能;此外,亮點在於,L40S從原先單純影像處理型AI晶片,切入生成式AI領域;也就是說,L40S不但是一款專業影像處理GPU,同時也支援新一代數據中心工作負載,可執行生成式AI和大型語言模型LLM推理與訓練。
然而,L40S並沒有搭載HBM,也不支援NVLink,而是採用PCIe Gen 4傳輸介面,如果是多卡串聯的情況,彼此無法分享記憶體,且傳輸速率只有三二GB/s,遠低於A100、H100傳輸速率的九○○GB/s。因此,在大規模AI演算法訓練,L40S的效能可能還是落後HGX A100、H100準系統,但應用在AI推論或小規模的AI演算法訓練,都有優於A100成績;與A100相比,L40S在AI訓練效能提升七○%,在生成式AI效能提升二○%。
再者,L40S因採用PCIe Gen 4傳輸介面,與通用伺服器的相容性較高,故可在不更改設計的情況下直接加裝;且其成本相對便宜,從零售價格來看,L40S單卡售價約一○○○○~一一○○○美元,較A100單卡售價約一二○○○~一五○○○美元來得更低。更重要的是,因無須採用CoWoS封裝,故不會受到產能瓶頸的限制,上述優勢都讓市場樂觀看待此產品或能有效填補低階市場的空缺。
華碩推新AI伺服器搶市
而臺廠中,L40S相關推理卡由鴻海獨家代工OAM板。鴻海一直是輝達的長期合作伙伴,不論是AI晶片模組、基板、主機板、伺服器到機櫃,鴻海可以說是一條龍服務,打造輝達AI伺服器供應鏈的完整解決方案。另外,除了其他伺服器廠商也可以自行採購L40S推理卡,並根據客戶需求來設計伺服器外,輝達亦有推出自有品牌OVX伺服器,採用4U設計、搭載八張L40S推理卡,而首波通過認證的臺灣供應商包括廣達旗下的雲達、技嘉及華碩。
其中,日前華碩宣佈搭載最新Nvidia L40S GPU的ESC8000和ESC4000伺服器開始開放下單,不僅大幅加快AI伺服器供應速度,亦提供絕佳性價比。華碩此次以首度入列輝達伺服器新品首發夥伴引起市場關注,事實上,公司耕耘伺服器業務多年,近年業績穩定增長,分爲品牌及白牌兩大事業體,其中自有品牌爲臺灣第三大,僅次於Dell及HPE;白牌則鎖定中型資料中心,如VH、德國Hetzner等網路託管商皆爲其客戶。
隨着近年力拱AI應用,華碩AI伺服器在市場上也順利取得初步成果,而爲衝刺AI伺服器業務,也積極招兵買馬,先前也喊出力拚伺服器業績五年成長十倍的目標,年複合成長率上看四○%。臺系法人指出,華碩去年伺服器業務規模僅約百億,佔比約二%,但因其與輝達顯卡長期合作,並在板卡市場上居龍頭地位,GPU取得容易,目前已開始出貨H100、L40S等AI伺服器,將帶動整體伺服器業務在今、明兩年均可望有四成的年增幅度,營收貢獻明年將可望衝二○○億大關。(全文未完)
全文及圖表請見《先探投資週刊2264期精彩當期內文轉載》
《先探投資週刊2264期》