開發者大會宣佈 微軟搭載AMD Instinct MI300X虛擬機器全面上線
超微執行長蘇姿豐展示全新「Instinct MI300」系列AI晶片;微軟搭載AMD Instinct MI300X的虛擬機器全面上線。圖/AMD提供
超微(AMD)今日在微軟開發者大會(Microsoft Build)宣佈,全新Microsoft Azure ND MI300X虛擬機器(VM)現已全面上線,協助Hugging Face等客戶爲其要求最嚴苛的AI工作負載挹注優異效能與效率。
AMD總裁Victor Peng表示,AMD Instinct MI300X與ROCm軟體堆疊助力執行Azure OpenAI Chat GPT 3.5與4版本服務,處理許多全球要求最嚴苛的AI工作負載。在Azure全新VM全面上線後,AI客戶可更廣泛的透過MI300X爲AI應用帶來高效能與高效率的解決方案。
微軟技術長暨AI執行副總裁Kevin Scott表示,微軟與AMD在多種運算平臺上有長久的合作歷史,從最初的PC、爲Xbox開發的客製化晶片、HPC一直到現今的AI。在不久之前,我們察覺到將強大運算硬體結合所需的系統與軟體最佳化的必要性,如此才能提供令人讚歎的AI效能與價值。我們與AMD合作,運用ROCm與MI300X協助微軟AI客戶與開發人員爲最先進與運算密集型前沿模型取得出色的性價比成果。我們致力與AMD合作,持續推動AI進程。
Azure ND MI300x v5 VM系列是在2023年11月發佈預覽版本,現已在加拿大中部地區上線,供客戶執行其AI工作負載。這些VM以領先業界的效能帶來令人印象深刻的HBM儲存容量與記憶體頻寬,讓客戶在GPU記憶體中安裝更大模型和/或減少使用GPU,最終有助於節省功耗與、成本並加速解決方案進程。
這些VM與在其中提供支援的ROCm™軟體也用於Azure AI生產力工作負載,包括讓客戶能使用GPT-3.5與GPT-4模型的Azure OpenAI服務。藉由AMD Instinct MI300X以及成熟且就緒的ROCm開放軟體堆疊,微軟得以在GPT推論工作負載上達成領先性價比。
除了Azure AI生產力工作負載外,Hugging Face爲首波採用這些VM的客戶之一。Hugging Face僅花一個月就將其模型遷移到ND MI300X VM上,使其模型達到令人驚豔的效能與性價比。ND MI300X VM客戶能基於此將Hugging Face模型遷移到VM,輕鬆且高效地組建與部署自然語言處理(NLP)應用。
Hugging Face推廣長Julien Simon表示,微軟、AMD與Hugging Face在ROCm開放軟體產業體系上的深度合作,將讓Hugging Face使用者無須改寫程式碼就能運用搭載AMD Instinct GPU的Azure來運行數十萬種Hugging Face Hub提供的AI模型,Azure客戶將能更輕鬆地透過開放模型與開放資源來打造AI。