微軟推出自主研發的Maia 100和Cobalt 100晶片,以應對NVIDIA和AMD在人工智慧和運算領域的挑戰
微軟終於推出了第一批自家人工智慧晶片:Azure Maia AI加速器和Azure Cobalt ARM CPU,旨在實現尖端的運算效能。現在讓我們來看看實際上導致微軟轉向內部人工智慧解決方案的幾個因素。首先是在競爭對手中脫穎而出,因為目前在人工智慧競賽方面,微軟遙遙領先,主要是因為該公司很好地將生成式人工智慧功能整合到其所有產品組合中,包括主流和企業應用程式。第二個原因是減少對完整供應鏈的依賴,因為目前整個市場僅限於特定供應商,其中值得注意的是面臨大量訂單積壓的NVIDIA和台積電。
在今天的Microsoft Ignite活動上,該公司發表了一份聲明,透露計劃將主導權掌握在自己手中。微軟認為在向客戶和合作夥伴提供一流的基礎設施以及減少對行業供應商的依賴方面,導入本土人工智慧是最後一塊拼圖。
Microsoft正在建立支援人工智慧創新的基礎設施,我們正在重新構想資料中心的各個方面,以滿足客戶的需求。
就我們的營運規模而言,優化和整合基礎設施堆疊的每一層對於我們來說非常重要,以最大限度地提高效能、實現供應鏈多元化並為客戶提供基礎設施選擇。
-Scott Guthrie, executive vice president of Microsoft’s Cloud + AI Group
微軟客製化人工智慧產品的推出並不令人意外,因為長期以來一直有傳言稱該公司正在開發內部解決方案。微軟在這裡的優勢在於,它可以根據公司自己的雲端和AI工作負載來優化AI晶片。透過利用已建置的軟體資源的力量,微軟計劃結合硬體來製造最終產品,幫助公司在未來的能力、效能、永續性和成本方面進行宣傳。
轉向更有趣的部分,遺憾的是微軟尚未透露有關其任何一款AI晶片的任何規格或統計數據,但該公司透露他們的 Maia AI加速器已經被OpenAI採用,並且由於該加速器專門針對Azure硬體堆疊,並且隨著晶片設計和人工智慧基礎設施的代際改進,微軟相信其產品可以輸出巨大收益。
深入探討技術細節,Microsoft Azure Maia 100是一款採用TSMC 5nm製程打造的ASIC,並使用x86主機。該晶片將安裝在定制的水冷機架中,最多可容納4個晶片。該晶片將支援標準INT8和INT4資料格式並利用嵌入式乙太網路介面。
當Microsoft首次分享他們的Maia晶片設計時,我們感到非常興奮,我們共同努力改進並使用我們的模型對其進行測試。Azure的點對點AI架構現已透過Maia優化至晶片,為訓練功能更強大的模型並使這些模型對我們的客戶來說更便宜鋪平了道路
-Sam Altman, CEO of OpenAI
Microsoft Azure Cobalt 100 CPU是採用ARM架構打造,微軟相信這家英國公司擁有市場上最好的設計,使他們能夠為公司的資料中心擠出最大的每W效能。該公司推出了總共128個Neoverse N2核心,支援12通道DDR5,與即將推出的ARM伺服器晶片相比,每個核心的效能提高了40%。
微軟自家的AI晶片會為產業帶來怎樣的影響?嗯,它肯定會提高競爭力,但現在還不能下結論,因為我們沒有任何性能統計數據來支持我們的結論。微軟透露Azure AI和Azure CPU平台將得到完全客製化方法的支援,包括客製化驅動程式和客製化交付時間框架。
然而轉向自家產品的做法已經醞釀了很長時間,微軟認為產業需要一些不同的東西。看看Azure Maia 100 AI加速器和Azure Cobalt 100 CPU堆疊如何成為業界的產品將會很有趣,但競爭對手應該保持謹慎。微軟仍將透過第三方晶片提供Azure雲端服務,因為它已經發布了新的NVIDIA Hopper H100和H200,並且還將利用AMD即將推出的Instinct MI300X和第四代EPYC平台來為虛擬機器提供支援。
消息來源
頁:
[1]