NVIDIA宣布推出其全新的 Hopper H100 AI GPU系統,該系統配備了Intel第四代XEON Sapphire Rapids CPU。
新聞稿:人工智慧是人類最具變革性創新的核心——從以前所未有的速度開發COVID疫苗和診斷癌症,到為自動駕駛汽車提供動力和了解氣候變化。幾乎每個行業都將受益於採用人工智慧,但隨著神經網路複雜性的增加,該技術變得更加資源密集。為避免對發電產生不可持續的需求來執行此計算基礎設施,底層技術必須盡可能高效。
由NVIDIA GPU和AI平台提供支持的加速計算提供了使數據中心能夠可持續地推動下一代突破的效率。現在隨著第四代Intel XOEN可擴展處理器的推出,NVIDIA 及其合作夥伴已經啟動了新一代加速計算系統,這些系統專為高能效人工智慧而打造。當與H100 Tensor Core GPU結合使用時這些系統可以提供比上一代產品更高的性能、更大的規模和更高的效率,從而提供更多的每瓦計算和問題解決能力。
即將推出的NVIDIA和Intel驅動的系統將幫助企業執行工作負載的效率比傳統的僅使用CPU的數據中心伺服器平均高25倍。這種令人難以置信的每瓦性能意味著完成工作所需的功率更少,這有助於確保盡可能高效地使用數據中心可用的功率來增強最重要的工作。與上一代加速系統相比新一代NVIDIA加速伺服器加快了訓練和推理速度,將能源效率提高 了3.5倍——這轉化為實際成本節約,人工智慧數據中心的總擁有成本降低了3倍以上。
新的第4代Intel Xeon CPU的功能之一是支援PCIe Gen 5,它可以使從CPU到NVIDIA GPU和網路的數據傳輸速率提高一倍。增加的PCIe通道允許更高密度的 GPU和每台伺服器內的高速網路。更快的記憶體頻寬還可以提高AI等數據密集型工作負載的性能,而網路速度——每個連接高達每秒400吉比特 (Gbps)——支援伺服器和儲存之間更快的數據傳輸。
配備H100 PCIe GPU的NVIDIA合作夥伴的DGX H100系統和伺服器附帶NVIDIA AI Enterprise許可證,這是一套點到點、安全、雲端原生的AI開發和部署軟體套件,為高效企業提供卓越的完整平台人工智慧。作為全球首屈一指的專用人工智慧基礎設施的第四代,DGX H100系統提供了一個完全優化的平台,該平台由加速數據中心的系統NVIDIA Base Command軟體提供支援。
每個DGX H100系統都配備八個NVIDIA H100 GPU、10個NVIDIA ConnectX-7網路適配器和雙第4代Intel XEON可擴展處理器,以提供打造大型生成式AI模型、 大型語言模型、 推薦系統等所需的性能。
結合NVIDIA網路,該架構透過提供比上一代高9倍的性能和比未加速的X86雙路伺服器高20到40倍的性能來大規模增強高效計算,用於AI訓練和HPC工作負載。如果一個語言模型以前需要40天才能在純X86伺服器集群上進行訓練,那麼使用Intel XEON CPU和ConnectX-7驅動網路的NVIDIA DGX H100可以在短短1-2天內完成同樣的工作。NVIDIA DGX H100系統可提供高達1 Exaflop的AI性能,為大規模企業AI部署帶來效率飛躍。
消息來源 |