NVIDIA與Google Cloud聯手,為下一代AI計算工作負載(包括生成式AI和數據科學)提供最新的基礎設施。
新聞稿: Google Cloud和NVIDIA今天宣布推出新的AI基礎設施和軟體,供客戶打造和部署用於生成AI的大規模模型並加速數據科學工作負載。
在Google Cloud Next的聊天中,Google Cloud首席執行官托馬斯·庫里安(Thomas Kurian) 和NVIDIA創辦人兼CEO官黃仁勳(Jensen Huang) 討論了此次合作如何為世界上一些最大的人工智慧客戶帶來點到點的機器學習服務,包括透過使用NVIDIA技術打造的Google Cloud產品輕鬆運行AI超級電腦。新的硬體和軟體整合採用了Google DeepMind和Google研究團隊在過去兩年中使用的相同NVIDIA技術。
黃仁勳表示說我們正處於一個拐點,加速計算和生成式人工智慧結合在一起,以前所未有的速度加速創新。我們與Google Cloud的擴大合作將幫助開發人員加快基礎設施、軟體和服務的工作,從而提高能源效率並降低成本。
Kurian表示Google雲端在人工智慧創新方面有著悠久的歷史,旨在為我們的客戶促進和加速創新,Google的許多產品都是在NVIDIA GPU上打造和服務的,我們的許多客戶正在尋求NVIDIA加速計算來推動的高效開發,從而推進生成式AI。
Google用於打造大規模大型語言模型 (LLM)的框架PaxML現已針對NVIDIA加速計算進行了優化。
PaxML最初是為了跨越多個Google TPU加速器而打造的,現在使開發人員能夠使用H100和A100 Tensor Core GPU進行高級且完全可配置的實驗和規模。GPU 優化的PaxML容器可立即在NVIDIA NGC軟體目錄中使用。此外PaxML在JAX上運行,JAX已針對利用OpenXLA編譯器的GPU進行了優化。
針對PaxML進行NVIDIA優化的容器將立即在NGC容器註冊表中提供給全球正在打造下一代人工智慧應用程序的研究人員、初創公司和企業。這些新的整合是NVIDIA和Google廣泛合作歷史中的最新成果。包括:
- 由NVIDIA H100提供支援的A3虛擬機上的Google Cloud — Google Cloud今天宣布由H100 GPU提供支援專門打造的Google Cloud A3虛擬機將於下個月全面上市,從而使NVIDIA的AI平台更容易用於各種工作負載。與上一代相比A3 VM的訓練速度提高了3倍,並顯著提高了網路頻寬。
- H100 GPU為Google Cloud的Vertex AI平台提供支援 — H100 GPU預計將在未來幾週內在VertexAI上全面上市,使客戶能夠快速開發生成式AI LLM。
- Google Cloud將獲得DGX GH200的訪問權——Google Cloud將成為世界上首批獲得NVIDIA DGX GH200 AI超級電腦 (由NVIDIA Grace Hopper Superchip提供支援 )的公司之一,以探索其生成AI工作負載的功能。
- DGX Cloud即將登陸Google Cloud — 客戶將可以直接透過網路瀏覽器使用DGX Cloud AI超級計算和軟體,為高級訓練工作負載提供速度和規模。
- Google Cloud Marketplace上的NVIDIA AI Enterprise — 用戶可以訪問AI Enterprise,這是一個安全的雲端原生軟體平台,可簡化企業級應用的開發和部署,包括生成式AI、語音AI、計算機視覺等。
- Google Cloud第一個提供NVIDIA L4 GPU - 今年早些時候隨著G2 VM的推出,Google Cloud成為第一家提供L4 Tensor Core GPU的雲端提供商。NVIDIA 客戶從CPU切換到L4 GPU來處理AI影片工作負載,可以實現高達120倍的性能提升和99%的效率提升。L4 GPU廣泛用於影像和文件生成,以及VDI和AI加速的音效/影片轉碼。
消息來源 |