找回密碼註冊
作者: lin.sinchen
查看: 5137
回復: 0

文章標籤:

文章分享:

+ MORE精選文章:

+ MORE活動推薦:

極致效能 為遊戲而生 990 PRO SSD 玩家體驗

[*]極致效能固態硬碟 [*]PCIe 4.0 速度大幅提升 [*]優化的電源效率 ...

Micron Crucial PRO D5 6400超頻版 玩家開

解銷更快的遊戲速度! 利用低延遲遊戲記憶體的強大功能 利用 Cruci ...

O11 VISION COMPACT 玩家開箱體驗分享活動

迷你身形 三面透視打造精緻PC視野新境界O11 VISION COMPACT 強強聯合 ...

2024 三星SD記憶卡 玩家開箱體驗分享活動

2024 PRO Plus SD 記憶卡 [*]為專業人士打造 [*]釋放極限速度 [*]多 ...

打印 上一主題 下一主題

[業界新聞] NVIDIA 推出巨大的超級晶片 Blackwell 平台迎來運算新時代

[複製鏈接]| 回復
跳轉到指定樓層
1#


NVIDIA 宣布 NVIDIA Blackwell 平台已經到來,為運算新時代提供動力,使世界各地的組織能夠在兆級參數大型語言模型上構建和運行即時生成式人工智慧(AI),而成本和能耗比其前身最低可達 25 倍。

Blackwell GPU 架構具有六項用於加速運算的變革性技術,這將有助於在資料處理、工程模擬、電子設計自動化、電腦輔助藥物設計、量子運算和生成式AI方面實現突破,這些對 NVIDIA 都是新興產業機會。

NVIDIA 創辦人暨執行長黃仁勳表示:「三十年來,我們一直在追求加速運算,目標是實現深度學習和 AI 等變革性突破。生成式AI是我們這個時代的決定性技術。 Blackwell 是推動這場新工業革命的引擎。,我們將與世界上最具活力的公司合作,實現人工智慧對每個產業的承諾。」

計劃採用 Blackwell 的眾多組織包括 Amazon Web Services、戴爾科技集團、Google、Meta、微軟、OpenAI、甲骨文、Tesla 和 xAI。

此全新架構以 David Harold Blackwell 命名,紀念這位專門研究賽局理論和統計學的數學家,他也是第一位入選美國國家科學院的黑人學者。此架構繼承了兩年前推出的 NVIDIA Hopper 架構。



Blackwell 創新推動加速運算和生成式 AI

Blackwell 的六項革命性技術共同支援AI訓練和即時大型語言模型推理,模型可擴展至 10 兆個參數。其中包括:

  • 世界上最強大的晶片:Blackwell 架構 GPU 配備了 2080 億個電晶體,採用台積公司客製化4奈米製程製造,兩倍光罩尺寸GPU裸晶透過 10 TB/s 的晶片到晶片互連連接成單個、統一 GPU。
  • 第二代 Transformer 引擎:透過新的微張量擴展(micro-tensor scaling)支援以及 NVIDIA 的先進動態範圍管理演算法整合到 NVIDIA TensorRT-LLM 和 NeMo Megatron 框架中,Blackwell 將利用新的 4 位浮點 AI 推論能力支援加倍地運算和模型尺寸。
  • 第五代NVLink:為了加速多兆參數和混合專家(mixture-of-experts) AI 模型的效能,最新版本的 NVIDIA NVLink 提供了每個 GPU 驚人的 8TB/s 的雙向吞吐量,確保在最複雜的大型語言模型中高達 576 個 GPU 之間實現無縫的高速溝通。
  • RAS 引擎: Blackwell 驅動的 GPU 包含一個專用引擎,可實現可靠性、可用性和可服務性。 此外,Blackwell 架構還增加了晶片級功能,利用基於AI的預防性維護來運行診斷和預測可靠性問題。 這樣可以最大化系統正常運行時間,並增強大規模 AI 部署的彈性,使其連續數週甚至數月不間斷地運行,並降低運營成本。
  • 安全 AI:先進的機密運算功能可在不影響效能的情況下保護AI模型和客戶資料,並支援新的本機介面加密協定,這對於醫療保健和金融服務等隱私敏感產業至關重要。
  • 解壓縮引擎:專用解壓縮引擎支援最新格式,加速資料庫查詢,以提供資料分析和資料科學的最高效能。 未來幾年,公司每年花費數百億美元的資料處理將越來越使用 GPU 加速。



巨大的超級晶片

NVIDIA GB200 Grace Blackwell超級晶片透過 900GB/s 超低功耗 NVLink 晶片到晶片互連技術將兩個 NVIDIA B200 Tensor Core GPU與 NVIDIA Grace CPU 連接起來。

為了獲得最高的 AI 性能,GB200 驅動的系統可以與今天宣布的 NVIDIA Quantum-X800 InfiniBand 和 Spectrum™-X800 乙太網路平台連接,這些平台可提供速度高達 800Gb/s 的先進網路。

GB200 是 NVIDIA GB200 NVL72的關鍵元件,NVIDIA GB200 NVL72 是一種多節點、液冷、機架規模系統,適用於運算最密集的工作負載。 它結合了 36 個 Grace Blackwell 超級晶片,其中包括透過第五代 NVLink 互連的 72 個 Blackwell GPU 和 36 個 Grace CPU。 此外,GB200 NVL72 還包括 NVIDIA BlueField®-3 資料處理單元,可在超大規模 AI 雲端中實現雲端網路加速、可組合儲存、零信任安全性和 GPU 運算彈性。 與NVIDIA H100 Tensor Core GPU相比,GB200 NVL72可提供高達30倍的大型語言模型推論工作負載效能,並將成本和能源消耗降低多達25倍。

該平台充當單一 GPU,具有 1.4 exaflops 的 AI 效能和 30TB 的快速記憶體,是最新 DGX SuperPOD 的構建塊。

NVIDIA 提供 HGX B200,此伺服器主機板能透過NVLink連接八個 B200 GPU,以支援基於 x86 的生成式 AI 平台。HGX B200 透過 NVIDIA Quantum-2 InfiniBand 和 Spectrum-X 乙太網路平台支援高達 400Gb/s 的網路速度。



Blackwell 合作夥伴的全球網絡

合作夥伴將從今年稍晚開始提供基於 Blackwell 的產品。

AWSGoogle CloudMicrosoft AzureOracle Cloud Infrastructure將成為首批提供Blackwell 驅動執行個體的雲端服務供應商。NVIDIA雲端夥伴計劃的公司包括Applied Digital、CoreWeave、Crusoe、IBM Cloud和Lambda也同樣將提供相應的產品。 主權AI 雲端也將提供基於Blackwell 的雲端服務和基礎設施,包括Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle EU Sovereign Cloud、Oracle 美國、英國和澳洲政府雲端、Scaleway、Singtel、Northern Data Group 的Taiga Cloud、 Yotta資料服務的 Shakti Cloud 和楊忠禮電力國際。

GB200 也將在 NVIDIA DGX™ Cloud上提供,這是一個與領先的雲端服務供應商共同設計的 AI 平台,讓企業開發人員能夠專門存取建置和部署先進生成式AI 模型所需的基礎設施和軟體。 AWS、Google Cloud和 Oracle Cloud Infrastructure計畫在今年稍後託管基於 NVIDIA Grace Blackwell 的新執行個體。

思科、戴爾科技集團慧與科技聯想和美超微預計將提供基於Blackwell 產品的各種伺服器,還有Aivres、永擎電子華碩、Eviden、鴻海技嘉科技英業達和碩聯合科技雲達科技、緯創資通、緯穎科技和雲達國際科技。

此外,包括Ansys、Cadence和Synopsys等全球領先的工程模擬公司與持續增加的軟體製造商,將使用基於Blackwell的處理器來加速用於設計和模擬電氣、機械和製造系統及零件的軟體。他們的客戶可以利用生成式AI和加速計算,更快地、以更低的成本和更高的能源效率將產品推向市場。



NVIDIA 軟體支援

用於生產級 AI 的端對端作業系統NVIDIA AI Enterprise支援Blackwell 產品組合。 NVIDIA AI Enterprise 包括今天發布的NVIDIA NIM™ 推論微服務,以及企業可以部署在 NVIDIA 加速雲端、資料中心和工作站上的 AI 框架、函式庫和工具。

欲了解更多關於 NVIDIA Blackwell 平台的資訊,請觀看 GTC 主題演講註冊參加 GTC 上由 NVIDIA 和產業領導者舉辦的大會,此大會將持續到 3 月 21 日。
更多圖片 小圖 大圖
組圖打開中,請稍候......
您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2024-11-14 14:11 , Processed in 0.192781 second(s), 65 queries .

專業網站主機規劃 威利 100HUB.COM

© 2001-2018

快速回復 返回頂部 返回列表