NVIDIA表示隨著DGX H100系統的推出,它在硬體上只花費了20%的時間,但在軟體上花了80%的時間
今天NVIDIA宣布其首批DGX H100系統正在向全球客戶發貨,以推進AI 作負載。NVIDIA Hopper H100在GTX 2022上宣布,被稱為世界上第一款也是最快的4nm數據中心晶片,可提供高達4000 TFLOPs的AI計算能力。該晶片採用全新的GPU架構,擁有800億個電晶體管、超快的HBM3和NVLINK功能,專門針對各種工作負載,包括人工智慧 (AI)、機器學習 (ML)、深度神經網路 (DNN) 和各種專注於HPC的計算工作負載。
NVIDIA表示現在第一批DGX H100 Hopper系統正在向從東京到斯德哥爾摩的客戶發貨。該公司在其新聞稿中表示Hopper H100 GPU的誕生是為了運行生成式人工智慧,這種人工智慧已經透過ChatGPT (GPT-4) 等工具風靡全球。CEO黃仁勳已經將ChatGPT稱為計算史上最偉大的事情之一,並表示這是人工智慧的iPhone時刻。該公司發現對其AI GPU的巨大需求導致其股票飆升。
但這還不是全部。NVIDIA已經慢慢地從一家硬體公司轉變為一家軟體公司和供應商。製造GPU和HPC系統等硬體是一回事,但驅動它們是更重要的任務。為此NVIDIA擁有龐大的軟體,旨在從其GPU中榨取每一點性能。
多年來NVIDIA的軟體已經發展到如此程度,以至於NVIDIA的企業計算負責人Manuvir Das在未來計算活動中表示NVIDIA現在將20%的時間花在硬體上,80%的時間花在軟體上。他還表示該公司正在不斷研究算法,幫助他們了解他們的硬體能做什麼和不能做什麼。
這家GPU龍頭和晶片製造商還將利用自己的AI實力開發下一代GPU。 在機器學習的幫助下NVIDIA將能夠製造出比人類更好的晶片,並且與cuLitho一起,相同晶片的設計和製造速度將比傳統設計快40倍。NVIDIA正在與ASML和TSMC合作以幫助採用這項技術。
在MLPerf最近發布的測試中NVIDIA的GPU(包括Hopper H100)在推理和深度學習等人工智慧任務中的性能有了顯著提高。由於持續增長的持續軟體更新和創新,這再次實現。
消息來源
頁:
[1]