NVIDIA 於 MLPerf 基準測試以 A100 效能擊敗 CPU 快 237 倍的 AI 推論速度
NVIDIA 宣佈自家人工智慧 (AI) 運算平台,在第二版 MLPerf Inference 基準測試中,於資料中心和邊緣運算系統的六項應用領域中的每一項測試均奪下冠軍,並且比 CPU 效能高出 237 倍。多個產業的組織早已運用 NVIDIA® A100 Tensor Core GPU 的卓越推論效能,將 AI 從研究單位帶入日常營運內。金融機構使用對話式 AI 以更快速地回答客戶的問題;零售商運用 AI 維持貨架上的庫存;醫療服務供應商透過 AI 分析數百萬張醫療影像,以更準確地辨識疾病並幫助拯救生命。
https://news.xfastest.com/wp-content/uploads/2020/10/NVIDIA-MLPerf-5.jpg
最新的 MLPerf 結果出爐之際,NVIDIA 涉足 AI 推論領域的範圍也急劇增長。五年前只有少數引領業界的高科技公司將 GPU 用於推論作業;如今,NVIDIA 的 AI 平台可透過各大雲端運算與資料中心基礎設施供應商取得,各行各業的公司都能使用 NVIDIA 的 AI 推論平台提升其業務營運的表現,並提供額外的服務。
此外,NVIDIA GPU 目前在公有雲環境中提供 AI 推論的能力也首度超越 CPU。NVIDIA GPU 上的雲端 AI 推論運算量約每兩年成長十倍。
https://news.xfastest.com/wp-content/uploads/2020/10/NVIDIA-MLPerf-4.jpg
NVIDIA 讓 AI 推論能力更上一層樓
NVIDIA 與其合作夥伴提交的 MLPerf 0.7 基準測試成績是透過 NVIDIA 的加速平台而得,其中包括 NVIDIA 的資料中心 GPU、邊緣 AI 加速器及 NVIDIA 優化軟體。
NVIDIA 在今年稍早推出搭載第三代 Tensor Cores 及多執行個體 GPU 技術的 NVIDIA A100,在 ResNet-50 測試擴大了其領先優勢。在最新一次的測試中,A100 以 30 倍的優勢擊敗了 CPU 系統,而在上一輪的測試成果中則為六倍。根據 MLPerf Inference 0.7 基準測試,A100 在新加入的資料中心推論推薦系統測試中,較最新的 CPU 效能高出237倍。
這代表一台 NVIDIA DGX A100 系統就能提供約 1,000 台雙插槽 CPU 伺服器一樣的效能,這讓客戶在將他們的 AI 推薦系統模型從研究投入生產時,提供極高的成本效益。
https://news.xfastest.com/wp-content/uploads/2020/10/NVIDIA-MLPerf-3.jpg
此基準測試亦顯示,NVIDIA T4 Tensor Core GPU 對於主流企業、邊緣伺服器和高成本效益雲端執行個體而言,依然是可靠的推論平台。在同樣的測試中,NVIDIA T4 GPU 的表現比 CPU 高出28倍。此外,NVIDIA Jetson AGX XavierTM 是系統單晶片邊緣設備中效能的佼佼者。
要有高度優化的軟體堆疊才能達到如此優異的效能表現,包括 NVIDIA TensorRTTM 推論優化器與 NVIDIA Triton 推論服務軟體,這兩個軟體都可以在 NVIDIA 的軟體目錄 NGC 中取得。
除了 NVIDIA 自己提交的成果,NVIDIA 的 11 個合作夥伴也使用 NVIDIA GPU 提交共 1,029 項成果,佔資料中心與邊緣類別提交總數的 85% 以上。
https://news.xfastest.com/wp-content/uploads/2020/10/NVIDIA-MLPerf-2.jpg
https://news.xfastest.com/wp-content/uploads/2020/10/NVIDIA-MLPerf-1.jpg
耗電量也是cpu2-3倍:L..
頁:
[1]