找回密碼註冊
作者: sxs112.tw
查看: 3297
回復: 0

文章分享:

+ MORE精選文章:

+ MORE活動推薦:

SAMSUNG T7 Shield 移動固態硬碟

[*]超快的移動固態硬碟,比傳統外接 HDD 快 9.5 倍 [*]堅固的儲存 ...

GEX PRO 850W玩家開箱體驗分享活動

卓越性能,超值選擇 GEX PRO 系列通過 80 PLUS 金牌認證,實現高達 ...

體驗極速WiFi 7!MSI Roamii BE Lite Mesh

第一名 guanrung1110 https://www.xfastest.com/thread-293988-1- ...

極致效能 為遊戲而生 990 PRO SSD 玩家體驗

[*]極致效能固態硬碟 [*]PCIe 4.0 速度大幅提升 [*]優化的電源效率 ...

打印 上一主題 下一主題

[業界新聞] NVIDIA經濟學:雲端服務商每花1美元買我的GPU就能賺7美元!

[複製鏈接]| 回復
跳轉到指定樓層
1#
NVIDIA超大規模和HPC 業務副總裁兼總經理Ian Buck 最近在美國銀行證券2024 年全球技術大會上表示客戶正在投資數十億美元購買新的NVIDIA硬體,以跟上更新的AI大模型的需求,從而提高收入和生產力。
image.jpg

Buck表示競相建造大型資料中心的公司將特別受益,並在資料中心四到五年的使用壽命內獲得豐厚的回報,雲端供應商在購買GPU上花費的每一美元,四年內(透過提供算力服務GAAS)都能收回5美元。
如果用於推理,則更有利可圖,每花費1美元,在同樣的時間段內就能產生7美元的營業額,並且這個數字還在增長。


NVIDIA創辦人、總裁兼CEO黃仁勳和執行副總裁兼財務長Colette Kress先前也曾表達過同樣的觀點。他們先前曾表示借助CUDA演算法創新,NVIDIA將H100的LLM推斷速度提升至原來的3倍,這可以將Llama 3這類的模型的成本降低到原來的三分之一,而H200在推理性能上較H100幾乎翻了一倍,為生產部署帶來了巨大的價值。

例如使用7000億參數的LLama 3,單一HGX H200伺服器可以每秒輸出24000個Token,同時支援超過2400名用戶。這意味著以現有的定價來看託管Llama3的API供應商每花費1美元在NVIDIAHGX H200伺服器上,未來四年內就可從Llama3 token計費中賺取7美元收入。

圍繞Llama、Mistral 或Gemma 的AI 推理模型正在不斷發展,並由Token提供服務。 NVIDIA正在將開源AI 模型打包到名為Nvidia 推理微服務(NIM) 的容器中。

NVIDIA最新推出的Blackwell 針對推理進行了最佳化,支援FP4 和FP6 資料類型,在運行低強度AI 工作負載時可進一步提高能源效率。根據官方的數據與Hopper相比,Blackwell 練速度比H100快4倍,推斷速度快30倍,並且能夠即時運轉數兆數大語言模型生成式AI,可進一步將成本和能耗降低到原來的25分之一。

這似乎呼應了黃仁勳多次喊出的買的越多,省的越多的口號,但不可忽視的是NVIDIA GPU價格也在快速上漲。

消息來源
您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2024-12-26 11:28 , Processed in 0.246282 second(s), 33 queries .

專業網站主機規劃 威利 100HUB.COM

© 2001-2018

快速回復 返回頂部 返回列表