ChatGPT最近火得一塌糊塗,也將AI人工智慧推向了新的高潮,而生成式AI需要海量的數據進行推理訓練,高算力的GPU加速卡自然成了搶手貨。譬如ChatGPT背後的GPT模型,其訓練參數在2018年約為1.2億個,到了2020年就猛增到近1800億個,如今恐怕至少在萬億級別。
集邦諮詢估計生成式AI對於GPU計算卡的需求量在2萬塊左右,未來將達到3萬塊。這其中受益最多的自然是NVIDIA,其旗艦級計算卡A100已經在為ChatGPT默默服務,有估算需要3萬塊才能滿足ChatGPT當前的訪問量。
但它往往不是單賣的,而是以DGX A100伺服器整套方案的方式銷售,每套八塊計算卡,算力高達5PFlops(每秒5千萬億次浮點計算),相當於前幾年的一套大型超級電腦,是大規模數據分析、AI加速計算的幾乎不二之選。DGX A100伺服器單套售價約20萬美元,3萬塊卡下來就是大約7.5億美元。
當然AMD也有MI100、MI200系列加速卡,今年還會推出CPU+GPU融合的全新MI300,算力也很強,但市佔率遠不如NVIDIA。另外有數據顯示GPT-3訓練一次的成本約為140萬美元,對於一些更大的LLM模型,訓練成本介於200萬美元至1200萬美元之間。
消息來源 |