在2021年Linley春季處理器大會上Cerebras展示了其第二代Wafer Scale Engine,或簡稱WSE-2。在2019年夏季巨大的AI晶片46,225mm²吸引了人們的注意,因為除了生產之外,它還在應用方面導入了全新的概念。第二代延續了所走的道路。
但是製造過程會以某種方式限制您。不能使用直徑為300mm的圓形晶片來生產矩形尺寸大於46,225mm²的晶片。在這方面對於第二代而言,這些尺寸保持不變。然而從台積電(TSMC)的16nm生產轉變為7nm的生產,這不僅使“僅” 400,000個AI核心有可能在晶片上留出空間,而且現在的數量是原來的兩倍多-達到850,000個。電晶體管的數量從12,000億增加到26,000億。整合SRAM的大小從18GB增加到40GB。組合的記憶體頻寬為20PB/s。互連將所有850,000個AI核心相互連接,總頻寬為220PB/s。在這兩種情況下與以前的情況相比都超過一倍。
實際的AI核心(Sparse Linear Algebra Compute Cores)SLAC也已經在架構中發生了一些變化。但是Cerebras並未詳細介紹。有關該結構的更多詳細訊息。當您將WSE-2與其他晶片進行比較時,這些數字甚至會更加令人印象深刻。NVIDIA A100是最大的GPU,面積為826mm²。NVIDIA可容納540億個電晶體管。核心數很難確定。NVIDIA安裝了6,912個FP32處理單元,3,456個FP64處理單元和432個Tensor核心。L2快取當然也要小得多,只有40MB。借助HBM2E,GA100-GPU現在可實現2TB/s的記憶體,而NVLink 3.0在多個GA100-GPU之間可提供至少600GB/s。
從第三季開始,Cerebras計劃交付第一台帶有WSE-2的CS-2。CS-1的價格已經超過200萬美元。據說一個CS-2系統要花費好幾個“百萬美元”。
消息來源
|