去年5月中旬Intel宣布推出神經網路處理器(NNP)Nervana NNP L-1000,即是2019年的Spring Crest。現在這家晶片龍頭已經透露了Linley Conference的設計細節。眾所周知NNP L-1000採用ASIC設計並有32GB的HBM2的記憶體。它的計算能力應該遠超過處理器,在某些領域也是GPU加速器。
在Linley會議上Wikichips.org的 David Schor還獲得了進一步的訊息。Nervana NNP L-1000由四個容器組成,每個容器有六個計算集群,能夠處理所有現代矩陣乘法和數據類型。一個容器每個都有一個記憶體控制器,而後者又分別驅動8GB的HBM2。由於沒有本地快取,而是每個處理集群都有一個2MB的SRAM。因為處理群集被設計用於大矩陣的計算。
這四個容器通過Inter-Chip Links (ICL) 互連,實現100GB/s的雙向頻寬。由於採用互連的網狀拓撲。對於多個晶片的外部連接,Intel打算使用300GB/s的互連,並希望達到790ns或更短的延遲。Nervana NNP L-1000可以封裝在每個四個晶片的節點中,然後分別安裝在兩個節點的機架中。因此這種設計在同一PCB上提供了八個這樣的晶片。對於較大的網路可以互連多個機架。最多可以有64個晶片。
但Intel不生產Nervana NNP L-1000,而是由台積電採用16nm製程打造。該晶片相對較大為741mm²,實際上目前只有NVIDIA的GV100 850mm²有超過。據說Nervana NNP L-1000的熱設計功率為210W,而NVIDIA的Tesla V100 TDP則提高到450W。
Nervana NNP L-1000是專為深度學習學習而設計的,但年底問世的Nervana NNP I-1000的主要應用將在加速推理。該晶片將以代號Spring Hill開發,然後將採用10nm製程打造並配備 Sunny Cove核心。此外Nervana NNP I-1000應該會在年底交付。
消息來源 |