Intel近日發布了第二代Xeon Scalable處理器,代號為Cascade Lake,製程還是14nm,架構還是Skylake-SP,而接下來在明年Intel還將再拿出一代14nm伺服器平台,代號為Cooper Lake ,而且很可能更換插槽和主機板,再往後才輪到10nm Ice Lake。
Cascade Lake在機器學習、人工智慧方面做了顯著增強,Cooper Lake則會繼續改進。根據Intel發布的最新版開發者文件Cooper Lake會引入新的AVX512_BF16適量神經網路指令,也就是支援bfloat16(BF16)格式。bfloat16(BF16)浮點格式介於標準化的半精度FP16、單精度FP32之間,指數位和FP32一樣而多於FP16,但是小數位比FP16更少。
它能讓開發者在16位元空間內通過降低精度來獲取更大的數值空間,在記憶體中存放更多數據,減少數據進出空間的時間,還能降低電路複雜度,最終帶來計算速度的提升。這種格式已經成為深度學習事實上的標準,Google TPU、Intel未來的FPGA及其Nervan神經網路處理器都會支援,Xeon家族支援也在情理之中。
Cooper Lake支援的AVX512-BF16指令包含VCVTNE2PS2BF16、VCVTNEPS2BF16、VDPBF16PS,而且都有128位元、256位元、512位元三種模式,因此開發者可以根據需要選擇九種不同版本。 不過奇怪的是Intel每次公佈新指令的時候,都會確認支援的首個架構以及此後支援的架構,比如最初的AVX指令集,支援的架構就標註為“Sandy Bridge and later”。但這次AVX512-BF16指令的支持架構卻只寫著“Future Cooper Lake”,並沒有看到慣例的“and later”。
這似乎意味著只有14nm Cooper Lake才會支援AVX512-BF16,而接下來的10nm Ice Lake反而會砍掉。Intel對此回應稱:目前Cooper Lake會為機器學習加速(DLBoost)加入Bfloat16指令。除此之外在Roadmap內沒有可分享的。
消息來源 |