Google宣布推出該公司最強大的可擴展且靈活的人工智慧加速器,稱為Cloud TPU v5p以及新的人工智慧超級電腦模型。
隨著人工智慧市場的快速發展,在為持續開發提供運算能力方面,公司正在轉向他們的解決方案。像Microsoft的Maia 100 AI Accelerator和Amazon的Trainium2這樣的公司的目標是在處理AI 作負載的性能優化硬體方面超越彼此,而Google也確實加入了這個名單。
現在Google已經推出了幾個令人興奮的元素,例如針對人工智慧產業的新Gemini模型。而Cloud TPU v5p是Google迄今為止功能最強大且最具成本效益的TPU(雲端張量處理單元)。每個TPU v5p Pod由多達8,960個晶片組成,使用最高頻寬的晶片間連接(每晶片4,800Gbps)進行互連,確保快速傳輸速度和最佳效能。Google並不打算退縮,因為即將到來的世代飛躍數字會讓你大吃一驚。
與TPU v4相比,新發布的v5p有兩倍的FLOPS(每秒浮點運算)和三倍的高記憶體頻寬,這在人工智慧領域是令人驚嘆的。此外在模型訓練方面,TPU v5p在LLM 訓練速度上顯示出2.8倍的世代跳躍。Google也創造了空間來擠出更多的運算能力,因為TPU v5p就每個Pod的總可用 FLOP而言,可擴展性比TPU v4高4倍。
總結一下Google Cloud TPU v5p AI晶片:
- 與TPU v4相比,浮點運算次數增加2倍(459 TFLOPs Bf16 / 918 TOPs INT8)
- 記憶體容量比TPU v4 (95 GB HBM) 高出3倍
- LLM訓練速度提高2.8倍
- 嵌入密集模型訓練速度提升1.9倍
- 與TPU v4相比,頻寬增加2.25倍(2765 GB/秒 vs 1228 GB/秒)
- 與TPU v4相比,晶片間互連頻寬是原來的2倍(4800 Gbp 與2400 Gbps)
Google已經認識到在擁有最好的硬體和軟體資源方面取得了明顯的成功,這就是該公司擁有人工智慧超級電腦的原因,它是一組旨在協作工作以實現現代人工智慧工作負載的元素。Google整合了效能最佳化運算、最佳儲存和水冷散熱等功能,以充分利用龐大的功能,輸出的效能確實是產業奇蹟。
在軟體方面,Google已經加強了使用開放軟體來調整其人工智慧工作負載,以確保其硬體的最佳效能。
Google的人工智慧革命性方法透過其新的硬體和軟體元素顯而易見,這些元素都將打破限制該行業的障礙。看看新的Cloud TPU v5p處理單元如何與AI超級電腦一起幫助正在進行的開發將會很有趣,但有一點是肯定的,它們肯定會加劇競爭。
消息來源 |