NVIDIA用PrefixRL人工智慧模型設計出小25%的電路,使GPU更加高效
在設計整合電路時,工程師的目標是生產出更容易製造的高效設計。如果他們設法降低電路尺寸,那麼製造該電路的經濟性也會下降。NVIDIA公司在其技術博客上發布了一項技術,該公司使用一種名為PrefixRL的人工智慧模型。利用深度強化學習,NVIDIA公司使用PrefixRL模型來超越主要供應商的傳統EDA(電子設計自動化)工具,如Cadence、Synopsys或Siemens/Mentor。EDA供應商通常會在內部實施人工智慧解決方案,以實現矽片放置和路由(PnR);然而NVIDIA的PrefixRL解決方案似乎在該公司的工作流程中創造了奇蹟。
根據NVIDIA技術博客介紹最新的Hopper H100 GPU架構使用了PrefixRL AI模型設計的13000個算術電路實例。NVIDIA製作的模型輸出的電路比同類EDA輸出的電路小25%。這一切都在實現類似或更好的延遲。下面你可以在圖中比較PrefixRL製作的64位元加法器設計和一個業界領先的EDA工具製作的相同設計:
訓練這樣一個模型是一項計算密集型的任務。NVIDIA公司報告說設計一個64位元加法器電路的訓練,每個GPU需要256個CPU核心和32000個GPU小時。該公司開發了Raptor,這是一個內部分佈式強化學習平台,利用NVIDIA硬體的獨特優勢進行這種工業強化學習。
總括來說該系統相當複雜,需要大量的硬體和投入;然而回報是更小、更高效的GPU。
消息來源
頁:
[1]