找回密碼註冊
作者: sxs112.tw
查看: 2773
回復: 0

文章分享:

+ MORE精選文章:

+ MORE活動推薦:

GEX PRO 850W玩家開箱體驗分享活動

卓越性能,超值選擇 GEX PRO 系列通過 80 PLUS 金牌認證,實現高達 ...

體驗極速WiFi 7!MSI Roamii BE Lite Mesh

第一名 guanrung1110 https://www.xfastest.com/thread-293988-1- ...

極致效能 為遊戲而生 990 PRO SSD 玩家體驗

[*]極致效能固態硬碟 [*]PCIe 4.0 速度大幅提升 [*]優化的電源效率 ...

Micron Crucial PRO D5 6400超頻版 玩家開

解銷更快的遊戲速度! 利用低延遲遊戲記憶體的強大功能 利用 Cruci ...

打印 上一主題 下一主題

[軟體遊戲] 有望改寫AI未來! NVIDIA全新nGPT使訓練速度暴增20倍

[複製鏈接]| 回復
跳轉到指定樓層
1#
sxs112.tw 發表於 2024-10-20 20:14:26 | 只看該作者 |只看大圖 回帖獎勵 |倒序瀏覽 |閱讀模式
根據媒體報導NVIDIA的最新研究可能徹底改變AI的未來,其研究團隊提出了一種名為歸一化Transformer(nGPT)的新型神經網路架構。

此架構在超球面(hypersphere)上進行表示學習,能夠大幅提升大型語言模型(LLM)的訓練速度,最高可達20倍,同時維持了模型的精確度。nGPT架構的核心在於將所有向量,包括嵌入、多層感知機(MLP)、注意力矩陣和隱藏狀態,歸一化為單位範數。這種歸一化處理使得輸入的token在超球面表面上移動,每一層模型都透過位移來貢獻最終的輸出預測。
maxresdefault (10).jpg

實驗結果表明nGPT在訓練時所需的步驟比標準Transformer模型減少了4到20倍,這加速效果取決於序列長度。例如在1k上下文中,訓練速度提高了4倍;在4k上下文中提高了10倍;而在8k上下文中更是提高了20倍。

研究人員指出nGPT的最佳化路徑從超球面上的點開始,透過位移來貢獻最終的輸出預測,其中位移量由MLP和注意力模組定義。這種方法不僅提高了訓練速度,也增強了模型的穩定性。

消息來源

您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2024-11-21 22:20 , Processed in 0.110247 second(s), 33 queries .

專業網站主機規劃 威利 100HUB.COM

© 2001-2018

快速回復 返回頂部 返回列表