找回密碼註冊
作者: sxs112.tw
查看: 2956
回復: 0

文章分享:

+ MORE精選文章:

    + MORE活動推薦:

    SAMSUNG T7 Shield 移動固態硬碟

    [*]超快的移動固態硬碟,比傳統外接 HDD 快 9.5 倍 [*]堅固的儲存 ...

    GEX PRO 850W玩家開箱體驗分享活動

    卓越性能,超值選擇 GEX PRO 系列通過 80 PLUS 金牌認證,實現高達 ...

    體驗極速WiFi 7!MSI Roamii BE Lite Mesh

    第一名 guanrung1110 https://www.xfastest.com/thread-293988-1- ...

    極致效能 為遊戲而生 990 PRO SSD 玩家體驗

    [*]極致效能固態硬碟 [*]PCIe 4.0 速度大幅提升 [*]優化的電源效率 ...

    打印 上一主題 下一主題

    [軟體遊戲] 有望改寫AI未來! NVIDIA全新nGPT使訓練速度暴增20倍

    [複製鏈接]| 回復
    跳轉到指定樓層
    1#
    sxs112.tw 發表於 2024-10-20 20:14:26 | 只看該作者 |只看大圖 回帖獎勵 |倒序瀏覽 |閱讀模式
    根據媒體報導NVIDIA的最新研究可能徹底改變AI的未來,其研究團隊提出了一種名為歸一化Transformer(nGPT)的新型神經網路架構。

    此架構在超球面(hypersphere)上進行表示學習,能夠大幅提升大型語言模型(LLM)的訓練速度,最高可達20倍,同時維持了模型的精確度。nGPT架構的核心在於將所有向量,包括嵌入、多層感知機(MLP)、注意力矩陣和隱藏狀態,歸一化為單位範數。這種歸一化處理使得輸入的token在超球面表面上移動,每一層模型都透過位移來貢獻最終的輸出預測。
    maxresdefault (10).jpg

    實驗結果表明nGPT在訓練時所需的步驟比標準Transformer模型減少了4到20倍,這加速效果取決於序列長度。例如在1k上下文中,訓練速度提高了4倍;在4k上下文中提高了10倍;而在8k上下文中更是提高了20倍。

    研究人員指出nGPT的最佳化路徑從超球面上的點開始,透過位移來貢獻最終的輸出預測,其中位移量由MLP和注意力模組定義。這種方法不僅提高了訓練速度,也增強了模型的穩定性。

    消息來源

    您需要登錄後才可以回帖 登錄 | 註冊 |

    本版積分規則

    小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

    GMT+8, 2024-12-22 15:09 , Processed in 0.097716 second(s), 33 queries .

    專業網站主機規劃 威利 100HUB.COM

    © 2001-2018

    快速回復 返回頂部 返回列表