NVIDIA (輝達) 今天宣布 Facebook 將使用 NVIDIA Tesla 加速運算平台驅動其新一代的運算系統,實現更廣泛的機器學習應用。
即使運用最快的電腦訓練複雜深度神經網路指揮機器學習往往都需耗上數天甚至數星期,但 Tesla 平台能大幅減少 10 至 20 倍的時間,讓開發者們能更快地創新並訓練更為繁雜的網路,並提供消費者更好的功能。
Facebook 是第一個採用上個月發佈的 NVIDIA Tesla M40 GPU 加速器 來訓練深度神經網路的公司。這些加速器將在 Facebook 人工智慧研究團隊 (Facebook AI Research;FAIR) 針對神經網路訓練所設計的全新專用系統 Big Sur 運算平台扮演要角。
NVIDIA 加速運算部門副總裁 Ian Buck 表示:「深度學習在運算領域已經邁進新的世代。拜巨量資料和強而有力的 GPU 所賜,深度學習演算法將能解決過去不可能的問題,帶給網路服務、零售、建康管理到汽車等龐大的產業革命性的轉變。我們非常高興 NVIDIA 的 GPU 被採納為深度學習的引擎,我們的目標是提供研究人員和企業最具產能的平台來推動這項令人興奮的工程。」
除了能減少訓練神經網路的時間外,GPU 亦提供了其它多項優勢。GPU 各世代的架構相容性讓未來 GPU 升級時提供了無縫的速度提升。而全球採用Tesla 平台的設備不斷成長亦開啟了全世界研究者人員合作的大門,引發機器學習領域新一波探索與創新的浪潮。
Big Sur 優化了機器學習
NVIDIA 與 Facebook 的工程師們共同優化 Big Sur 的設計以提供最大化的機器學習作業負載,包括經由多顆 Tesla GPU 進行大量神經網路訓練。 Big Sur 比 Facebook 現行使用的系統快兩倍,這也將能加倍神經網路訓練的數量,幫助發展更為精確的模組與更多種類的進階應用。
FAIR 工程總監 Serkan Piantino 表示:「解開發展更高智能機器所需知識的關鍵取決於運算系統的效能。過去幾年內絕大部分在機器學習和 AI 上的重要進展往往伴隨了強大的 GPU 和用以訓練與建立進階模組的大量資料。」
有Tesla M40 GPU 的加入將幫助 Facebook 在機器學習研究上大幅躍進,並讓組織內所有團隊能在多項產品和服務上運用深度神經網路。
首項開放原始碼的 AI 運算架構
針對機器學習和人工智慧 (artificial intelligence;AI) 研究所特別設計的Big Sur運算系統將首次作為開放原始碼方案推出。
Facebook 為實踐開放 AI 作業以及與社群分享其相關發現的承諾,期望透過Open Compute Project 與合作夥伴協力於 Big Sur開放原始碼標準。這項特別作法將讓全世界的 AI 研究人員更能輕易地分享與改進他們的技術,也實現未來機器學習領域的任何創新皆能運用 GPU 強大的加速運算。 |
組圖打開中,請稍候......
|