找回密碼註冊
作者: lin.sinchen
查看: 3418
回復: 0

文章分享:

+ MORE精選文章:

+ MORE活動推薦:

極致效能 為遊戲而生 990 PRO SSD 玩家體驗

[*]極致效能固態硬碟 [*]PCIe 4.0 速度大幅提升 [*]優化的電源效率 ...

Micron Crucial PRO D5 6400超頻版 玩家開

解銷更快的遊戲速度! 利用低延遲遊戲記憶體的強大功能 利用 Cruci ...

O11 VISION COMPACT 玩家開箱體驗分享活動

迷你身形 三面透視打造精緻PC視野新境界O11 VISION COMPACT 強強聯合 ...

2024 三星SD記憶卡 玩家開箱體驗分享活動

2024 PRO Plus SD 記憶卡 [*]為專業人士打造 [*]釋放極限速度 [*]多 ...

打印 上一主題 下一主題

[業界新聞] ServiceNow、Hugging Face 和 NVIDIA 共同推出全新開放式大型語言模型 StarCoder2

[複製鏈接]| 回復
跳轉到指定樓層
1#


ServiceNow、Hugging Face 和 NVIDIA 今天宣布推出 StarCoder2,這是一系列開放存取的大型語言模型,用於程式碼生成,為效能、透明度和成本效益方面設立了新標準。

StarCoder2 是與 BigCode 社群合作開發,該社群由 ServiceNowHugging Face管理,ServiceNow 是領先的數位工作流程公司,致力於讓全球工作變得更加順暢,而 Hugging Face 則是最常用的開源平台,機器學習社群在該平台上共同協作開發模型、資料集和應用。

StarCoder2 經過 619 種程式語言的訓練,可以進一步在企業應用中進行訓練和嵌入,執行特定任務,例如應用原始程式碼生成、工作流程生成、文章摘要等等。開發人員可以利用其程式碼自動完成、先進程式碼摘要、程式碼片段擷取等功能,加速創新並提高生產力。

StarCoder2 提供三種模型大小:由 ServiceNow 訓練的 30 億參數模型;Hugging Face 訓練的 70 億參數模型;以及由 NVIDIA 使用 NVIDIA NeMo構建並在 NVIDIA 加速基礎設施上進行訓練的 150 億參數模型。較小的變體在提供強大效能的同時,也節省了運算成本,因為較少的參數在推論過程中需要更少的運算。事實上,新的 30 億參數模型與原始 StarCoder 的 150 億參數模型的效能相當。


StarCoder2 模型增強客製化應用開發

StarCoder2 模型採用最先進的架構,並使用來自 BigCode 精心整合的資料源,優先考慮透明度和開放治理,以實現大規模負責任的創新。

StarCoder2 提升了未來AI驅動的程式碼應用潛力,包括從文字轉程式碼和文字轉工作流程等功能。透過更廣泛、更深入的程式設計訓練,它為儲存庫提供上下文,從而實現準確且由情境感知的預測行為。這些先進功能也適用於經驗豐富的軟體工程師和公民開發者,加速商業價值和數位轉型。

StarCoder2 的基礎是一個名為 Stack v2的新程式碼資料集,它比 Stack v1 大 7 倍以上。除了先進資料集之外,新的訓練技術還可以幫助模型理解低資源程式語言(例如 COBOL)、數學和程式原始碼討論。


利用特定業務資料微調進階功能

使用者可以使用 NVIDIA NeMo 或 Hugging FaceTRL等開源工具,根據產業或組織特定的資料對開放式的 StarCoder2 模型進行微調。他們可以創建先進聊天機器人來處理更複雜的摘要或分類任務,開發個人化的程式設計助手來快速輕鬆地完成程式設計任務,檢索相關程式碼片段,並啟用文字轉工作流程的功能。

組織已經開始微調 StarCoder 基礎模型,為其業務創建專門的任務特定功能。

ServiceNow的文字轉程式碼 Now LLM 建置在具有 150 億參數的 StarCoder 大型語言模型的專門版本上,並針對其工作流程模式、用例和流程進行微調和訓練。Hugging Face 也使用該模型創建 StarChat 助手。


BigCode促進AI領域的開放科學合作

BigCode 代表了由 Hugging Face 和 ServiceNow 領導的開放式科學合作,致力於負責任地開發用於程式碼的大型語言模型。

BigCode 社群透過工作小組和任務小組積極參與 StarCoder2 計畫的技術工作,利用 ServiceNow 的 Fast LLM 框架訓練 30 億參數模型、Hugging Face 的 nanotron 框架訓練 70 億參數模型,以及 NVIDIA NeMo 雲原生框架和 NVIDIA TensorRT-LLM 軟體來訓練和最佳化150億參數模型。

促進負責任的創新是 BigCode的核心宗旨,BigCode 開放治理、透明供應鏈、開源軟體的使用,以及開發人員具備從訓練中排除特定資料的能力都體現了這一點。StarCoder2 是在 Inria託管的 Software Heritage數位共享授權下使用來源可靠的資料進行建構。

StarCoder2 與其前身都在 BigCode Open RAIL-M 許可下提供,允許免版稅存取和使用。為了進一步促進透明度和協作,該模型的支援程式碼將繼續存放在 BigCode 專案的 GitHub 頁面上。

所有 StarCoder2 模型也可從 Hugging Face 下載,且 StarCoder2 的 150 億參數模型可在 NVIDIA AI Foundation 模型上獲得,供開發人員直接從瀏覽器或透過API端點進行實驗。

欲了解更多有關 StarCoder2 的相關訊息,請參考:https://huggingface.co/bigcode
更多圖片 小圖 大圖
組圖打開中,請稍候......
您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2024-11-14 14:27 , Processed in 0.165572 second(s), 67 queries .

專業網站主機規劃 威利 100HUB.COM

© 2001-2018

快速回復 返回頂部 返回列表