近期,英偉達與Hugging Face及ServiceNow攜手推出新品StarCoder2系列LLMs模型,致力于在代碼生成領(lǐng)域建立新的行業(yè)標桿,憑借諸多優(yōu)勢凸顯性能、透明度以及經(jīng)濟性。
此系列共包含三款模型,其中ServiceNow負責訓練的30億參數(shù)模型、Hugging Face訓練的70億參數(shù)模型以及英偉達訓練的150億參數(shù)模型。
新一代模型得以實現(xiàn),借助Stack v2代碼集,該數(shù)據(jù)集容量是上一代Stack v1的7倍之多。此外,創(chuàng)新性的訓練技術(shù)使其能夠更精準地解析低資源編程語言、數(shù)學和程序源代碼討論等內(nèi)容。
經(jīng)過619門編程語言的訓練后,StarCoder2支持多種專業(yè)任務,例如源代碼生成、工作流創(chuàng)建以及文本摘要等。英偉達承諾,開發(fā)者可借此進行代碼填充、高層次代碼摘要以及代碼片段搜索等操作,以提升工作效率。
相比初版StarCoder LLM,這款30億參數(shù)的最新模型對優(yōu)質(zhì)參數(shù)進行了更為精確的篩選,性能相當于初版150億參數(shù)模型的StarCoder。
特別值得關(guān)注的是,StarCoder2特許使用BigCode Open RAIL-M許可證,無需支付任何版權(quán)費用即可享受使用權(quán)。IT之家建議有需用戶前往BigCode項目GitHub頁面下載源代碼,同時亦可在Hugging Face獲取模型信息。
-
編程語言
+關(guān)注
關(guān)注
10文章
1959瀏覽量
38915 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1230瀏覽量
26046 -
英偉達
+關(guān)注
關(guān)注
23文章
4040瀏覽量
97673
發(fā)布評論請先 登錄
NVIDIA新聞:英偉達10億美元入股諾基亞 英偉達推出全新量子設備
基于米爾瑞芯微RK3576開發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評測
芯華章攜手EDA國創(chuàng)中心推出數(shù)字芯片驗證大模型ChatDV
小白學大模型:從零實現(xiàn) LLM語言模型
詳解 LLM 推理模型的現(xiàn)狀
英偉達Cosmos-Reason1 模型深度解讀
IBM攜手英偉達AI數(shù)據(jù)平臺推動企業(yè)級AI創(chuàng)新
無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?
英偉達市值一夜蒸發(fā)近2萬億 英偉達股價下跌超8%
GMI Cloud推出基于英偉達H200的DeepSeek系列模型
英偉達帶來Reflex 2低延遲技術(shù)
英偉達推出基石世界模型Cosmos,解決智駕與機器人具身智能訓練數(shù)據(jù)問題

英偉達聯(lián)手推出StarCoder2 LLM系列模型,成代碼生成領(lǐng)域新標桿
評論