針對如何幫助全球開發(fā)者獲取優(yōu)質(zhì)代碼輔助工具,谷歌近來發(fā)布新型 CodeGemma 先進大語言模型(LLMs)以期實現(xiàn)這一愿景。
這款新品是基于 Gemma 模型推出的開源版,經(jīng)過深度優(yōu)化及精細調(diào)整,專攻代碼開發(fā)領域。其有三種類型的模型供選擇:
20 億參數(shù)的基本模型:以優(yōu)化彌補以及生成代碼為主,追求速度與保密性的平衡,呈獻給我們高速而有效的代碼處理方式;
70 億參數(shù)基本模型:融入代碼彌補與自然語言處理技術,提升了代碼完成效率和語言生成識別技能;
70 億參數(shù)模型:此款模型立足于指導追蹤,響應開發(fā)者對于對問題求解或者注釋渴求。
此外,CodeGemma 還充分運用了預設的 Gemma 檢查點并訓練了超過 50000 億個英語、數(shù)學以及各類編碼語言詞匯塊,其卓越的邏輯和數(shù)學推理性能,成為了代碼生成與完成的新標準。
值得一提的是,70 億參數(shù)模型在眾多編程語言如Python、Java、JavaScript及C++中的表現(xiàn)都堪稱優(yōu)秀。HumanEval及MultiPL-E標尺測驗以及GSM8K評估驗證了這一事實,且進一步展示了其卓越的功能便利性和效用價值。
-
谷歌
+關注
關注
27文章
6246瀏覽量
110327 -
語言模型
+關注
關注
0文章
570瀏覽量
11265 -
python
+關注
關注
57文章
4860瀏覽量
89647
發(fā)布評論請先 登錄
谷歌與耶魯大學合作發(fā)布最新C2S-Scale 27B模型
谷歌AI模型點亮開發(fā)無限可能
HarmonyOS AI輔助編程工具(CodeGenie)代碼續(xù)寫
歐洲借助NVIDIA Nemotron優(yōu)化主權大語言模型
小白學大模型:從零實現(xiàn) LLM語言模型
百度發(fā)布文心大模型4.5和文心大模型X1
大語言模型的解碼策略與關鍵優(yōu)化總結
了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應用選擇
【「基于大模型的RAG應用開發(fā)與優(yōu)化」閱讀體驗】+Embedding技術解讀
安霸發(fā)布N1-655前端生成式AI芯片
望獲實時Linux系統(tǒng)與大語言模型深度融合,開創(chuàng)實時智能無限可能!
借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

谷歌發(fā)布CodeGemma大語言模型,優(yōu)化代碼生成及理解
評論