近日,AMD在Huggingface平臺上正式推出了自家首款“小語言模型”——AMD-Llama-135m。這款模型以其獨特的推測解碼功能,吸引了業(yè)界的廣泛關(guān)注。
AMD-Llama-135m模型擁有6700億個token,并采用了Apache 2.0開源許可,為用戶提供了更多的靈活性和自由度。據(jù)AMD介紹,該模型主打“推測解碼”能力,這一功能的基本原理是通過使用一個小型草稿模型來生成一組候選token,然后由更大的目標(biāo)模型對這些候選token進(jìn)行驗證。這種方法不僅能夠確保生成的token的準(zhǔn)確性和可靠性,而且允許每次前向傳遞生成多個token,從而顯著提高了效率。
與傳統(tǒng)的AI模型相比,AMD-Llama-135m在RAM占用方面也有了顯著的優(yōu)化。由于采用了推測解碼技術(shù),該模型能夠在不影響性能的前提下,減少RAM的占用,實現(xiàn)了更加高效的計算和存儲資源利用。
AMD-Llama-135m的發(fā)布,標(biāo)志著AMD在AI領(lǐng)域邁出了重要的一步。未來,AMD將繼續(xù)致力于AI技術(shù)的研發(fā)和創(chuàng)新,為全球用戶提供更加智能、高效和可靠的解決方案。
-
amd
+關(guān)注
關(guān)注
25文章
5669瀏覽量
139431 -
AI
+關(guān)注
關(guān)注
91文章
39117瀏覽量
299707 -
模型
+關(guān)注
關(guān)注
1文章
3692瀏覽量
51948
發(fā)布評論請先 登錄
【CIE全國RISC-V創(chuàng)新應(yīng)用大賽】基于 K1 AI CPU 的大模型部署落地
AMD Vitis AI 5.1測試版現(xiàn)已開放下載
AMD Vitis AI 5.1測試版發(fā)布
皓麗全球首款四攝AI會議平板:AI全視之眼 + AI智會大模型雙加持
深蘭科技發(fā)布全球首款兒童心理健康AI陪伴玩偶產(chǎn)品
使用 NPU 插件對量化的 Llama 3.1 8b 模型進(jìn)行推理時出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯誤”,怎么解決?
首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手
人民網(wǎng)發(fā)布首款智能硬件AI之眼
銷售易在騰訊云城市峰會上發(fā)布中國首款AI CRM
無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?
K1 AI CPU基于llama.cpp與Ollama的大模型部署實踐
AMD發(fā)布首款小語言AI模型Llama-135m
評論