chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

硬件與應(yīng)用同頻共振,英特爾Day 0適配騰訊開源混元大模型

科技數(shù)碼 ? 來源:科技數(shù)碼 ? 作者:科技數(shù)碼 ? 2025-08-07 14:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今日,騰訊正式發(fā)布新一代混元開源大語言模型。英特爾憑借在人工智能領(lǐng)域的全棧技術(shù)布局,現(xiàn)已在英特爾? 酷睿? Ultra 平臺上完成針對該模型的第零日(Day 0)部署與性能優(yōu)化。值得一提的是, 依托于OpenVINO? 構(gòu)建的 AI 軟件平臺的可擴(kuò)展性,英特爾助力ISV生態(tài)伙伴率先實(shí)現(xiàn)應(yīng)用端Day 0 模型適配,大幅加速了新模型的落地進(jìn)程,彰顯了 “硬件 + 模型 + 生態(tài)” 協(xié)同的強(qiáng)大爆發(fā)力。

wKgZPGiUSruAOuHGAAPmi2Pxqdg127.png

混元新模型登場:多維度突破,酷睿Ultra平臺Day0適配

騰訊混元宣布開源四款小尺寸模型,參數(shù)分別為 0.5B、1.8B、4B、7B,消費(fèi)級顯卡即可運(yùn)行,適用于筆記本電腦、手機(jī)、智能座艙、智能家居等低功耗場景。新開源的4 個(gè)模型均屬于融合推理模型,具備推理速度快、性價(jià)比高的特點(diǎn),用戶可根據(jù)使用場景靈活選擇模型思考模式——快思考模式提供簡潔、高效的輸出;而慢思考涉及解決復(fù)雜問題,具備更全面的推理步驟。

這些模型已在英特爾酷睿 Ultra 平臺實(shí)現(xiàn)全面適配,其在 CPU、GPU、NPU 三大 AI 運(yùn)算引擎上都展現(xiàn)了卓越的推理性能表現(xiàn)1。以酷睿 Ultra 2 代 iGPU 平臺為例,7B 參數(shù)量模型在 INT4 精度下,吞吐量達(dá) 20.93token/s;0.5B 小尺寸模型在 FP16 精度下吞吐量達(dá) 68.92token/s。值得一提的是,英特爾對新模型的 NPU 第零日支持已形成常態(tài)化能力,為不同參數(shù)量模型匹配精準(zhǔn)硬件方案,滿足從個(gè)人終端到邊緣設(shè)備的多樣化需求。

wKgZO2iUSruASarhAAL0-Jy-mDg403.png

OpenVINO:新模型快速落地的“關(guān)鍵引擎”

作為英特爾推出的開源深度學(xué)習(xí)工具套件,OpenVINO 以 “性能優(yōu)化 + 跨平臺部署” 為核心優(yōu)勢,可充分釋放英特爾硬件資源潛力,廣泛應(yīng)用于 AI PC、邊緣 AI 等場景。其核心價(jià)值在于能將深度學(xué)習(xí)模型的推理性能最大化,同時(shí)實(shí)現(xiàn)跨 CPU、GPU、NPU 等異構(gòu)硬件的無縫部署。

目前,OpenVINO已支持超過 900 個(gè)人工智能模型,涵蓋生成式 AI 領(lǐng)域主流模型結(jié)構(gòu)與算子庫。這樣的模型支持體系,使其能在新模型發(fā)布的Day 0,即完成英特爾硬件平臺的適配部署。此次混元模型的快速落地,正是 OpenVINO 技術(shù)實(shí)力的直接體現(xiàn) —— 通過其優(yōu)化能力,混元模型在酷睿 Ultra 平臺的性能得到充分釋放,為用戶帶來即發(fā)即用的 AI 體驗(yàn)。

生態(tài)共創(chuàng):AI技術(shù)到應(yīng)用的“最后一公里”加速

生態(tài)合作是英特爾 AI 戰(zhàn)略的核心支柱,驅(qū)動人生作為其長期合作伙伴,專注于互聯(lián)網(wǎng)客戶端軟件研發(fā)及運(yùn)營,本著“以用戶為中心,以技術(shù)為根本,以開放為原則”的理念,長期致力于技術(shù)研發(fā)和技術(shù)創(chuàng)新,為用戶提供優(yōu)質(zhì)的服務(wù)。其 AIGC 助手軟件,實(shí)現(xiàn)本地部署,離線使用,支持文字輸入、語音轉(zhuǎn)譯,將大模型裝進(jìn)背包,可隨時(shí)隨地與它進(jìn)行智能對話,還能讓它幫忙解讀文檔,編撰方案。

該應(yīng)用采用 OpenVINO推理框架,借助其快速適配能力,在混元模型發(fā)布當(dāng)日即完成應(yīng)用層適配,成為首批支持新模型的應(yīng)用之一。

目前,驅(qū)動人生 AIGC 助手、英特爾AIPC應(yīng)用專區(qū)和多家OEM 應(yīng)用商店的 AI PC專區(qū)均已上線,搭載混元模型的新版本也將在近期推出,用戶可第一時(shí)間體驗(yàn)更智能的交互與服務(wù)。這種 “模型發(fā)布 - 硬件適配 - 應(yīng)用落地” 的全鏈條第零日響應(yīng),正是英特爾生態(tài)協(xié)同能力的生動寫照。

AI 的發(fā)展離不開模型創(chuàng)新與軟硬件生態(tài)協(xié)同 —— 模型如同燃料,生態(tài)則是驅(qū)動前進(jìn)的引擎。英特爾通過硬件平臺、軟件工具與生態(tài)網(wǎng)絡(luò)的深度協(xié)同,實(shí)現(xiàn)對新模型的第零日適配,不僅加速了技術(shù)到應(yīng)用的轉(zhuǎn)化,更推動著整個(gè) AI 產(chǎn)業(yè)的高效創(chuàng)新。未來,英特爾將持續(xù)深化與合作伙伴的協(xié)同,讓 AI 創(chuàng)新更快走進(jìn)千行百業(yè)與大眾生活。

快速上手指南

第一步,環(huán)境準(zhǔn)備

通過以下命令可以搭建基于Python的模型部署環(huán)境。

wKgZPGiUSryAAd2RAAKux0bLujo206.png

該示例在以下環(huán)境中已得到驗(yàn)證:

硬件環(huán)境:

Intel? Core? Ultra 7 258V

iGPU Driver:32.0.101.6972

NPU Driver:32.0.100.4181

Memory: 32GB

操作系統(tǒng)

Windows 11 24H2 (26100.4061)

OpenVINO版本:

openvino 2025.2.0

openvino-genai 2025.2.0.0

openvino-tokenizers 2025.2.0.0

Transformers版本:

https://github.com/huggingface/transformers@4970b23cedaf745f963779b4eae68da281e8c6ca

第二步,模型下載和轉(zhuǎn)換

在部署模型之前,我們首先需要將原始的PyTorch模型轉(zhuǎn)換為OpenVINOTM的IR靜態(tài)圖格式,并對其進(jìn)行壓縮,以實(shí)現(xiàn)更輕量化的部署和最佳的性能表現(xiàn)。通過Optimum提供的命令行工具optimum-cli,我們可以一鍵完成模型的格式轉(zhuǎn)換和權(quán)重量化任務(wù):

wKgZO2iUSryATn_FAACoK78L0mI507.png

開發(fā)者可以根據(jù)模型的輸出結(jié)果,調(diào)整其中的量化參數(shù),包括:

--model:為模型在HuggingFace上的model id,這里我們也提前下載原始模型,并將model id替換為原始模型的本地路徑,針對國內(nèi)開發(fā)者,推薦使用ModelScope魔搭社區(qū)作為原始模型的下載渠道,具體加載方式可以參考ModelScope官方指南:https://www.modelscope.cn/docs/models/download

--weight-format:量化精度,可以選擇fp32,fp16,int8,int4,int4_sym_g128,int4_asym_g128,int4_sym_g64,int4_asym_g64

--group-size:權(quán)重里共享量化參數(shù)的通道數(shù)量

--ratio:int4/int8權(quán)重比例,默認(rèn)為1.0,0.6表示60%的權(quán)重以int4表,40%以int8表示

--sym:是否開啟對稱量化

此外我們建議使用以下參數(shù)對運(yùn)行在NPU上的模型進(jìn)行量化,以達(dá)到性能和精度的平衡。

wKgZPGiUSr2AadW7AACpjuc5KGg927.png

這里的--backup-precision是指混合量化精度中,8bit參數(shù)的量化策略。

第三步,模型部署

目前我們推薦是用openvino-genai來部署大語言以及生成式AI任務(wù),它同時(shí)支持Python和C++兩種編程語言,安裝容量不到200MB,支持流式輸出以及多種采樣策略。

GenAI API部署示例

wKgZO2iUSr2AD57AAAq6IUQK--c486.png

其中,'model_dir'為OpenVINOTM IR格式的模型文件夾路徑,'device'為模型部署設(shè)備,支持CPU,GPU以及NPU。此外,openvino-genai提供了chat模式的構(gòu)建方法,通過聲明pipe.start_chat()以及pipe.finish_chat(),多輪聊天中的歷史數(shù)據(jù)將被以kvcache的形態(tài),在內(nèi)存中進(jìn)行管理,從而提升運(yùn)行效率。

開發(fā)者可以通過該該示例的中方法調(diào)整chat template,以關(guān)閉和開啟thinking模式,具體方式可以參考官方文檔(https://huggingface.co/tencent/Hunyuan-4B-Instruct)。由于目前OpenVINOTM Tokenizer還沒有完全支持Hunyuan-7B-Instruct模型默認(rèn)的chat template格式,因此我們需要手動替換原始的chat template,對其進(jìn)行簡化,具體方法如下:

wKgZPGiUSr6APK9lAAUh4VZDeO0463.png

chat模式輸出結(jié)果示例:

wKgZO2iUSr6AN5JbAAhZDDvz6u4139.png

關(guān)于該示例的后續(xù)更新,可以關(guān)注OpenVINO notebooks倉庫:https://github.com/openvinotoolkit/openvino_notebooks/tree/latest/notebooks/llm-chatbot

驅(qū)動人生應(yīng)用獲取方式:

驅(qū)動人生 AIGC 助手(https://www.160.com/aigc/index.html)

英特爾AIPC應(yīng)用專區(qū)(intel.cn/aipc)

1.通過使用 OpenVINO 框架版本 2025.2.0 在 英特爾? 酷睿? Ultra 7 258V 和 英特爾? 酷睿? Ultra 9 285H 上進(jìn)行測試獲得了性能數(shù)據(jù),計(jì)算過程發(fā)生在 iGPU 或 NPU 上。測試評估了首 Token 的延遲以及在 int4-mixed、int4-mixed-cw-sym 和 fp16 精度設(shè)置下 1K 輸入的平均吞吐量。每項(xiàng)測試在預(yù)熱階段后執(zhí)行三次,并選擇平均值作為報(bào)告數(shù)據(jù)。

性能因使用方式、配置和其他因素而異。請?jiān)L問www.Intel.com/PerformanceIndex了解更多信息。

性能結(jié)果基于測試時(shí)的配置狀態(tài),可能未反映所有公開可用的更新內(nèi)容。請參閱相關(guān)文檔以獲取配置詳情。沒有任何產(chǎn)品或組件能夠保證絕對安全。

您的實(shí)際成本和結(jié)果可能會有所不同。

相關(guān)英特爾技術(shù)可能需要啟用相關(guān)硬件、軟件或激活服務(wù)。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10243

    瀏覽量

    178032
  • 人工智能
    +關(guān)注

    關(guān)注

    1811

    文章

    49488

    瀏覽量

    258018
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3348

    瀏覽量

    4695
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Arm率先適配騰訊開源模型,助力端側(cè)AI創(chuàng)新開發(fā)

    本周初,騰訊宣布開源四款小尺寸模型(參數(shù)分別為 0.5B、1.8B、4B、7B),可無縫運(yùn)行于消費(fèi)級顯卡上。作為全球應(yīng)用范圍最為廣泛的計(jì)
    的頭像 發(fā)表于 08-08 09:16 ?1013次閱讀
    Arm率先<b class='flag-5'>適配</b><b class='flag-5'>騰訊</b><b class='flag-5'>混</b><b class='flag-5'>元</b><b class='flag-5'>開源</b><b class='flag-5'>模型</b>,助力端側(cè)AI創(chuàng)新開發(fā)

    摩爾線程率先支持騰訊-A13B模型

    近日,騰訊正式開源基于專家混合(MoE)架構(gòu)的大語言模型-A13B。同日,摩爾線程團(tuán)隊(duì)?wèi){借技術(shù)前瞻性,率先完成該
    的頭像 發(fā)表于 07-04 14:10 ?542次閱讀

    請問OpenVINO?工具套件英特爾?Distribution是否與Windows? 10物聯(lián)網(wǎng)企業(yè)版兼容?

    無法在基于 Windows? 10 物聯(lián)網(wǎng)企業(yè)版的目標(biāo)系統(tǒng)上使用 英特爾? Distribution OpenVINO? 2021* 版本推斷模型
    發(fā)表于 03-05 08:32

    騰訊元寶升級:深度思考模型騰訊T1”全量上線

    近日,騰訊元寶迎來了又一次重要更新,深度思考模型騰訊T1”已全面上線。此次更新不僅進(jìn)一步豐富了騰訊
    的頭像 發(fā)表于 02-20 09:12 ?941次閱讀

    騰訊3D AI創(chuàng)作引擎正式發(fā)布

    近日,騰訊公司宣布其自主研發(fā)的3D AI創(chuàng)作引擎已正式上線。這一創(chuàng)新性的創(chuàng)作工具將為用戶帶來前所未有的3D內(nèi)容創(chuàng)作體驗(yàn),標(biāo)志著騰訊在AI技術(shù)領(lǐng)域的又一重大突破。
    的頭像 發(fā)表于 01-23 10:33 ?835次閱讀

    騰訊3D AI創(chuàng)作引擎正式上線

    近日,騰訊公司宣布其自主研發(fā)的3D AI創(chuàng)作引擎已正式上線。這一創(chuàng)新性的創(chuàng)作工具,標(biāo)志著騰訊在3D內(nèi)容生成領(lǐng)域邁出了重要一步。
    的頭像 發(fā)表于 01-22 10:26 ?809次閱讀

    英特爾2024產(chǎn)品年鑒:AI與軟硬件的融合發(fā)展

    在2024年里,英特爾收獲了一系列軟件突破和硬件革新,也收獲了生態(tài)伙伴的支持與陪伴。通過不斷迭代的硬件產(chǎn)品,和持續(xù)開放的軟件生態(tài),從數(shù)據(jù)中心和云,到邊緣計(jì)算和PC的每一個(gè)角落,英特爾
    的頭像 發(fā)表于 12-31 17:28 ?591次閱讀
    <b class='flag-5'>英特爾</b>2024產(chǎn)品年鑒:AI與軟<b class='flag-5'>硬件</b>的融合發(fā)展

    騰訊模型開源成績斐然,GitHub Star數(shù)近1.4萬

    近日,在2024年12月24日舉辦的開放原子開發(fā)者大會暨首屆開源技術(shù)學(xué)術(shù)大會上,騰訊云副總裁、騰訊
    的頭像 發(fā)表于 12-26 10:30 ?931次閱讀

    騰訊文生圖登頂智源FlagEval評測榜首

    榜首。 FlagEval作為智源研究院推出的大模型評測體系及開放平臺,一直致力于評估基礎(chǔ)模型及訓(xùn)練算法的性能。此次評測范圍涵蓋了國內(nèi)外100余個(gè)開源和商業(yè)閉源模型,
    的頭像 發(fā)表于 12-25 10:06 ?1079次閱讀

    使用英特爾AI PC為YOLO模型訓(xùn)練加速

    之后,情況有了新的變化,PyTorch2.5正式開始支持英特爾顯卡,也就是說,此后我們能夠借助英特爾 銳炫 顯卡來進(jìn)行模型訓(xùn)練了。
    的頭像 發(fā)表于 12-09 16:14 ?1927次閱讀
    使用<b class='flag-5'>英特爾</b>AI PC為YOLO<b class='flag-5'>模型</b>訓(xùn)練加速

    騰訊模型上線并開源文生視頻能力

    近日,騰訊宣布其模型正式上線,并開源了一項(xiàng)令人矚目的能力——文生視頻。該大模型參數(shù)量高達(dá)1
    的頭像 發(fā)表于 12-04 14:06 ?716次閱讀

    騰訊Large模型及云TI平臺全新上線

    近日,騰訊團(tuán)隊(duì)最新推出的MoE模型Large”已正式
    的頭像 發(fā)表于 11-08 11:03 ?1058次閱讀

    高通與騰訊達(dá)成戰(zhàn)略合作

    驍龍峰會期間,高通技術(shù)公司宣布與騰訊合作,基于驍龍8至尊版移動平臺,共同推動了騰訊
    的頭像 發(fā)表于 11-08 09:52 ?1152次閱讀

    使用PyTorch在英特爾獨(dú)立顯卡上訓(xùn)練模型

    《PyTorch 2.5重磅更新:性能優(yōu)化+新特性》中的一個(gè)新特性就是:正式支持在英特爾獨(dú)立顯卡上訓(xùn)練模型!
    的頭像 發(fā)表于 11-01 14:21 ?2644次閱讀
    使用PyTorch在<b class='flag-5'>英特爾</b>獨(dú)立顯卡上訓(xùn)練<b class='flag-5'>模型</b>

    剛剛!英特爾最新回應(yīng)

    10月17日消息,據(jù)環(huán)球時(shí)報(bào)報(bào)道,中國網(wǎng)絡(luò)空間安全協(xié)會發(fā)文,披露英特爾產(chǎn)品安全漏洞問題發(fā)、可靠性差、監(jiān)控用戶、暗設(shè)后門等問題,“建議啟動網(wǎng)絡(luò)安全審查”! 該協(xié)會表示,從2023年開始,英特爾CPU
    的頭像 發(fā)表于 10-17 17:35 ?787次閱讀
    剛剛!<b class='flag-5'>英特爾</b>最新回應(yīng)