chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

恩智浦如何在邊緣設(shè)備上部署LLM

NXP客棧 ? 來源:NXP客棧 ? 2024-11-29 09:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近來,與AI相關(guān)的周期性熱點(diǎn)幾乎都圍繞著大語言模型 (LLM) 和生成式AI模型,這樣的趨勢反映出這些話題近年來日益增強(qiáng)的影響力和普及程度。與大語言模型和生成式AI模型相關(guān)的應(yīng)用涵蓋了廣泛的領(lǐng)域,從開放式聊天機(jī)器人到任務(wù)型助手。雖然LLM主要聚焦基于云和服務(wù)器端的應(yīng)用,但人們對在嵌入式系統(tǒng)和邊緣設(shè)備中部署這些模型的興趣也在不斷增加。

嵌入式系統(tǒng) (如家用電器、工業(yè)設(shè)備、汽車等設(shè)備中的微處理器) 需要在成本和功耗受限的情況下,適應(yīng)有限的計算能力和內(nèi)存可用性。這使得在邊緣設(shè)備上部署高精度和高性能的語言模型極具挑戰(zhàn)性。

在邊緣設(shè)備上部署LLM

在嵌入式解決方案中,利用LLM的一個關(guān)鍵領(lǐng)域是操作員與機(jī)器之間的自然對話交互,即人機(jī)界面 (HMI)。

嵌入式系統(tǒng)可以簡化各種輸入選項(xiàng),如麥克風(fēng)、攝像頭或其他傳感器,但大多數(shù)系統(tǒng)不會像個人電腦、筆記本電腦和手機(jī)那樣,配備完整的鍵盤與LLM模型進(jìn)行交互。因此,嵌入式系統(tǒng)在使用音頻和視覺作為LLM輸入時,必須具備實(shí)用性。這需要一個自動語音識別 (ASR) 或圖像識別和分類的預(yù)處理模塊。

同樣,交互的輸出選項(xiàng)也有限。嵌入式解決方案能沒有屏幕,或者不方便用戶閱讀屏幕信息。因此,在生成式AI模型之后,需要一個后處理步驟,使用文本到語音 (TTS) 算法將模型輸出轉(zhuǎn)換為音頻。

恩智浦正在構(gòu)建eIQ GenAI Flow,通過添加必要的預(yù)處理和后處理模塊,使其成為一個模塊化流程,從而使邊緣生成式AI更加實(shí)用。

生成式AI正在改變嵌入式應(yīng)用。閱讀恩智浦關(guān)于檢索增強(qiáng)生成 (RAG) 的白皮書,了解這種方法如何簡化LLM的開發(fā)過程,點(diǎn)擊這里>>

通過LLM革新應(yīng)用

通過集成基于LLM的語音識別、自然語言理解和文本生成功能,嵌入式設(shè)備能夠提供更直觀和對話式的用戶體驗(yàn)。這包括響應(yīng)語音命令的智能家居設(shè)備、通過自然語言控制的工業(yè)機(jī)械,以及能夠進(jìn)行免提對話的汽車娛樂中控系統(tǒng),以指導(dǎo)用戶或操作車內(nèi)功能等。

LLM還在健康應(yīng)用中的嵌入式預(yù)測分析和決策支持系統(tǒng)中發(fā)揮作用。設(shè)備可以嵌入使用特定領(lǐng)域數(shù)據(jù)訓(xùn)練的語言模型,然后利用自然語言處理分析傳感器數(shù)據(jù)、識別模式并生成見解,同時在邊緣實(shí)時運(yùn)行并保護(hù)患者隱私,無需將數(shù)據(jù)發(fā)送到云端。

應(yīng)對生成式AI挑戰(zhàn)

在嵌入式環(huán)境中部署準(zhǔn)確且功能強(qiáng)大的生成式AI模型面臨許多挑戰(zhàn)。需要優(yōu)化模型的大小和內(nèi)存使用,使LLM能夠適應(yīng)目標(biāo)硬件的資源限制。具有數(shù)十億個參數(shù)的模型需要數(shù)千兆字節(jié)的存儲空間,而在邊緣系統(tǒng)中,這可能會帶來高成本且難以實(shí)現(xiàn)。量化和修剪等模型優(yōu)化技術(shù)不僅適用于卷積神經(jīng)網(wǎng)絡(luò),也適用于轉(zhuǎn)換器模型——這是生成式AI克服模型大小問題的重要方法。

像LLM這樣的生成式AI模型也有知識局限性。例如,它們的理解是有限的,通常會提供不一致的答案,也稱為“幻覺”(hallucination),而且它們的知識受限于訓(xùn)練數(shù)據(jù)的時效性。訓(xùn)練模型或通過再訓(xùn)練來微調(diào)模型可以提高準(zhǔn)確性和上下文感知,但這可能在數(shù)據(jù)收集和所需的訓(xùn)練計算方面花費(fèi)巨大。

幸運(yùn)的是,有需求就有創(chuàng)新;通過檢索增強(qiáng)生成 (RAG) 可以解決這個問題。RAG方法使用特定上下文數(shù)據(jù)創(chuàng)建知識數(shù)據(jù)庫,LLM可以在運(yùn)行時參考這些數(shù)據(jù)來準(zhǔn)確回答查詢。

eIQ GenAI Flow將生成式AI和LLM的優(yōu)勢以實(shí)用的方式應(yīng)用于邊緣場景。通過將RAG整合到該流程中,我們?yōu)榍度胧皆O(shè)備提供特定領(lǐng)域的知識,而不會將用戶數(shù)據(jù)暴露給原始AI模型的訓(xùn)練數(shù)據(jù)。這樣可以確保對LLM的任何更改都是私密的,并且僅在邊緣本地使用。

本文作者

Ali Ors,恩智浦半導(dǎo)體邊緣處理AI機(jī)器學(xué)習(xí)戰(zhàn)略技術(shù)主管。Ali專門負(fù)責(zé)領(lǐng)導(dǎo)各跨職能團(tuán)隊,為機(jī)器學(xué)習(xí)和視覺處理領(lǐng)域提供創(chuàng)新產(chǎn)品和平臺。他目前在恩智浦負(fù)責(zé)全球AI機(jī)器學(xué)習(xí)戰(zhàn)略和技術(shù)工作。Ali曾在恩智浦汽車業(yè)務(wù)部負(fù)責(zé)ADAS和自主產(chǎn)品的AI戰(zhàn)略、戰(zhàn)略伙伴關(guān)系和平臺設(shè)計。加入恩智浦之前,Ali曾擔(dān)任CogniVue公司的工程副總裁,負(fù)責(zé)開發(fā)視覺SoC解決方案和認(rèn)知處理器IP內(nèi)核。Ali持有加拿大渥太華卡爾頓大學(xué)的工程學(xué)學(xué)位。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 嵌入式
    +關(guān)注

    關(guān)注

    5209

    文章

    20640

    瀏覽量

    336893
  • 恩智浦
    +關(guān)注

    關(guān)注

    14

    文章

    6122

    瀏覽量

    153737
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    350

    瀏覽量

    1394
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    538

    瀏覽量

    1129

原文標(biāo)題:在嵌入式應(yīng)用中部署生成式AI,恩智浦有個好方法!

文章出處:【微信號:NXP客棧,微信公眾號:NXP客棧】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    發(fā)布全新i.MX 93W,融合邊緣計算與安全無線連接,加速物理AI部署

    首款將AI NPU與安全三頻無線連接集成于一體的應(yīng)用處理器,可用單一封裝取代多達(dá)60個分立元件 集成邊緣計算與安全連接,并輔以軟件及eIQ? AI工具支持,加速協(xié)同AI智能體的部署
    發(fā)表于 03-10 11:14 ?1617次閱讀
    <b class='flag-5'>恩</b>智<b class='flag-5'>浦</b>發(fā)布全新i.MX 93W,融合<b class='flag-5'>邊緣</b>計算與安全無線連接,加速物理AI<b class='flag-5'>部署</b>

    攜手COMPREDICT加速邊緣AI在汽車應(yīng)用落地

    攜手COMPREDICT將邊緣AI帶入汽車應(yīng)用領(lǐng)域,降低車輛物料清單 (BoM) 成本,助力汽車制造商與一級供應(yīng)商加速邁向更智能、軟件驅(qū)動出行的轉(zhuǎn)型。
    的頭像 發(fā)表于 02-27 14:31 ?2098次閱讀
    <b class='flag-5'>恩</b>智<b class='flag-5'>浦</b>攜手COMPREDICT加速<b class='flag-5'>邊緣</b>AI在汽車應(yīng)用落地

    與GE醫(yī)療在邊緣AI領(lǐng)域達(dá)成戰(zhàn)略合作

    半導(dǎo)體宣布與GE醫(yī)療達(dá)成合作,依托在安全高性能邊緣處理領(lǐng)域的長期技術(shù)積淀與GE醫(yī)療在醫(yī)療技術(shù)創(chuàng)新方面的深厚經(jīng)驗(yàn),共同推動
    的頭像 發(fā)表于 01-13 11:16 ?3817次閱讀

    推出全新eIQ Agentic AI框架

    半導(dǎo)體宣布推出全新eIQ Agentic AI框架,進(jìn)一步鞏固其在安全實(shí)時邊緣AI領(lǐng)域的領(lǐng)導(dǎo)地位。該工具支持在邊緣設(shè)備上直接實(shí)現(xiàn)自主智
    的頭像 發(fā)表于 01-13 11:15 ?1545次閱讀

    何在NVIDIA Jetson AGX Thor上部署1200億參數(shù)大模型

    上一期介紹了如何在 NVIDIA Jetson AGX Thor 上使用 Docker 部署 vLLM 推理服務(wù),以及使用 Chatbox 作為前端調(diào)用 vLLM 運(yùn)行的模型(上期文章鏈接)。本期
    的頭像 發(fā)表于 12-26 17:06 ?5248次閱讀
    如<b class='flag-5'>何在</b>NVIDIA Jetson AGX Thor<b class='flag-5'>上部署</b>1200億參數(shù)大模型

    迅為如何在RK3576上部署YOLOv5;基于RK3576構(gòu)建智能門禁系統(tǒng)

    迅為如何在RK3576開發(fā)板上部署YOLOv5;基于RK3576構(gòu)建智能門禁系統(tǒng)
    的頭像 發(fā)表于 11-25 14:06 ?1970次閱讀
    迅為如<b class='flag-5'>何在</b>RK3576<b class='flag-5'>上部署</b>YOLOv5;基于RK3576構(gòu)建智能門禁系統(tǒng)

    完成兩筆重要收購

    日前,半導(dǎo)體宣布已完成對Aviva Links和Kinara的收購,進(jìn)一步推進(jìn)智能邊緣的汽車連接和人工智能創(chuàng)新。
    的頭像 發(fā)表于 11-04 09:36 ?1212次閱讀

    如何快速在云服務(wù)器上部署Web環(huán)境?

    如何快速在云服務(wù)器上部署Web環(huán)境
    的頭像 發(fā)表于 10-14 14:16 ?847次閱讀

    DeepSeek模型如何在云服務(wù)器上部署?

    隨著大型語言模型(LLM)的應(yīng)用日益普及,許多開發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型部署到自己的云服務(wù)器上,以實(shí)現(xiàn)私有化、定制化服務(wù)并保障數(shù)據(jù)安全。本文將詳細(xì)闡述部署DeepSeek模型
    的頭像 發(fā)表于 10-13 16:52 ?1132次閱讀

    產(chǎn)品如何賦能邊緣智能發(fā)展

    邊緣智能飛速發(fā)展,我們需要什么樣的技術(shù)引擎加速工業(yè)和物聯(lián)網(wǎng)創(chuàng)新應(yīng)用的落地?日前,在深圳舉辦的elexcon深圳國際電子展暨嵌入式展,和IOTE 2025國際物聯(lián)網(wǎng)展兩大行業(yè)盛會上,與生態(tài)合作伙伴攜手,通過一系列創(chuàng)新方案的展
    的頭像 發(fā)表于 09-09 16:58 ?2140次閱讀

    何在基于Arm架構(gòu)的邊緣AI設(shè)備上部署飛槳模型

    當(dāng) Arm 與領(lǐng)先的開源深度學(xué)習(xí)平臺強(qiáng)強(qiáng)聯(lián)合,會帶來什么?那就是推動創(chuàng)新的“火箭燃料”。Arm 攜手百度,利用雙方在高能效計算平臺與 AI 模型的技術(shù)積累,助力廣大開發(fā)者加快邊緣 AI 解決方案的開發(fā)和部署。
    的頭像 發(fā)表于 09-06 14:07 ?1317次閱讀

    i.MX 95系列MPU如何賦能邊緣計算

    在本系列博文的第一部分,我探討了i.MX 95系列如何將新功能安全技術(shù)應(yīng)用于工業(yè)環(huán)境、汽車領(lǐng)域及其他邊緣應(yīng)用。在接下來的文章中,我將進(jìn)一步闡述i.MX 95系列如何賦能邊緣計算,
    的頭像 發(fā)表于 07-30 11:08 ?3035次閱讀
    <b class='flag-5'>恩</b>智<b class='flag-5'>浦</b>i.MX 95系列MPU如何賦能<b class='flag-5'>邊緣</b>計算

    Arm方案 基于Arm架構(gòu)的邊緣側(cè)設(shè)備(樹莓派或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文將為你展示如何在樹莓派或 NVIDIA Jetson Nano 等基于 Arm 架構(gòu)的邊緣側(cè)設(shè)備上部署 PyTorch 模型。
    的頭像 發(fā)表于 07-28 11:50 ?3041次閱讀

    何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署
    的頭像 發(fā)表于 07-04 14:38 ?2406次閱讀

    eIQ Time Series Studio簡介

    在當(dāng)今時代,每個傳感器的微小變動和振動峰值都蘊(yùn)含著重要信息,時間序列數(shù)據(jù)正成為智能邊緣應(yīng)用的新前沿。然而,要充分利用這些數(shù)據(jù),包括清理、建模和部署,往往需要深厚的專業(yè)知識和數(shù)周的反復(fù)試驗(yàn)。eIQ
    的頭像 發(fā)表于 07-02 14:59 ?1972次閱讀