chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Ambarella展示了在其CV3-AD芯片上運(yùn)行LLM的能力

Astroys ? 來源:Astroys ? 2023-11-28 09:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Ambarella前不久展示了在其CV3-AD芯片上運(yùn)行LLM的能力。這款芯片是CV3系列中最強(qiáng)大的,專為自動(dòng)駕駛設(shè)計(jì)。

CV3-AD一年前開始出樣,使用Ambarella現(xiàn)有的AI軟件堆棧,運(yùn)行Llama2-13B模型時(shí),可以實(shí)現(xiàn)每秒推理25個(gè)token。

Ambarella的CEO Fermi Wang表示:“當(dāng)transformer在今年早些時(shí)候變得流行時(shí),我們開始問自己,我們擁有一個(gè)強(qiáng)大的推理引擎,我們能做到嗎?我們進(jìn)行了一些快速研究,發(fā)現(xiàn)我們確實(shí)可以。我們估計(jì)我們的性能可能接近Nvidia A100?!?

Ambarella工程師正在展示Llama2-13B在CV3-AD上的實(shí)時(shí)演示,CV3-AD是一款50W的自動(dòng)駕駛芯片。

Ambarella芯片上的CVFlow引擎包括其NVP(Neural Vector Processor)和一個(gè)GVP(General Vector Processor),演示中的LLM正在NVP上運(yùn)行。NVP采用數(shù)據(jù)流架構(gòu),Ambarella已將諸如卷積之類的高級(jí)運(yùn)算符指令組合成圖表,描述數(shù)據(jù)如何通過處理器進(jìn)行該運(yùn)算符的處理。所有這些運(yùn)算符之間的通信都使用片上內(nèi)存完成。CV3系列使用LPDDR5(而非HBM),功耗約為50W。

268a3c3c-8d86-11ee-939d-92fbcf53809c.png

Ambarella的CTO Les Kohn表示,LLM演示確實(shí)需要一些新軟件。實(shí)現(xiàn)transformer架構(gòu)核心操作的構(gòu)建模塊,目前這些操作針對(duì)的是像Llama2這樣的模型。

他說:“隨著時(shí)間的推移,我們將擴(kuò)展這些功能以覆蓋其它模型,但Llama2正在成為開源世界的事實(shí)標(biāo)準(zhǔn)。這絕對(duì)是一項(xiàng)不小的投資,但與從頭開始開發(fā)軟件相比,還差得遠(yuǎn)?!?

Edge LLM發(fā)展路線圖?????

Wang表示:“現(xiàn)在我們知道我們擁有這項(xiàng)技術(shù),我們可以解決一些實(shí)際問題。如果你與LLM的研發(fā)人員交談,問他們最頭疼的是什么,一個(gè)顯然是價(jià)格,另一個(gè)是功耗。”

CV3-AD設(shè)計(jì)用于50W的功率范圍(包括整個(gè)芯片的功率,不僅僅是AI加速器)。因此,Wang希望Ambarella能夠以大約四分之一的功耗,為LLM提供與A100相似的性能。

他說:“這意味著對(duì)于固定的數(shù)據(jù)中心功率,我可以增加四倍的AI性能。這是巨大的價(jià)值。盡管這種想法很簡單,但我們相信我們可以為渴望使用LLM的任何人提供價(jià)值。在過去的六個(gè)月里,渴望使用LLM的人數(shù)迅速增加?!?

雖然超大規(guī)模計(jì)算中心可能是首批跟進(jìn)LLM趨勢的,但Ambarella在安防攝像頭和汽車領(lǐng)域的現(xiàn)有客戶開始考慮如何在他們的邊緣系統(tǒng)中實(shí)施LLM,以及LLM將如何實(shí)施他們的發(fā)展路線圖。

Wang說:“我們相信LLM將成為我們需要在路線圖中為當(dāng)前客戶提供的重要技術(shù)。當(dāng)前的CV3可以運(yùn)行LLM,而無需Ambarella進(jìn)行太多額外的工程投資,所以這對(duì)我們來說并非分心之事。我們當(dāng)前的市場在他們的路線圖中已經(jīng)有了LLM。” 多模態(tài)AI???? Kohn指出,在邊緣計(jì)算中,具有生成文本和圖像能力的大型多模態(tài)生成型AI潛力日益增大。

他說:“對(duì)于像機(jī)器人這樣的應(yīng)用,transformer網(wǎng)絡(luò)已經(jīng)可以用于計(jì)算機(jī)視覺處理,這比任何傳統(tǒng)計(jì)算機(jī)視覺模型都要強(qiáng)大,因?yàn)檫@種模型可以處理零樣本學(xué)習(xí),這是小模型無法做到的?!?

零樣本學(xué)習(xí)指的是模型能夠推斷出在其訓(xùn)練數(shù)據(jù)中未出現(xiàn)的對(duì)象類別的信息。這意味著模型可以以更強(qiáng)大的方式預(yù)測和處理邊緣情況,這在自動(dòng)系統(tǒng)中尤其重要。

他補(bǔ)充說:“自動(dòng)駕駛本質(zhì)上是一種機(jī)器人應(yīng)用:如果你看看L4/L5系統(tǒng)需要什么,很明顯你需要更強(qiáng)大、更通用的AI模型,這些模型能以更類似于人類的方式理解世界,超越我們今天的水平。我們將這看作是為各種邊緣應(yīng)用獲取更強(qiáng)大的AI處理能力的一種方式?!?

LLM發(fā)展路線圖??

問及Ambarella是否會(huì)制造專門針對(duì)LLM的邊緣芯片時(shí),Wang表示:“這可能是我們需要考慮的事情。我們需要一個(gè)具有更多AI性能的LLM路線圖。LLM本身需要大量的DRAM帶寬,這幾乎使得在芯片上集成其他功能變得不可能(因?yàn)槠渌δ芤残枰狣RAM帶寬)?!?/p>

Wang說,盡管在某些人看來,一個(gè)大型信息娛樂芯片應(yīng)該能夠同時(shí)處理其他工作負(fù)載和LLM,但目前這是不可能的。LLM所需的性能和帶寬或多或少地需要一個(gè)單獨(dú)的加速器。

Kohn補(bǔ)充說:“這取決于模型的大小。我們可能會(huì)看到目前使用的模型比較小的版本應(yīng)用于像機(jī)器人學(xué)這樣的領(lǐng)域,因?yàn)樗鼈儾恍枰幚泶笮湍P退龅乃型ㄓ檬聞?wù)。但與此同時(shí),人們希望有更強(qiáng)大的性能。所以,我認(rèn)為最終我們將看到未來更優(yōu)化的解決方案,它們將被應(yīng)用于不同的價(jià)格/性能點(diǎn)?!?/p>

在邊緣計(jì)算之外,CV3系列也有可能在數(shù)據(jù)中心中使用。Kohn說,CV3系列有多個(gè)PCIe接口,這在多芯片系統(tǒng)中可能很有用。他還補(bǔ)充說,該公司已經(jīng)有一個(gè)可以利用的PCIe卡。

Wang表示:“對(duì)我們來說,真正的問題是,‘我們能否將當(dāng)前產(chǎn)品和未來產(chǎn)品銷售到超大規(guī)模計(jì)算中心或基于云的解決方案中?’這是一個(gè)我們還沒有回答的問題,但我們已經(jīng)確認(rèn)了技術(shù)的可行性,并且我們有一些差異化。我們知道我們可以將這種產(chǎn)品銷售到邊緣設(shè)備和邊緣服務(wù)器。我們正在制定一個(gè)計(jì)劃,希望如果我們想要進(jìn)入基于云的解決方案,我們可以證明進(jìn)一步投資是合理的。”







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19896

    瀏覽量

    235280
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29748

    瀏覽量

    212918
  • LPDDR5
    +關(guān)注

    關(guān)注

    2

    文章

    90

    瀏覽量

    12584
  • 自動(dòng)駕駛芯片
    +關(guān)注

    關(guān)注

    3

    文章

    48

    瀏覽量

    5279
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    325

    瀏覽量

    844

原文標(biāo)題:Ambarella展示在自動(dòng)駕駛芯片上的LLM推理能力

文章出處:【微信號(hào):Astroys,微信公眾號(hào):Astroys】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?668次閱讀

    使用 llm-agent-rag-llamaindex 筆記本時(shí)收到的 NPU 錯(cuò)誤怎么解決?

    使用 conda create -n ov-nb-demos python=3.11 創(chuàng)建運(yùn)行 llm-agent-rag-llamaindex notebook 的環(huán)境。 執(zhí)行“創(chuàng)建
    發(fā)表于 06-23 06:26

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展推理時(shí)間計(jì)算、運(yùn)用強(qiáng)化學(xué)習(xí)、開展監(jiān)督微調(diào)和進(jìn)行提煉等。本文將深入探討LLM
    的頭像 發(fā)表于 04-03 12:09 ?507次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理模型的現(xiàn)狀

    無法在OVMS運(yùn)行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 運(yùn)行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲(chǔ)庫運(yùn)行 llama_chat Python* Demo 時(shí)
    發(fā)表于 03-05 08:07

    新品| LLM630 Compute Kit,AI 大語言模型推理開發(fā)平臺(tái)

    處理器,集成了3.2TOPs@INT8算力的高能效NPU,提供強(qiáng)大的AI推理能力,能夠高效執(zhí)行復(fù)雜的視覺(CV)及大語言模型(LLM)任務(wù),滿足各類智能應(yīng)用場景的需求
    的頭像 發(fā)表于 01-17 18:48 ?699次閱讀
    新品| <b class='flag-5'>LLM</b>630 Compute Kit,AI 大語言模型推理開發(fā)平臺(tái)

    小白學(xué)大模型:構(gòu)建LLM的關(guān)鍵步驟

    隨著大規(guī)模語言模型(LLM)在性能、成本和應(yīng)用前景的快速發(fā)展,越來越多的團(tuán)隊(duì)開始探索如何自主訓(xùn)練LLM模型。然而,是否從零開始訓(xùn)練一個(gè)LLM,并非每個(gè)組織都適合。本文將根據(jù)不同的需求
    的頭像 發(fā)表于 01-09 12:12 ?974次閱讀
    小白學(xué)大模型:構(gòu)建<b class='flag-5'>LLM</b>的關(guān)鍵步驟

    安霸發(fā)布N1-655前端生成式AI芯片

    Ambarella(下稱“安霸”,納斯達(dá)克股票代碼:AMBA,AI 視覺感知芯片公司)在 CES 發(fā)布 N1-655 前端生成式 AI 芯片
    的頭像 發(fā)表于 01-09 10:29 ?875次閱讀

    Neuchips展示大模型推理ASIC芯片

    領(lǐng)先的AI專用集成電路(ASIC)解決方案提供商N(yùn)euchips在CES 2024展示其革命性的Raptor Gen AI加速芯片(以前稱為N3000)和Evo PCIe加速卡
    的頭像 發(fā)表于 01-06 17:30 ?767次閱讀

    Arm KleidiAI助力提升PyTorchLLM推理性能

    熱門的深度學(xué)習(xí)框架尤為突出,許多企業(yè)均會(huì)選擇其作為開發(fā) AI 應(yīng)用的庫。通過部署 Arm Kleidi 技術(shù),Arm 正在努力優(yōu)化 PyTorch,以加速在基于 Arm 架構(gòu)的處理器運(yùn)行 LLM 的性能。Arm 通過將 Kle
    的頭像 發(fā)表于 12-03 17:05 ?1489次閱讀
    Arm KleidiAI助力提升PyTorch<b class='flag-5'>上</b><b class='flag-5'>LLM</b>推理性能

    樹莓派跑LLM難上手?也許你可以試試Intel哪吒開發(fā)板

    大型語言模型(LLM)通過其卓越的文本理解與生成能力,為機(jī)器智能帶來了革命性的進(jìn)步。然而,這些模型的運(yùn)行通常需要消耗大量的計(jì)算資源,因此它們主要部署在性能強(qiáng)大的服務(wù)器。 隨著技術(shù)的發(fā)
    的頭像 發(fā)表于 12-02 09:43 ?1287次閱讀
    樹莓派跑<b class='flag-5'>LLM</b>難上手?也許你可以試試Intel哪吒開發(fā)板

    如何在 OrangePi 5 Pro?的?NPU?運(yùn)行?LLM

    在OrangePi5Pro上訪問NPU需要安裝最新版Ubuntu的定制版本,還需要安裝特殊軟件,讓你能在NPU而不是CPU運(yùn)行專門轉(zhuǎn)換的LLM。整個(gè)過程肯定要比運(yùn)行Ollama復(fù)雜得
    的頭像 發(fā)表于 11-28 14:55 ?1220次閱讀
    如何在 OrangePi 5 Pro?的?NPU?<b class='flag-5'>上</b><b class='flag-5'>運(yùn)行</b>?<b class='flag-5'>LLM</b>

    NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub公開發(fā)布

    感謝眾多用戶及合作伙伴一直以來對(duì)NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 公開發(fā)布!
    的頭像 發(fā)表于 11-28 10:43 ?723次閱讀
    NVIDIA TensorRT-<b class='flag-5'>LLM</b> Roadmap現(xiàn)已在GitHub<b class='flag-5'>上</b>公開發(fā)布

    什么是LLM?LLM在自然語言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域迎來了革命性的進(jìn)步。其中,大型語言模型(LLM)的出現(xiàn),標(biāo)志著我們對(duì)語言理解能力的一次飛躍。LLM通過深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得機(jī)器能夠以前
    的頭像 發(fā)表于 11-19 15:32 ?3661次閱讀

    LLM技術(shù)對(duì)人工智能發(fā)展的影響

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(LLM)技術(shù)已經(jīng)成為推動(dòng)AI領(lǐng)域進(jìn)步的關(guān)鍵力量。LLM技術(shù)通過深度學(xué)習(xí)和自然語言處理技術(shù),使得機(jī)器能夠理解和生成自然語言,極大地?cái)U(kuò)展人工智能的應(yīng)用范圍
    的頭像 發(fā)表于 11-08 09:28 ?1856次閱讀

    使用LLM進(jìn)行自然語言處理的優(yōu)缺點(diǎn)

    語言任務(wù),如文本分類、情感分析、機(jī)器翻譯等。以下是使用LLM進(jìn)行NLP的一些優(yōu)缺點(diǎn): 優(yōu)點(diǎn) 強(qiáng)大的語言理解能力LLM通過訓(xùn)練學(xué)習(xí)大量的語言模式和結(jié)構(gòu),能夠理解和生成自然語言文本
    的頭像 發(fā)表于 11-08 09:27 ?2458次閱讀