chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

安霸生成式AI芯片解決方案助力本地處理大型語(yǔ)言模型

Ambarella安霸半導(dǎo)體 ? 來(lái)源:Ambarella安霸半導(dǎo)體 ? 2024-06-26 11:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

具有高AI性能和效率的最新SoC系統(tǒng)助力本地處理大型語(yǔ)言模型

隨著 AI 技術(shù)的不斷進(jìn)步,十年前還只能在書本和科幻電影中看到的功能,如今隨處可見(jiàn)。然而,迄今為止,對(duì)性能有著高要求的最新生成式 AI 技術(shù)應(yīng)用通常只能運(yùn)行在云端。

直到最近,生成式 AI 的主要應(yīng)用還是倚靠耗電量巨大的服務(wù)器,這些服務(wù)器的任務(wù)本是開(kāi)發(fā)和訓(xùn)練大型語(yǔ)言模型(LLM)。LLM 的出現(xiàn)本身就是一項(xiàng)突破,它只是邁出了一系列重要變革中的第一步。

目前,人們非常關(guān)注并推動(dòng)著端側(cè)大模型技術(shù)的廣泛發(fā)展,因?yàn)樵摷夹g(shù)將使生成式 AI 能夠部署到更多應(yīng)用中,獲益良多。具體來(lái)說(shuō),這些用例將大大增加生成式 AI 在智能城市、工業(yè)自動(dòng)化、機(jī)器人和智能駕駛等市場(chǎng)的端側(cè)設(shè)備中的廣泛應(yīng)用。

生成式 AI 要在前端領(lǐng)域取得成功,需要注意四要素:AI 的隱私、性能,能效和高生產(chǎn)率,這些因素決定了市場(chǎng)轉(zhuǎn)化的速度。

前端集成也有能源效率、設(shè)備微調(diào)和可靠性方面的技術(shù)挑戰(zhàn)。這些問(wèn)題本身就很棘手,因此向開(kāi)發(fā)人員提供的解決方案須兼顧性能和成本,才能克服這些障礙。

為了應(yīng)對(duì)這些相互沖突的挑戰(zhàn),定制化的芯片成為首選解決方案。

生成式AI的高能效SoC

安霸觀察到前端應(yīng)用對(duì)高能效 AI 處理器的需求,因此推出了一系列 AI SoC,適用于各種前端的生成式 AI 應(yīng)用。

在大多數(shù)用于前端應(yīng)用的高性能多模式分析用例中,第一步通常是在所有照明條件下捕獲高質(zhì)量視頻。為此,需要一個(gè)即使在低光照條件下也能提供出色圖像質(zhì)量的圖像信號(hào)處理器(ISP)。同樣,高對(duì)比度場(chǎng)景的捕捉也必須使用具有先進(jìn)的高動(dòng)態(tài)范圍(HDR)能力的處理器,這樣才能捕捉到非常清晰的細(xì)節(jié),為安防視頻分析、自主移動(dòng)機(jī)器人(AMR)和智能駕駛感知算法提供高品質(zhì)的圖像輸入,從而得到通用的解決方案。此外,通過(guò)高效的視頻編碼技術(shù),安霸的 SoC 還能以極低的碼率傳輸高分辨率的視頻流。

安霸 SoC 中的專有 CVflow AI 引擎,除了支持 LLM 處理外,還支持同時(shí)運(yùn)行多個(gè)神經(jīng)網(wǎng)絡(luò)(NN),在運(yùn)行各類計(jì)算機(jī)視覺(jué)算法時(shí)維持低功耗。安霸的 Cooper 開(kāi)發(fā)者平臺(tái)包含一套功能豐富的工具,使得客戶很方便地把在PC上開(kāi)發(fā)的神經(jīng)網(wǎng)絡(luò)移植到安霸芯片平臺(tái)。

安霸的生成式 AI 芯片解決方案在模型的參數(shù)上具備高擴(kuò)展性,從支持多達(dá) 340 億個(gè)參數(shù)的多模態(tài) LLM 的 N1 系列,到支持多達(dá) 30 億個(gè)參數(shù)的較小視覺(jué)語(yǔ)言模型 (VLM) 的 CV7 系列。

如果你的應(yīng)用需要超強(qiáng)的前端處理能力,那么安霸的旗艦款 N1 系列 SoC 是最佳選擇之一。N1 可以接收多個(gè)高分辨率攝像頭數(shù)據(jù)流輸入,同時(shí)運(yùn)行多達(dá) 340 億個(gè)參數(shù)的多模態(tài) LLM,并且支持連接更多的外圍設(shè)備。N1 芯片集成了神經(jīng)向量處理器 (NVP)、高級(jí)圖像信號(hào)處理器(ISP)、16 個(gè) Arm Cortex-A78AE CPU, 以及用于 3D 用戶界面的 GPU,單顆芯片可提供高性能神經(jīng)網(wǎng)絡(luò)計(jì)算。不僅性能卓越,N1 芯片的每次推理功耗僅為業(yè)界領(lǐng)先 GPU 解決方案的一小部分。

N1 芯片非常適合為多種應(yīng)用提供生成式 AI,包括工業(yè)機(jī)器人、智慧城市、智能醫(yī)療成像和診斷、多攝像頭 AI 處理中心、運(yùn)行多模態(tài) LLM 的終端 AI 服務(wù)器以及智駕車隊(duì)遠(yuǎn)程信息處理等。設(shè)備端通過(guò)運(yùn)行多模態(tài) LLM 促進(jìn)了 生成式 AI 功能的實(shí)現(xiàn),例如對(duì)視頻和圖像輸入進(jìn)行智能上下文搜索;使用自然語(yǔ)言命令控制機(jī)器人;以及多才多藝的 AI 助手,比如代碼、文本和圖像的生成等。

雖然這些系統(tǒng)多種多樣,但它們?cè)诤艽蟪潭壬隙家蕾囉跀z像頭和自然語(yǔ)言理解的結(jié)合。在這種情況下,設(shè)備端的生成式 AI 處理可提高運(yùn)行速度和增強(qiáng)隱私保護(hù),同時(shí)降低總成本。本地處理也是特定應(yīng)用大語(yǔ)言模型處理的理想選擇,這些大語(yǔ)言模型通常在前端針對(duì)每個(gè)用例進(jìn)行微調(diào),而不是采用服務(wù)器方法,即使用更大、功耗更高的大語(yǔ)言模型來(lái)覆蓋所有用例。

N1 系列芯片基于安霸功能強(qiáng)大的第三代 CVFlow 架構(gòu)設(shè)計(jì),因此具有出色的網(wǎng)絡(luò)推理性能,廣泛兼容各類神經(jīng)網(wǎng)絡(luò),包括多模態(tài)大模型。例如,N1 SoC 在單流模式下以低于 50 瓦的功耗運(yùn)行 Llama2-13B,每秒可推理 25 個(gè) token。結(jié)合預(yù)移植模型的易集成性,這一新型解決方案可幫助設(shè)備制造商快速將生成式 AI 部署到任何對(duì)功耗敏感的應(yīng)用中,如 AI 智能盒子、送貨機(jī)器人等產(chǎn)品。

第四要素-生產(chǎn)率

Cooper 是安霸自研的開(kāi)發(fā)者平臺(tái),提供靈活的模塊化開(kāi)發(fā)環(huán)境,可與安霸任何 AI SoC(包括 CV2,CV5, CV7 系列和 N1 系列)配合使用。它因強(qiáng)調(diào)合作而得名,適用于各種應(yīng)用,包括機(jī)器人、AIoT、汽車和消費(fèi)類視頻設(shè)備。

是圍繞一個(gè)名為 Cooper Foundry 的軟件平臺(tái)構(gòu)建的,該開(kāi)發(fā)平臺(tái)由以下四個(gè)軟件模塊組成:

Cooper Core 核心組件:包含基于 Linux操作系統(tǒng)、編譯器和 SDK。

Cooper Foundation AI 應(yīng)用組件:用于在前端構(gòu)建和部署 ML 應(yīng)用程序

Cooper Vision 視覺(jué)感知組件:包含多模態(tài)傳感器處理和融合的構(gòu)建模塊

Cooper UX 應(yīng)用交互組件:用于分析和開(kāi)發(fā)

全面的 Cooper 開(kāi)發(fā)平臺(tái)加快了產(chǎn)品上市速度

該開(kāi)發(fā)平臺(tái)在 Cooper Metal 上運(yùn)行。Cooper Metal 是一套硬件參考板,包括高能效 AI SoC、開(kāi)發(fā)套件和模塊,它還集成了常見(jiàn)的第三方開(kāi)源軟件工具。

為了展示這些功能,安霸利用其最新的 AI SoC 在 Cooper 上開(kāi)發(fā)了一個(gè)演示系統(tǒng)。其中,安霸將業(yè)界領(lǐng)先的具有 AI 功能的 ISP 與多模態(tài)視覺(jué)語(yǔ)言模型相融合,后者還考慮到了視頻幀中的圖像數(shù)據(jù)。

作為向開(kāi)發(fā)人員提供的單獨(dú)演示的一部分,安霸使用 N1 SoC 建立了一個(gè)系統(tǒng),支持處理多達(dá) 16 個(gè)視頻流。它允許用戶使用自然語(yǔ)言搜索任何異常或不尋常事件的上下文,甚至搜索特定的內(nèi)容,如特定品牌或型號(hào)的汽車。

在 CV7 系列 SoC 的基礎(chǔ)上,可以更低功耗構(gòu)建具有 1-4 個(gè)視頻流小型系統(tǒng)。這些系統(tǒng)可運(yùn)行“CLIP”等視覺(jué)語(yǔ)言模型,整個(gè)系統(tǒng)的功耗低于 5W。

總結(jié)

生成式 AI 是一項(xiàng)變革性技術(shù),由于其處理過(guò)程通常在 GPU 上,消耗大量電能,它曾一度被局限于成本高昂的服務(wù)器中?;诎舶愿咝У?AI SoC 搭建的端側(cè) LLM 推理設(shè)備,其每次AI推理所需的功耗極低,領(lǐng)先行業(yè)。安霸 N1 SoC 將生成式 AI 引入終端設(shè)備和可內(nèi)部部署的硬件,應(yīng)用范圍更加廣泛,例如安防視頻分析、機(jī)器人技術(shù)和眾多工業(yè)自動(dòng)化需求。此外,與 GPU 及其他 AI 加速器相比,安霸提供了完整的 SoC 和系統(tǒng)解決方案,每生成一個(gè) token 的能效比大幅提升,可達(dá) 3 倍,并可快捷、低成本地部署。

原文標(biāo)題:生成式AI賦能前端,未來(lái)已來(lái)

文章出處:【微信公眾號(hào):Ambarella安霸半導(dǎo)體】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • soc
    soc
    +關(guān)注

    關(guān)注

    38

    文章

    4472

    瀏覽量

    226112
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    36980

    瀏覽量

    289858
  • 安霸
    +關(guān)注

    關(guān)注

    3

    文章

    49

    瀏覽量

    13382

原文標(biāo)題:生成式AI賦能前端,未來(lái)已來(lái)

文章出處:【微信號(hào):AMBARELLA_AMBA,微信公眾號(hào):Ambarella安霸半導(dǎo)體】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片到AGI芯片

    2)滲透AI的優(yōu)勢(shì) 5、大型多模態(tài)模型 多模態(tài)模型(LMM)可以被理解成大模型的更高級(jí)版本,
    發(fā)表于 09-18 15:31

    大算力AI芯片接入DeepSeek R1

    (Ambarela)在人工智能領(lǐng)域持續(xù)發(fā)力,已成功在多款 AI 芯片,包括 N 系列大算力 AI
    的頭像 發(fā)表于 02-17 13:36 ?779次閱讀

    聚云科技榮獲亞馬遜云科技生成AI能力認(rèn)證

    Bedrock等技術(shù),從應(yīng)用范圍、模型選擇、數(shù)據(jù)處理、模型調(diào)優(yōu)到應(yīng)用集成與部署等方面,助力企業(yè)加速生成
    的頭像 發(fā)表于 02-14 16:07 ?588次閱讀

    聚云科技榮獲亞馬遜云科技生成AI能力認(rèn)證 助力企業(yè)加速生成AI應(yīng)用落地

    、數(shù)據(jù)處理、模型調(diào)優(yōu)到應(yīng)用集成與部署等方面,助力企業(yè)加速生成AI應(yīng)用落地。此外,聚云科技還基于
    發(fā)表于 02-14 13:41 ?239次閱讀

    一文詳解視覺(jué)語(yǔ)言模型

    視覺(jué)語(yǔ)言模型(VLM)是一種多模態(tài)、生成 AI 模型,能夠理解和
    的頭像 發(fā)表于 02-12 11:13 ?2697次閱讀
    一文詳解視覺(jué)<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>

    廣和通正式推出AI玩具大模型解決方案

    ,即可實(shí)現(xiàn)音視頻及圖像的實(shí)時(shí)傳輸、語(yǔ)音識(shí)別、自然語(yǔ)言處理以及機(jī)器學(xué)習(xí)等多種功能。這意味著玩具能夠與用戶進(jìn)行更加豐富的互動(dòng),通過(guò)擬人、擬動(dòng)物或擬IP的形式,以視、聽(tīng)、觸等多維度的方式與用戶進(jìn)行交流。 廣和通的AI玩具大
    的頭像 發(fā)表于 01-24 10:36 ?1527次閱讀

    廣和通發(fā)布AI玩具大模型解決方案

    近日,廣和通推出了一項(xiàng)專為AI玩具設(shè)計(jì)的創(chuàng)新解決方案——AI玩具大模型解決方案。該方案深度融合了
    的頭像 發(fā)表于 01-21 14:45 ?1422次閱讀

    廣和通AI解決方案內(nèi)置大模型,讓玩具成為你的智慧伙伴

    廣和通推出AI玩具大模型解決方案,該方案深度融合豆包等AI模型、內(nèi)置廣和通Cat.1模組,
    的頭像 發(fā)表于 01-21 11:03 ?821次閱讀
    廣和通<b class='flag-5'>AI</b><b class='flag-5'>解決方案</b>內(nèi)置大<b class='flag-5'>模型</b>,讓玩具成為你的智慧伙伴

    廣和通推出AI玩具大模型解決方案

    廣和通推出AI玩具大模型解決方案,該方案深度融合豆包等AI模型、內(nèi)置廣和通Cat.1模組,
    的頭像 發(fā)表于 01-21 10:27 ?1425次閱讀

    發(fā)布N1-655前端生成AI芯片

    Ambarella(下稱“”,納斯達(dá)克股票代碼:AMBA,AI 視覺(jué)感知芯片公司)在 CES 上發(fā)布了 N1-655 前端生成
    的頭像 發(fā)表于 01-09 10:29 ?1323次閱讀

    NaVILA:加州大學(xué)與英偉達(dá)聯(lián)合發(fā)布新型視覺(jué)語(yǔ)言模型

    (VLM)是一種具備多模態(tài)生成能力的先進(jìn)AI模型。它能夠智能地處理文本、圖像以及視頻等多種提示,并通過(guò)復(fù)雜的推理過(guò)程,實(shí)現(xiàn)對(duì)這些信息的準(zhǔn)確理解和應(yīng)用。NaVILA正是基于這一原理,通過(guò)
    的頭像 發(fā)表于 12-13 10:51 ?854次閱讀

    LG與攜手推動(dòng) AI 艙內(nèi)安全解決方案的發(fā)展

    電子展(CES 2025)期間展示其與合作開(kāi)發(fā)的最新艙內(nèi)智能監(jiān)測(cè)解決方案與 LG 緊密合作,將 CV25
    的頭像 發(fā)表于 12-05 09:27 ?1329次閱讀
    LG與<b class='flag-5'>安</b><b class='flag-5'>霸</b>攜手推動(dòng) <b class='flag-5'>AI</b> 艙內(nèi)安全<b class='flag-5'>解決方案</b>的發(fā)展

    語(yǔ)言模型優(yōu)化生成管理方法

    語(yǔ)言模型的優(yōu)化生成管理是一個(gè)系統(tǒng)工程,涉及模型架構(gòu)、數(shù)據(jù)處理、內(nèi)容控制、實(shí)時(shí)響應(yīng)以及倫理監(jiān)管等多個(gè)層面。以下,是對(duì)大
    的頭像 發(fā)表于 12-02 10:45 ?560次閱讀

    NVIDIA助力Amdocs打造生成AI智能體

    正在使用NVIDIA DGX Cloud 與 NVIDIA AI Enterprise軟件開(kāi)發(fā)和交付基于商用大語(yǔ)言模型(LLM)和領(lǐng)域適配模型
    的頭像 發(fā)表于 11-19 14:48 ?1145次閱讀

    AI模型在自然語(yǔ)言處理中的應(yīng)用

    AI模型在自然語(yǔ)言處理(NLP)中的應(yīng)用廣泛且深入,其強(qiáng)大的語(yǔ)義理解和生成能力為NLP任務(wù)帶來(lái)了顯著的性能提升。以下是對(duì)
    的頭像 發(fā)表于 10-23 14:38 ?2044次閱讀