chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

安霸發(fā)布N1系列生成式AI芯片支持前端設(shè)備運行本地LLM應(yīng)用

Ambarella安霸半導(dǎo)體 ? 來源:Ambarella安霸半導(dǎo)體 ? 2024-01-09 15:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

單顆 SoC 支持 1 至 340 億參數(shù)的多模態(tài)大模型(Multi-Modal LLM)推理,實現(xiàn)前端低功耗生成式 AI

美國加利福尼亞州圣克拉拉市,2024年1月8日-

Ambarella (下稱“安霸”,專注 AI 視覺感知的半導(dǎo)體公司,納斯達(dá)克股票代碼:AMBA)于當(dāng)天宣布,在 2024 國際消費電子展(CES)期間,展出在其新款 N1 系列 SoC 上運行多模態(tài)大模型(Multi-Modal LLM),其每次推理的功耗顯著低于當(dāng)前市場的通用 GPU 解決方案。

生成式 AI 是為了處理大規(guī)模數(shù)據(jù)集而最早應(yīng)用于服務(wù)器上的變革性技術(shù),而安霸的目標(biāo)是將生成式 AI 部署于終端設(shè)備和本地硬件上,從而將其廣泛應(yīng)用于視頻安防分析、機(jī)器人以及眾多工業(yè)領(lǐng)域。

安霸將在中高端 SoC 上提供已優(yōu)化的生成式 AI 處理。這些 AI SoC 包含了功耗低于 5 瓦的 CV72 芯片,以及最新的可應(yīng)用于服務(wù)器端,功耗低于 50 瓦的 N1 芯片。與 GPU 及其他 AI 加速器相比,安霸提供了完整的 SoC 解決方案,每生成一個 token 的能效比最高可提高 3 倍,并可快捷、低成本地部署在終端產(chǎn)品中。

生成式 AI 在我們的目標(biāo)市場上實現(xiàn)了突破,之前無法想象的功能得以實現(xiàn)。使用我們的 N1 系列 SoC 來進(jìn)行多模態(tài)大模型推理,將使所有的前端設(shè)備變得更智能,更低功耗,和更低成本。

市場研究公司 Omdia 高級計算首席分析師 Alexander Harrowell 表示:“在未來 18 個月內(nèi),幾乎所有設(shè)備前端應(yīng)用都將被生成式 AI 增強(qiáng)。把生成式 AI 的計算轉(zhuǎn)移到設(shè)備前端的要點,就在于每瓦的 AI 性能,以及它與前端生態(tài)系統(tǒng)其余部分的集成,而不僅僅是原始數(shù)據(jù)的吞吐量。”

所有安霸的 AI SoC 均可搭配全新的 Cooper 開發(fā)平臺。此外,為了縮短客戶新產(chǎn)品上市的時間,安霸已預(yù)先移植和優(yōu)化了 LIama-2 等流行的大語言模型。其在 N1 芯片上運行的大語言和視覺助手 LLava 模型,可對多達(dá) 32 個攝像頭同時進(jìn)行多模態(tài)視覺分析。這些經(jīng)過預(yù)訓(xùn)練和調(diào)優(yōu)的模型可從 Cooper Model Garden 下載。

在現(xiàn)實世界的眾多應(yīng)用里,除了語言,視覺輸入也是一種關(guān)鍵模式。安霸 SoC 的特有架構(gòu)非常適合以超低功耗同時運行視頻處理和 AI 計算。安霸的 AI SoC 并不是單一的 AI 加速器,它不僅能夠高效處理多模態(tài)大模型,還能同時執(zhí)行各種系統(tǒng)功能。

生成式 AI 將成為計算機(jī)視覺處理中跨越式的新技術(shù),它可將上下文學(xué)習(xí)和場景理解應(yīng)用于各種設(shè)備,從而涵蓋安防設(shè)施、自主機(jī)器人以及眾多工業(yè)應(yīng)用?;诎舶?AI 芯片的設(shè)備端通過運行大語言模型和多模態(tài)處理可實現(xiàn)以下功能:安防視頻的上下文智能搜索、通過自然語言命令控制的機(jī)器人、以及多才多藝的AI助手,比如代碼、文本和圖像的生成等。

這些依賴攝像頭和自然語言理解的系統(tǒng),大部分將受益于設(shè)備前端的生成式 AI 處理,其處理速度得以提高,隱私保護(hù)得到加強(qiáng),并且總成本也會降低。安霸解決方案支持的本地處理也非常適合垂直領(lǐng)域大語言模型,這些大語言模型通常需要針對每個具體應(yīng)用場景進(jìn)行調(diào)整;而傳統(tǒng)的集中式服務(wù)器方案則是使用更大、功耗更高的大語言模型來滿足不同用例的要求。

基于安霸最初為自動駕駛開發(fā)的 CV3-HD 架構(gòu),N1 系列 SoC 對總算力資源進(jìn)行了針對性的優(yōu)化,從而以超極低功耗運行多模態(tài)大模型。例如,N1 SoC 在單流模式下以低于 50 瓦的功耗運行 Llama2-13B,每秒可推理 25 個 token。N1 解決方案自帶移植好的大模型,使系統(tǒng)整合更容易,因此它可快速幫助 OEM 廠商部署生成式 AI,特別是要求低功耗的各種應(yīng)用,比如自帶本地應(yīng)用的 AI 智能盒子、送貨機(jī)器人等,不一而足。







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 加速器
    +關(guān)注

    關(guān)注

    2

    文章

    826

    瀏覽量

    39038
  • soc
    soc
    +關(guān)注

    關(guān)注

    38

    文章

    4372

    瀏覽量

    222312
  • 計算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1708

    瀏覽量

    46696
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1979

    瀏覽量

    35809
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    324

    瀏覽量

    792

原文標(biāo)題:安霸發(fā)布 N1 系列生成式 AI 芯片,支持前端設(shè)備運行本地 LLM 應(yīng)用

文章出處:【微信號:AMBARELLA_AMBA,微信公眾號:Ambarella安霸半導(dǎo)體】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    在ISC West上推出下一代前端多模態(tài)AI技術(shù)

    近日,Ambarella (下稱“”,納斯達(dá)克股票代碼:AMBA, AI 視覺感知芯片公司)在美國拉斯維加斯西部防展(ISC West
    的頭像 發(fā)表于 04-03 09:57 ?360次閱讀

    Banana Pi 發(fā)布 BPI-AI2N & BPI-AI2N Carrier,助力 AI 計算與嵌入開發(fā)

    RZ/V2N——近期在嵌入世界2025上新發(fā)布,為 AI 計算、嵌入系統(tǒng)及工自動化提供強(qiáng)大支持
    發(fā)表于 03-19 17:54

    AI Agent 應(yīng)用與項目實戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識庫

    繼續(xù)學(xué)習(xí)迪哥的AI Agent入門引導(dǎo)書籍。 LLM在落地應(yīng)用中面臨著專業(yè)領(lǐng)域表現(xiàn)不足、知識更新困難、容易產(chǎn)生\"幻覺\"等問題,這些挑戰(zhàn)嚴(yán)重制約了AI技術(shù)在各行業(yè)的深入
    發(fā)表于 03-07 19:49

    大算力AI芯片接入DeepSeek R1

    (Ambarela)在人工智能領(lǐng)域持續(xù)發(fā)力,已成功在多款 AI 芯片,包括 N 系列大算力
    的頭像 發(fā)表于 02-17 13:36 ?511次閱讀

    正點原子ESP32S3系列開發(fā)板全面支持小智AI

    飛速發(fā)展的大語言模型應(yīng)用到實際的硬件設(shè)備中。 小智AI功能如下: WiFi / ML307 Cat.1 4G BOOT鍵喚醒和打斷,支持點擊和長按兩種觸發(fā)方式 離線語音喚醒ESP-SR
    發(fā)表于 02-14 17:01

    Gauzy和的戰(zhàn)略合作取得突破性進(jìn)展

    Gauzy 的 AI Smart-Vision CMS 采用先進(jìn)的 CVflow AI SoC 支持 ADAS 功能,提升道路安全,重塑
    的頭像 發(fā)表于 02-07 11:20 ?633次閱讀

    發(fā)布N1-655前端生成AI芯片

    Ambarella(下稱“”,納斯達(dá)克股票代碼:AMBA,AI 視覺感知芯片公司)在 CES 上發(fā)布
    的頭像 發(fā)表于 01-09 10:29 ?794次閱讀

    基于Arm Neoverse平臺的處理器革新生成AI體驗

    Llama 是一個專為開發(fā)者、研究人員和企業(yè)打造的開源大語言模型 (LLM) 庫,旨在推動生成 AI 的創(chuàng)新、實驗及可靠地擴(kuò)展。
    的頭像 發(fā)表于 01-03 15:31 ?655次閱讀
    基于Arm Neoverse平臺的處理器革新<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>體驗

    定制本地的ChatFile的AI問答系統(tǒng)

    會遇到這樣的困擾?今天,我們將利用下面兩個技術(shù)為自己定制一個本地的 ChatFile 的 AI 問答系統(tǒng): 1. Google 最新開源的生成
    的頭像 發(fā)表于 01-03 09:26 ?639次閱讀
    定制<b class='flag-5'>本地</b>的ChatFile的<b class='flag-5'>AI</b>問答系統(tǒng)

    LG與攜手推動 AI 艙內(nèi)安全解決方案的發(fā)展

    移動技術(shù)領(lǐng)域的領(lǐng)導(dǎo)者 LG Electronics(下稱“LG”)和 Ambarella(下稱“”,納斯達(dá)克股票代碼:AMBA,AI 視覺感知芯片公司)今天宣布,LG 將在 202
    的頭像 發(fā)表于 12-05 09:27 ?1093次閱讀
    LG與<b class='flag-5'>安</b><b class='flag-5'>霸</b>攜手推動 <b class='flag-5'>AI</b> 艙內(nèi)安全解決方案的發(fā)展

    恩智浦如何在邊緣設(shè)備上部署LLM

    近來,與AI相關(guān)的周期性熱點幾乎都圍繞著大語言模型 (LLM) 和生成AI模型,這樣的趨勢反映出這些話題近年來日益增強(qiáng)的影響力和普及程度。
    的頭像 發(fā)表于 11-29 09:39 ?903次閱讀

    設(shè)備上利用AI Edge Torch生成API部署自定義大語言模型

    MediaPipe LLM Inference API 讓開發(fā)者們能夠?qū)⒁恍┳钍軞g迎的 LLM 部署到設(shè)備上。現(xiàn)在,我們很高興能進(jìn)一步拓展對模型的支持范圍,并讓大家部署到
    的頭像 發(fā)表于 11-14 10:23 ?1053次閱讀
    在<b class='flag-5'>設(shè)備</b>上利用<b class='flag-5'>AI</b> Edge Torch<b class='flag-5'>生成</b><b class='flag-5'>式</b>API部署自定義大語言模型

    三行代碼完成生成AI部署

    OpenVINO2024.2版本跟之前版本最大的不同是OpenVINO2024.2分為兩個安裝包分別是基礎(chǔ)包與生成AI支持包,新發(fā)布的Ge
    的頭像 發(fā)表于 08-30 16:49 ?735次閱讀
    三行代碼完成<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>部署

    謀科技異構(gòu)算力組合,破局生成AI算力挑戰(zhàn)

    ,“此芯P1”不僅異構(gòu)集成了Armv9 CPU核心與Arm Immortalis GPU,還搭載了謀科技(中國)有限公司(以下簡稱“謀科技”)“周易”NPU等自研業(yè)務(wù)產(chǎn)品。憑借高能效的異構(gòu)算力資源、系統(tǒng)級的安全保障以及強(qiáng)大的
    的頭像 發(fā)表于 08-13 09:12 ?882次閱讀

    llm模型本地部署有用嗎

    ,將這些模型部署到本地環(huán)境可能會帶來一些挑戰(zhàn)和優(yōu)勢。 1. LLM模型概述 大型語言模型(LLM)通常是基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型,它們能夠處理和理解大量的自然語言數(shù)據(jù)。這些模型通常
    的頭像 發(fā)表于 07-09 10:14 ?1193次閱讀