chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在手持設(shè)備上安裝龐大的transformer網(wǎng)絡(luò)

CEVA ? 來(lái)源:CEVA ? 2023-10-11 14:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Siri和OK Google是最早實(shí)現(xiàn)語(yǔ)音控制的應(yīng)用程序,這著實(shí)為我們帶來(lái)了很多樂(lè)趣;但很快我們便意識(shí)到,必須仔細(xì)說(shuō)出請(qǐng)求才能獲得實(shí)用回答。

就現(xiàn)在所見(jiàn),ChatGPT理解程度高,使用起來(lái)更容易,但直到最近,其功能還僅限于通過(guò)基于云的應(yīng)用程序進(jìn)行文本互動(dòng)?,F(xiàn)如今,ChatGPT是大勢(shì)所趨,手機(jī)幾乎人人必備,促使著針對(duì)ChatGPT(手機(jī)版)的transformer網(wǎng)絡(luò)盡快推出,讓每個(gè)擁有手機(jī)的人都能感受到大語(yǔ)言模型的威力。

在此方面面臨的一個(gè)明顯挑戰(zhàn)是,我們所知的 ChatGPT依賴于數(shù)萬(wàn)億個(gè)參數(shù)。而這種規(guī)模的transformer網(wǎng)絡(luò)只能在云端運(yùn)行。有人建議采用混合模式,即先由手機(jī)或其他應(yīng)用程序負(fù)責(zé)完成部分簡(jiǎn)單工作,再連接到云端進(jìn)行更為繁重的推理。然而,普通手機(jī)用戶可能無(wú)法接受混合解決方案與生俱來(lái)的長(zhǎng)時(shí)間延遲和隱私風(fēng)險(xiǎn)問(wèn)題。因此,更好的方法是,直接在手機(jī)上處理大部分或全部transformer網(wǎng)絡(luò)工作,只在需要時(shí)將偶爾出現(xiàn)的匿名搜索請(qǐng)求轉(zhuǎn)至云端處理。

縮減網(wǎng)絡(luò)大小

如何在手持設(shè)備上安裝龐大的transformer網(wǎng)絡(luò)?Google DeepMind在檢索transformer方面取得了重大突破。其RETRO transformer網(wǎng)絡(luò)運(yùn)行時(shí)的大小只有 LLM transformer的百分之幾,因?yàn)榍罢叩哪P蛥?shù)中不包含具體數(shù)據(jù)。只保留了基本的語(yǔ)言對(duì)話技能,但在理解水平上仍可與GPT3相媲美。如此將網(wǎng)絡(luò)大小縮減到了約80億個(gè)參數(shù)。

CEVA在預(yù)處理時(shí)進(jìn)一步縮減此網(wǎng)絡(luò)大小,將對(duì)感興趣領(lǐng)域提示的準(zhǔn)確度幾乎沒(méi)有影響的參數(shù)歸零,進(jìn)行再訓(xùn)練。仔細(xì)利用這一功能可以大大加快transformer網(wǎng)絡(luò)分析的速度。

準(zhǔn)備邊緣模型的第二步是壓縮,CEVA對(duì)此非常熟悉,并在支持檢索transformer方面做得更好。我們充分利用NeuPro-M架構(gòu)進(jìn)行再訓(xùn)練,大力推進(jìn)此步驟,促使廣泛的混合定點(diǎn)精度和低精度選項(xiàng)降到4位,未來(lái)甚至還能降到2位。

通過(guò)使用這些技術(shù),我們可以將現(xiàn)有檢索transformer壓縮至最低1/20(較現(xiàn)在而言),盡管其相較LLM而言已經(jīng)壓縮了很多。將這種壓縮剪枝應(yīng)用于RETRO模型縮減后,可以產(chǎn)生巨大縮減,將萬(wàn)億參數(shù)模型轉(zhuǎn)換為十億參數(shù)模型,進(jìn)而有望實(shí)現(xiàn)ChatGPT(移動(dòng)版)。

NeuPro-M AI核心

當(dāng)然,僅僅適合的transformer網(wǎng)絡(luò)是不夠的。它還需要運(yùn)行得足夠快,才能滿足用戶對(duì)響應(yīng)時(shí)間的期望。而這一點(diǎn)可以通過(guò)專為L(zhǎng)LM應(yīng)用程序優(yōu)化的NeuPro-M NPU IP多引擎架構(gòu)實(shí)現(xiàn)。在此流程中,首先要做到的是由真正的稀疏引擎來(lái)進(jìn)行管理,且這一步舉足輕重。稀疏引擎管理可跳過(guò)權(quán)重或數(shù)據(jù)為零的冗余操作,提高吞吐量,這是需要注意的一點(diǎn)。而在預(yù)處理時(shí)縮減之后,會(huì)出現(xiàn)大量歸零參數(shù),盡管這些參數(shù)分布不均勻。對(duì)于這種非結(jié)構(gòu)化稀疏引擎,每個(gè)NeuPro-M處理器內(nèi)核中的專用稀疏引擎可發(fā)揮4倍性能優(yōu)勢(shì)(與傳統(tǒng)稀疏引擎相比),并相應(yīng)地降低功耗。

鑒于transformer架構(gòu)可以分解為可并行實(shí)現(xiàn)的離散正交運(yùn)算,下一優(yōu)化應(yīng)運(yùn)而生。此時(shí),可以利用 NeuPro-M多核架構(gòu)支持多達(dá)8個(gè)內(nèi)核。transformer中 query、key和value三個(gè)向量的計(jì)算會(huì)在引擎中分批進(jìn)行,在共享公共二級(jí)緩存的多個(gè)內(nèi)核并行處理。并行處理不僅有利于attention步驟,還有利于softmax步驟,以及計(jì)算attention函數(shù)之后的歸一化函數(shù)。在傳統(tǒng)的人工智能系統(tǒng)中,softmax可能是遏制性能提升的重大瓶頸。在NeuPro-M中,attention和softmax可以并行實(shí)現(xiàn),因此softmax對(duì)于吞吐時(shí)間的增加幾乎可以忽略不計(jì)。NeuPro-M在transformer計(jì)算中實(shí)現(xiàn)大規(guī)模并行處理如下圖所示。

fca80bde-67ff-11ee-939d-92fbcf53809c.png

fcbd0f2a-67ff-11ee-939d-92fbcf53809c.png

▲transformer計(jì)算中的可擴(kuò)展并行化

NeuPro-M架構(gòu)包括特殊支持,最大限度地提高芯片吞吐量,線程之間幾乎沒(méi)有停滯,進(jìn)一步簡(jiǎn)化這些流中的高度并行性以及線程之間的數(shù)據(jù)共享。

為ChatGPT(移動(dòng)版)構(gòu)建語(yǔ)音界面

完成最難的部分后,在前端添加語(yǔ)音識(shí)別和在后端添加文本轉(zhuǎn)語(yǔ)音,便可以通過(guò)額外相對(duì)簡(jiǎn)單的transformer網(wǎng)絡(luò)實(shí)現(xiàn)。將我們的ClearVox語(yǔ)音處理前端軟件連接到語(yǔ)音識(shí)別transformer,以輸入提示,并接受引導(dǎo),確定主transformer應(yīng)執(zhí)行哪一組精煉提示。必要時(shí),可從互聯(lián)網(wǎng)上檢索查詢相關(guān)文檔。最后,使用文本轉(zhuǎn)語(yǔ)音transformer對(duì)下載的回復(fù)或文件進(jìn)行語(yǔ)音處理。現(xiàn)在來(lái)說(shuō),完全在手機(jī)上運(yùn)行,且具有完全基于語(yǔ)音的 ChatGPT功能界面便是ChatGPT(移動(dòng)版)的不同之處。

更廣泛的應(yīng)用

NeuPro-M平臺(tái)并不局限于ChatGPT(移動(dòng)版)這樣的GPT類應(yīng)用。它可以同樣應(yīng)用于任何生成式方法。例如,您可以使用穩(wěn)定的擴(kuò)散transformer生成圖像、視頻或任何其他人工生成或修改的體驗(yàn)。NeuPro-M解決方案在transformer網(wǎng)絡(luò)建模方面非常通用。

審核編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    8027

    瀏覽量

    92221
  • 手持設(shè)備
    +關(guān)注

    關(guān)注

    0

    文章

    52

    瀏覽量

    24558
  • 應(yīng)用程序
    +關(guān)注

    關(guān)注

    38

    文章

    3339

    瀏覽量

    59709
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    6720

原文標(biāo)題:針對(duì)ChatGPT(手機(jī)版)的優(yōu)化版Transformer網(wǎng)絡(luò)

文章出處:【微信號(hào):CEVA-IP,微信公眾號(hào):CEVA】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    RFID手持掃描設(shè)備是什么 RFID手持掃描設(shè)備有什么作用

    在物流倉(cāng)庫(kù)、商場(chǎng)貨架、圖書(shū)館等場(chǎng)景中,你可能見(jiàn)過(guò)工作人員拿著一個(gè)類似手機(jī)或?qū)χv機(jī)的設(shè)備,輕輕一掃就能快速識(shí)別物品信息——這就是RFID手持掃描設(shè)備。它不像傳統(tǒng)條碼掃描那樣需要對(duì)準(zhǔn)標(biāo)簽,哪怕物品被包裝
    的頭像 發(fā)表于 08-18 16:22 ?574次閱讀
    RFID<b class='flag-5'>手持</b>掃描<b class='flag-5'>設(shè)備</b>是什么 RFID<b class='flag-5'>手持</b>掃描<b class='flag-5'>設(shè)備</b>有什么作用

    什么是RFID手持終端設(shè)備?

    在大型倉(cāng)庫(kù)里,管理員握著一個(gè)巴掌大的設(shè)備在貨架間漫步,無(wú)需逐件翻看,數(shù)十件貨物的信息就自動(dòng)顯示在屏幕;在圖書(shū)館,工作人員用一個(gè)便攜儀器掃過(guò)書(shū)架,幾十本圖書(shū)的借閱狀態(tài)瞬間統(tǒng)計(jì)完成——這些高效場(chǎng)景
    的頭像 發(fā)表于 08-01 15:01 ?652次閱讀
    什么是RFID<b class='flag-5'>手持</b>終端<b class='flag-5'>設(shè)備</b>?

    【經(jīng)驗(yàn)分享】在Omni3576編譯Redis-8.0.2源碼,并安裝及性能測(cè)試

    本文首先介紹Redis是什么,然后介紹如何在Omni3576編譯Redis-8.0.2源碼,以及從源碼編譯、安裝Redis,最后介紹如何在Omni3576
    的頭像 發(fā)表于 06-05 08:05 ?638次閱讀
    【經(jīng)驗(yàn)分享】在Omni3576<b class='flag-5'>上</b>編譯Redis-8.0.2源碼,并<b class='flag-5'>安裝</b>及性能測(cè)試

    何在Android設(shè)備安裝Cyusb3014芯片驅(qū)動(dòng)?

    1.如何在Android設(shè)備安裝Cyusb3014芯片驅(qū)動(dòng)? 我們?cè)?Windows 上有 FX3 驅(qū)動(dòng)程序 SDK。 2.如何在Andr
    發(fā)表于 05-15 07:23

    何在Ubuntu安裝NVIDIA顯卡驅(qū)動(dòng)?

    專有顯卡驅(qū)動(dòng)。本文將詳細(xì)介紹在Ubuntu系統(tǒng)安裝NVIDIA顯卡驅(qū)動(dòng)的多種方法,幫助用戶根據(jù)自身情況選擇最適合的安裝方式。 二,硬件參數(shù) 平臺(tái):PX22_GPU CPU:I7-1165G7
    的頭像 發(fā)表于 05-07 16:05 ?1703次閱讀
    如<b class='flag-5'>何在</b>Ubuntu<b class='flag-5'>上</b><b class='flag-5'>安裝</b>NVIDIA顯卡驅(qū)動(dòng)?

    何在 Raspberry Pi 5 設(shè)置 Raspberry Pi AI Kit

    本指南將幫助您在RaspberryPi5安裝RaspberryPiAIKit。這將使您能夠使用HailoAI神經(jīng)網(wǎng)絡(luò)加速器運(yùn)行rpicam-apps攝像頭演示。如果您在開(kāi)始安裝人工智
    的頭像 發(fā)表于 03-25 09:44 ?469次閱讀
    如<b class='flag-5'>何在</b> Raspberry Pi 5 <b class='flag-5'>上</b>設(shè)置 Raspberry Pi AI Kit

    告別復(fù)雜的終極指南:如何在樹(shù)莓派上安裝 Manjaro:2024

    如果你想在RaspberryPi上體驗(yàn)ArchLinux,Manjaro可能是你的最佳選擇。它基于Arch,但被打包成一個(gè)傳統(tǒng)的Linux發(fā)行版,支持多種桌面環(huán)境和架構(gòu)。讓我們來(lái)學(xué)習(xí)如何在RaspberryPi安裝它。什么是L
    的頭像 發(fā)表于 03-25 09:39 ?980次閱讀
    告別復(fù)雜的終極指南:如<b class='flag-5'>何在</b>樹(shù)莓派上<b class='flag-5'>安裝</b> Manjaro:2024

    人臉識(shí)別指南:如何在樹(shù)莓派上安裝和設(shè)置 Dlib

    學(xué)習(xí)如何在樹(shù)莓派上安裝Dlib并配置人臉識(shí)別功能,為您的AI項(xiàng)目奠定基礎(chǔ)。在樹(shù)莓派上安裝Dlib的詳細(xì)步驟要為樹(shù)莓派安裝Dlib并確保人臉識(shí)別項(xiàng)目順利運(yùn)行,請(qǐng)按照以下詳細(xì)步驟操作。前置
    的頭像 發(fā)表于 03-24 17:31 ?1081次閱讀
    人臉識(shí)別指南:如<b class='flag-5'>何在</b>樹(shù)莓派上<b class='flag-5'>安裝</b>和設(shè)置 Dlib

    頂堅(jiān)手持終端賦能鐵路巡檢,打造智慧鐵路網(wǎng)絡(luò)

    手持終端以其強(qiáng)大的數(shù)據(jù)采集、實(shí)時(shí)通訊與智能化分析能力,正深刻變革著鐵路巡檢模式,為構(gòu)建高效、安全、智能的智慧鐵路網(wǎng)絡(luò)奠定了堅(jiān)實(shí)基礎(chǔ)。通過(guò)精準(zhǔn)捕捉設(shè)備狀態(tài),即時(shí)傳輸巡檢信息,手持終端不僅
    的頭像 發(fā)表于 03-10 10:30 ?522次閱讀
    頂堅(jiān)<b class='flag-5'>手持</b>終端賦能鐵路巡檢,打造智慧鐵路<b class='flag-5'>網(wǎng)絡(luò)</b>

    磁編碼器在手持噴碼機(jī)上的作用

    首先我們要了解下手持噴碼機(jī),手持噴碼機(jī)通常用于在物品表面打印各類信息,手持式的工作特點(diǎn)是方便靈活移動(dòng)。但是同時(shí)因?yàn)槭謺?huì)抖動(dòng)或者物體表面的不平整等因素會(huì)導(dǎo)致打印的信息彎曲變形,所以需要一個(gè)編碼器來(lái)做
    發(fā)表于 03-04 16:52

    transformer專用ASIC芯片Sohu說(shuō)明

    的舊圖像模型,也不能運(yùn)行CNN、RNN或LSTM。 但對(duì)于transformer來(lái)說(shuō),Sohu是有史以來(lái)最快的芯片。 借助Llama 70B每秒超過(guò)50萬(wàn)個(gè)token的吞吐量,Sohu可以讓您構(gòu)建在GPU無(wú)法實(shí)現(xiàn)的產(chǎn)品
    的頭像 發(fā)表于 01-06 09:13 ?1528次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說(shuō)明

    Ubuntu系統(tǒng)的虛擬機(jī)安裝步驟 如何在Ubuntu系統(tǒng)編譯軟件

    Ubuntu系統(tǒng)安裝虛擬機(jī)的步驟 在Ubuntu系統(tǒng)安裝虛擬機(jī)是一個(gè)相對(duì)簡(jiǎn)單的過(guò)程,通??梢酝ㄟ^(guò)安裝VirtualBox或KVM等虛擬化
    的頭像 發(fā)表于 12-12 14:36 ?1633次閱讀

    Transformer是機(jī)器人技術(shù)的基礎(chǔ)嗎

    生成式預(yù)訓(xùn)練Transformer(GPT)被吹捧為將徹底改變機(jī)器人技術(shù)。但實(shí)際應(yīng)用中,GPT需要龐大且昂貴的計(jì)算資源、冗長(zhǎng)的訓(xùn)練時(shí)間以及(通常)非機(jī)載無(wú)線控制,諸多限制之下,GPT技術(shù)真的
    的頭像 發(fā)表于 12-05 10:54 ?846次閱讀
    <b class='flag-5'>Transformer</b>是機(jī)器人技術(shù)的基礎(chǔ)嗎

    Transformer模型的具體應(yīng)用

    如果想在 AI 領(lǐng)域引領(lǐng)一輪新浪潮,就需要使用到 Transformer
    的頭像 發(fā)表于 11-20 09:28 ?2119次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應(yīng)用

    Transformer模型能夠做什么

    盡管名為 Transformer,但它們不是電視銀幕的變形金剛,也不是電線桿垃圾桶大小的變壓器。
    的頭像 發(fā)表于 11-20 09:27 ?1305次閱讀
    <b class='flag-5'>Transformer</b>模型能夠做什么