chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

怎么使用蒸餾法對低精度推理出浮點網(wǎng)絡(luò)進行高保真的轉(zhuǎn)換?

Dbwd_Imgtec ? 來源:Imagination Tech ? 作者:Szabolcs Cséfalvay ? 2021-06-19 14:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)網(wǎng)絡(luò)加速器快速、低功耗推理的一個主要挑戰(zhàn)是模型的大小。近年來,隨著模型尺寸的增加,推理時間和每次推理能耗的相應(yīng)增加,神經(jīng)網(wǎng)絡(luò)向更深的神經(jīng)網(wǎng)絡(luò)發(fā)展,激活和系數(shù)也在增加。這在資源受限的移動和汽車應(yīng)用中尤為重要。

低精度推理有助于通過降低 DRAM 帶寬(這是影響設(shè)備能耗的一個重要因素)、計算邏輯成本和功耗來降低推理成本。在這種情況下,下面的問題自然而然地出現(xiàn)了:編碼神經(jīng)網(wǎng)絡(luò)權(quán)重和激活的最佳位深度是多少?有幾個建議的數(shù)字格式可以減少位深度,包括Nvidia的TensorFloat,谷歌的8位非對稱定點(Q8A)和bfloat16。

但是,雖然這些格式是朝著正確方向邁出的一步,但不能說它們是最佳的:例如,大多數(shù)格式都為要表示的每個值存儲一個指數(shù),當(dāng)多個值在同一區(qū)間時,這些指數(shù)可能是多余的。

更重要的是,他們沒有考慮神經(jīng)網(wǎng)絡(luò)的不同部分通常有不同的位深度要求這一事實。有些圖層可以用較低的位深度編碼,而其他圖層(如輸入和輸出層)需要更高的位深度。MobileNet v3就是一個例子,它可以從 32 位浮點轉(zhuǎn)換為大多數(shù)在 5-12 位區(qū)間內(nèi)的位深度(見圖 1)。

我們稱使用不同的位深度來編碼原始浮點網(wǎng)絡(luò)的不同部分為可變位深度 (VBD) 壓縮。當(dāng)然,權(quán)重的位深度編碼和網(wǎng)絡(luò)準(zhǔn)確度也是需要權(quán)衡的。較低的位深度會導(dǎo)致更有效的推斷,但刪除過多的信息會損害準(zhǔn)確性,這意味著需要找到一個最佳的折中方案。VBD 壓縮的目標(biāo)是在壓縮和精度之間進行平衡。

原則上,可以將其視為優(yōu)化問題:我們希望用盡可能少的比特數(shù)達到最佳精度的網(wǎng)絡(luò)。這是通過在損失函數(shù)中添加新的一項來實現(xiàn)的,該項表示網(wǎng)絡(luò)的大小,以便可以沿原始損失函數(shù)最小化,該函數(shù)可以大致表示為:總損失=網(wǎng)絡(luò)錯誤+γ(網(wǎng)絡(luò)大?。┢渲笑檬且粋€權(quán)重因子,用于控制網(wǎng)絡(luò)大小和誤差之間的目標(biāo)權(quán)衡。

因此,要以這種方式壓縮網(wǎng)絡(luò),我們需要兩件事:精度的可微度量(錯誤)和網(wǎng)絡(luò)大小的可微度量(壓縮位深度)。網(wǎng)絡(luò)大小項和網(wǎng)絡(luò)誤差項相對于比特數(shù)的可微性非常重要,因為它使我們能夠優(yōu)化(學(xué)習(xí))比特深度。

可微網(wǎng)絡(luò)規(guī)模

對于可微量化,我們可以使用任何具有可微位深度參數(shù)的函數(shù),該參數(shù)將一個或多個浮點值映射為硬件可表示的壓縮數(shù)字格式。例如,我們可以使用 Google Q8A 量化的可變位深度版本(其中可表示范圍不是以零為中心):

d76f1e1a-d02c-11eb-9e57-12bb97331649.png

其中:

?x?是 x 四舍五入到最近的整數(shù)(使用目標(biāo)硬件平臺的舍入模式)

B 是位深度。

E 是浮點表示的指數(shù)。

α是不對稱參數(shù)。

在實踐中,量化參數(shù) B、E 和α用于壓縮多個權(quán)重,例如,單個參數(shù)用于壓縮整個神經(jīng)網(wǎng)絡(luò)層(激活或權(quán)重張量)或?qū)觾?nèi)的通道。我們還可以通過將不對稱參數(shù)設(shè)置為 0 來使用對稱量化(有效地將其轉(zhuǎn)換為縮放的 B位無符號整數(shù)格式):d7900cd8-d02c-11eb-9e57-12bb97331649.png為了實現(xiàn)對所有參數(shù)的反向傳播,我們使用直通估計器,將圓形函數(shù)的梯度作為 1。這使得公式中的所有操作都是可微的,使所有參數(shù)(包括位深度)都可學(xué)習(xí)!此時,我們可以選擇要訓(xùn)練的參數(shù):1. 權(quán)重和最大壓縮位深度。2. 只有權(quán)重和指數(shù)(對于固定的位深度)。3. 只有量化參數(shù),它有幾個好處(如下所述),成本可能更低的壓縮比。在生成本文的結(jié)果時選擇了選項 3。

另一個需要考慮的方面是優(yōu)化位深度參數(shù) B(對于某些格式的指數(shù) E):任何硬件都需要 B 是整數(shù)。要找到整數(shù)解,我們有多種選擇:

將四舍五入與直通估計器一起應(yīng)用于 B 參數(shù)(例如,使用公式)。但是,這給優(yōu)化表面帶來了不連續(xù)性,雖然可以處理,但超出了本文的范圍。

d79c9da4-d02c-11eb-9e57-12bb97331649.png

這里選擇的替代方案是在訓(xùn)練的第一階段優(yōu)化浮點數(shù)B,“保守”地將其四舍五入到最近的整數(shù)?B?( 否則激活和權(quán)重張量的重要部分可能會被鉗制),將其固定為常量并繼續(xù)訓(xùn)練。這樣平均會損失大約 0.5 位的潛在壓縮,但保證不會發(fā)生不適當(dāng)?shù)牟眉簟?/p>

可微精度測度

為了測量網(wǎng)絡(luò)的準(zhǔn)確性,我們可以簡單地使用網(wǎng)絡(luò)最初訓(xùn)練的相同損失函數(shù)。然而,在許多應(yīng)用中,目標(biāo)是壓縮一個已經(jīng)用32 位浮點訓(xùn)練的網(wǎng)絡(luò),這意味著我們可以用蒸餾損失代替。這意味著壓縮網(wǎng)絡(luò)的精度是根據(jù)原始網(wǎng)絡(luò)的輸出來衡量的。在這項工作中,選擇(輸出)logits之間的絕對差異作為蒸餾損失,但也可以采用其他措施。

使用的蒸餾損失定義為:

d7a9323a-d02c-11eb-9e57-12bb97331649.png

(等式1)

蒸餾損失有許多優(yōu)點:

標(biāo)簽訓(xùn)練:我們不需要標(biāo)簽數(shù)據(jù)來壓縮網(wǎng)絡(luò),因為我們用原始網(wǎng)絡(luò)的輸出取代了標(biāo)簽。這意味著我們可以壓縮網(wǎng)絡(luò),而無需訪問(可能是專有的)原始數(shù)據(jù)集:我們只需要具有代表性的輸入和原始網(wǎng)絡(luò)。

通用性:神經(jīng)網(wǎng)絡(luò)壓縮機具有通用性:它不需要特定于網(wǎng)絡(luò)。

更少的訓(xùn)練數(shù)據(jù):由于我們只是訓(xùn)練量化參數(shù),過度擬合的范圍大大縮小,所以我們可以使用更少的訓(xùn)練數(shù)據(jù)。有時候一張圖片就足夠了!

軟目標(biāo):由于從輸入得到的蒸餾損失比標(biāo)簽包含更多的量化誤差信息,因此它允許更快、更準(zhǔn)確的收斂。

我們可以使用蒸餾損失將權(quán)重與量化參數(shù)一起訓(xùn)練。然而,在這種情況下,我們需要更多的訓(xùn)練數(shù)據(jù)來防止過度擬合。兩全其美的方法是以很小的學(xué)習(xí)率來訓(xùn)練權(quán)重,并提前停止。這樣,權(quán)重可以抵消量化誤差,而不會過度擬合數(shù)據(jù)集。

可微壓縮將通用的、可微的精度度量與可微量化相結(jié)合,得到可微壓縮的損失函數(shù):

d7a9323a-d02c-11eb-9e57-12bb97331649.png

(等式2)第一個項是誤差,第二項是網(wǎng)絡(luò)大小的成本。B 是網(wǎng)絡(luò)的平均位深度,可根據(jù)整個網(wǎng)絡(luò)的深度參數(shù)來計算:

d7e7c4e6-d02c-11eb-9e57-12bb97331649.png

(等式3)其中c_i是使用位深度參數(shù)B_i量化的網(wǎng)絡(luò)參數(shù)(權(quán)重或激活)的數(shù)量。請注意,此測量方式取決于批次大小。例如,如果對32個批次網(wǎng)絡(luò)進行評估,則激活張量的大小實際上比使用1 批次大小的高出 32 倍。如果目標(biāo)是將網(wǎng)絡(luò)權(quán)重存儲在盡可能小的空間中,則此指標(biāo)中也可以忽略激活。

選擇量化粒度一些神經(jīng)網(wǎng)絡(luò)表示,如谷歌的Q8A格式,允許將不同的比例系數(shù)(與上面的指數(shù)E的2次冪相關(guān))應(yīng)用于權(quán)重張量(過濾器)的不同通道。這種更精細(xì)的粒度可提高給定壓縮級別的網(wǎng)絡(luò)精度。

通過對每個通道應(yīng)用單獨的 E 和α參數(shù),同時對整個張量使用相同的 B 參數(shù),可以通過可變位深度壓縮實現(xiàn)相同的目標(biāo)。然而,每個通道的量化會導(dǎo)致更慢的收斂,因此根據(jù)我們的經(jīng)驗,使用學(xué)習(xí)前張量參數(shù)的訓(xùn)練階段更快,然后將這些參數(shù)分解為每通道參數(shù),并讓它們在另一個訓(xùn)練階段收斂。

這最終導(dǎo)致三個階段的訓(xùn)練計劃:

根據(jù)張量訓(xùn)練所有量化參數(shù)

切換到每通道指數(shù)和移位參數(shù)

將位深度舍入到整數(shù),并將其固定到常量,然后訓(xùn)練指數(shù)和移位參數(shù)α。此外,權(quán)重也以較小的學(xué)習(xí)率進行訓(xùn)練。

結(jié)果對象分類

壓縮分類網(wǎng)絡(luò)的精確度。

圖像分割

應(yīng)用于分割網(wǎng)絡(luò)的不同壓縮方法之間的比較。第二個列基于啟發(fā)式算法,該算法試圖在不使用反向傳播的情況下確定固定位深度的最佳指數(shù)。

風(fēng)格轉(zhuǎn)換

最后一列使用上述啟發(fā)式給出10 比特時的完全空白輸出。

結(jié)論用于編碼神經(jīng)網(wǎng)絡(luò)權(quán)重和激活的位深度對推理性能有顯著影響。將大小精度權(quán)衡作為損失函數(shù)的一部分,可以在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中學(xué)習(xí)任意粒度的最佳比特深度。此外,當(dāng)優(yōu)化將 0 位分配給網(wǎng)絡(luò)的一部分時,它會有效地從架構(gòu)中刪除該部分,作為一種架構(gòu)搜索,從而降低計算成本和帶寬成本。今后的工作將探索這方面的可微網(wǎng)絡(luò)壓縮。我們提出了一種基于微分量化和蒸餾的通用而靈活的方法,允許在不影響精度的情況下為各種任務(wù)優(yōu)化位數(shù)。我們的方法有幾個優(yōu)點,包括訓(xùn)練時間短,重復(fù)使用訓(xùn)練過的網(wǎng)絡(luò),不需要標(biāo)簽,可調(diào)整的大小精度權(quán)衡和問題無關(guān)的損失功能。通過這種方式,我們可以將網(wǎng)絡(luò)壓縮為有效的可變位深度表示,而不犧牲對原始浮點網(wǎng)絡(luò)的保真度。

[i] https://blogs.nvidia.com/blog/2020/05/14/tensorfloat-32-精確格式/

[ii]https://www.tensorflow.org/lite/performance/quantization_spec

[iii]https://arxiv.org/abs/1905.12322

[iv] https://arxiv.org/abs/1308.3432

[v]https://arxiv.org/abs/1503.02531

作者:Szabolcs Cséfalvay

原文鏈接:https://www.imaginationtech.com/blog/low-precision-inference-using-distillation/

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • DRAM
    +關(guān)注

    關(guān)注

    40

    文章

    2373

    瀏覽量

    188219
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6245

    瀏覽量

    110274
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4829

    瀏覽量

    106819
  • 估計器
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    5661

原文標(biāo)題:使用蒸餾法對低精度推理的浮點網(wǎng)絡(luò)進行高保真轉(zhuǎn)換

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    免費獲取 | SimData高保真虛擬數(shù)據(jù)集開源發(fā)布,兼容nuScenes,開箱即用!

    的關(guān)鍵瓶頸。在此背景下,基于高保真仿真技術(shù)構(gòu)建的SimData自動駕駛虛擬數(shù)據(jù)集,以“低成本、高保真、場景全”的核心優(yōu)勢,為行業(yè)提供了高效的解決方案。為此,康謀依托自
    的頭像 發(fā)表于 12-09 17:32 ?21次閱讀
    免費獲取 | SimData<b class='flag-5'>高保真</b>虛擬數(shù)據(jù)集開源發(fā)布,兼容nuScenes,開箱即用!

    浮點指令(二:雙精度

    浮點指令以及簡單解釋 fadd.d fadd.d rd, rs1, rs2//f [rd] = f [rs1] + f [rs2] 雙精度浮點加(Floating-point Add
    發(fā)表于 10-24 13:00

    浮點指令(一:單精度

    浮點指令以及簡單解釋 fadd.s fadd.s rd, rs1, rs2//f [rd] = f [rs1] + f [rs2] 單精度浮點加(Floating-point Add
    發(fā)表于 10-24 11:42

    蜂鳥E203擴展浮點指令設(shè)計(1)

    , rs2 fdiv.s rd, rs1, rs2 fsqrt.s rd, rs1 ? fadd.s指令將操作數(shù)寄存器rs1和rs2中的單精度浮點數(shù)進行加法操作,結(jié)果寫回寄存器rd中。 ? fsub.s指令
    發(fā)表于 10-24 10:00

    RVF單精度浮點指令集擴展介紹(2)

    RVF單精度浮點指令集擴展 RVF擴展了26條浮點指令。 浮點乘加指令 浮點比較、最大最小值、轉(zhuǎn)移、符號注入、分類指令
    發(fā)表于 10-22 07:26

    浮點運算單元的設(shè)計和優(yōu)化

    普通的加減交替,同樣對于無符號乘法進行一位符號擴展后統(tǒng)一當(dāng)作有符號數(shù)進行運算,最終得到完全準(zhǔn)確的除法結(jié)果,總共最多需要36個時鐘周期。 4.浮點指令擴展:計劃先完成單
    發(fā)表于 10-22 07:04

    功放IC搭配的升壓芯片選型指南:為何H6801更適合高保真功放系統(tǒng)?

    技術(shù),具備失真小、噪聲、動態(tài)范圍廣等特性,尤其在音質(zhì)解析力、低頻控制力及背景純凈度上表現(xiàn)突出,兼顧高保真與低能耗優(yōu)勢。目前音頻功放芯片主要面向消費電子領(lǐng)域,廣泛應(yīng)用于智能音箱、電視、投影儀、便攜影音
    發(fā)表于 09-04 16:39

    功放IC搭配的升壓芯片選型指南:為何H6922更適合高保真功放系統(tǒng)?

    脈沖調(diào)制技術(shù),具備失真小、噪聲、動態(tài)范圍廣等特性,尤其在音質(zhì)解析力、低頻控制力及背景純凈度上表現(xiàn)突出,兼顧高保真與低能耗優(yōu)勢。目前音頻功放芯片主要面向消費電子領(lǐng)域,廣泛應(yīng)用于智能音箱、電視、投影儀
    發(fā)表于 09-04 09:59

    干擾可以提高測量精度,是真的嗎?

    一、前言 水可以引燃蠟燭,是真的嗎?是真的! 蛇怕雄黃,是真的嗎?是假的! 上述兩個現(xiàn)象,已經(jīng)由央視 財經(jīng)頻道《是真的嗎?》揭秘。 今天要探討的是: 干擾可以提高測量
    的頭像 發(fā)表于 08-04 09:28 ?543次閱讀
    干擾可以提高測量<b class='flag-5'>精度</b>,是<b class='flag-5'>真的</b>嗎?

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代

    多維異構(gòu)數(shù)據(jù)進行智能關(guān)聯(lián)與融合分析。l 多階推理鏈:深度模擬專家診斷邏輯,構(gòu)建“現(xiàn)象(如交易延遲)→ 推測(如網(wǎng)絡(luò)擁塞/丟包)→ 驗證(如流量回溯/指標(biāo)關(guān)聯(lián)分析)→ 定因(如交換機QOS策略錯誤/硬件
    發(fā)表于 07-16 15:29

    Simcenter STAR-CCM+在燃燒學(xué)方面的應(yīng)用:提供了一個可以高效、高保真進行燃燒仿真的迅速而可擴展的化學(xué)求解器

    ,確保獲得精確結(jié)果,同時減少提前構(gòu)建網(wǎng)格的工作量,是火焰瞬態(tài)仿真的理想選擇使用多時間尺度進行共軛熱仿真和LES,獲得制造燃燒室內(nèi)襯所需的高保真數(shù)據(jù)摘要如今,新一
    的頭像 發(fā)表于 06-27 17:11 ?537次閱讀
    Simcenter STAR-CCM+在燃燒學(xué)方面的應(yīng)用:提供了一個可以高效、<b class='flag-5'>高保真</b><b class='flag-5'>進行</b>燃燒仿<b class='flag-5'>真的</b>迅速而可擴展的化學(xué)求解器

    LME49600 單通道、110MHz、高保真、高電流耳機緩沖器技術(shù)手冊

    LME49600是一款高性能、失真、高保真度的250mA音頻緩沖器。LME49600專為廣泛的應(yīng)用而設(shè)計。它可以在運算放大器的反饋回路中使用。
    的頭像 發(fā)表于 05-20 09:45 ?1313次閱讀
    LME49600 單通道、110MHz、<b class='flag-5'>高保真</b>、高電流耳機緩沖器技術(shù)手冊

    揭秘:為什么說TS-AWG系列+外部衰減器是幅脈沖測試的終極解決方案?

    無論是醫(yī)療設(shè)備研發(fā)中的心臟信號模擬,還是光電探測領(lǐng)域的毫伏級脈沖測試,德思特TS-AWG系列任意波形發(fā)生器憑借16位垂直分辨率、超精細(xì)DAC步長(至0.076mV)和靈活的外部衰減配置,提供了高精度、高保真的信號生成能力。
    的頭像 發(fā)表于 03-12 14:16 ?646次閱讀
    揭秘:為什么說TS-AWG系列+外部衰減器是<b class='flag-5'>低</b>幅脈沖測試的終極解決方案?

    使用OpenVINO?進行推理時的內(nèi)存泄漏怎么解決?

    使用 OpenVINO? 進行推理時,內(nèi)存會隨著時間的推移而增加,并導(dǎo)致程序崩潰。
    發(fā)表于 03-06 08:29

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務(wù)

    。 據(jù)悉,DeepSeek開源模型在多語言理解與復(fù)雜推理任務(wù)中一直表現(xiàn)出卓越的性能,其V3、R1等系列模型更是備受業(yè)界關(guān)注。而此次摩爾線程所實現(xiàn)的DeepSeek蒸餾模型推理服務(wù)部署,正是基于這些優(yōu)秀模型的基礎(chǔ)上
    的頭像 發(fā)表于 02-06 13:49 ?1185次閱讀