chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從統(tǒng)一視角看各類(lèi)高效finetune方法實(shí)現(xiàn)最優(yōu)tuning框架設(shè)計(jì)

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:圓圓的算法筆記 ? 作者:圓圓的算法筆記 ? 2022-11-29 11:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著預(yù)訓(xùn)練模型參數(shù)量越來(lái)越大,遷移學(xué)習(xí)的成本越來(lái)越高,parameter-efficient tuning成為一個(gè)熱點(diǎn)研究方向。在以前我們?cè)谙掠稳蝿?wù)使用預(yù)訓(xùn)練大模型,一般需要finetune模型的所有參數(shù)。隨著parameter-efficient tuning技術(shù)的發(fā)展,一些注入adaptor、prefix tuning、LoRA等成本更低的finetune方法被提出。那么各種各樣的parameter-efficient tuning方法之間是否存在某些潛在的關(guān)系呢?ICLR 2022就有一篇相關(guān)的研究,從統(tǒng)一的視角理解現(xiàn)有的各類(lèi)parameter-efficient tuning方法,并提出了一套遷移框架,可以實(shí)現(xiàn)更接近全量參數(shù)finetune效果的部分參數(shù)finetune。

1各類(lèi)tuning方法回顧

比較經(jīng)典的高效finetune方法主要包括adaptor、prefix-tuning、LoRA這三類(lèi),這里進(jìn)行一個(gè)簡(jiǎn)單的回顧。

Adaptor核心是在原Bert中增加參數(shù)量更小的子網(wǎng)絡(luò),finetune時(shí)固定其他參數(shù)不變,只更新這個(gè)子網(wǎng)絡(luò)的參數(shù)。Adaptor是最早的一類(lèi)高效finetune方法的代表,在Parameter-Efficient Transfer Learning for NLP(ICML 2019)這篇文章中被提出。在原來(lái)的Bert模型的每層中間加入兩個(gè)adapter。Adapter通過(guò)全連接對(duì)原輸入進(jìn)行降維進(jìn)一步縮小參數(shù)量,經(jīng)過(guò)內(nèi)部的NN后再將維度還原,形成一種bottleneck的結(jié)構(gòu)。在finetune過(guò)程中,原預(yù)訓(xùn)練Bert模型的參數(shù)freeze住不更新,只更新adapter的參數(shù),大大減少了finetune階段需要更新和保存的參數(shù)量。

b60e7bc4-6f24-11ed-8abf-dac502259ad0.png

Prefix-tuning的核心是為每個(gè)下游任務(wù)增加一個(gè)prefix embedding,只finetune這些embedding,其他參數(shù)freeze。Prefix-tuning對(duì)應(yīng)的論文是Prefix-Tuning: Optimizing Continuous Prompts for Generation(2021),這類(lèi)方法的思想來(lái)源于prefix prompt,prefix embedding相當(dāng)于一個(gè)上下文信息,對(duì)模型最終產(chǎn)出的結(jié)果造成影響,進(jìn)而只finetune這個(gè)embedding實(shí)現(xiàn)下游任務(wù)的遷移。

b6af57e2-6f24-11ed-8abf-dac502259ad0.png

LoRA的核心是通過(guò)引入?yún)?shù)量遠(yuǎn)小于原模型的可分解的兩小矩陣建立一個(gè)旁路,通過(guò)finetune這個(gè)旁路來(lái)影響預(yù)訓(xùn)練模型。LoRA于LoRA: Low-rank adaptation of large language models(2021)論文中被提出,利用低秩矩陣替代原來(lái)全量參數(shù)的訓(xùn)練,提升finetune效率。

b75a2758-6f24-11ed-8abf-dac502259ad0.png

2統(tǒng)一視角看高效finetune方法

ICLR 2022的這篇文章從統(tǒng)一的視角來(lái)看各類(lèi)不同的parameter-efficient tuning方法。首先對(duì)于prefix tuning,Transformer的每個(gè)head的結(jié)果可以進(jìn)行如下的公式推導(dǎo)變換:

b76eb9f2-6f24-11ed-8abf-dac502259ad0.png

其中,第一行的P就是prefix embedding,C對(duì)應(yīng)著key和value的序列向量,x代表query。經(jīng)過(guò)中間的變換后,可以發(fā)現(xiàn)prefix tuning的attention計(jì)算可以分為兩個(gè)部分的加權(quán)求和,第一部分是原始的attention,第二部分是和key或value無(wú)關(guān)的一項(xiàng),只用query和prefix embedding進(jìn)行self-attention的計(jì)算。而權(quán)重則是根據(jù)prefix embedding的attention權(quán)重。通過(guò)上述公式,我們可以從另一個(gè)視角來(lái)看prefix-tuning:即在原始attention的輸出結(jié)果上,對(duì)位相加一個(gè)由prefix embedding得到的attention值,實(shí)現(xiàn)對(duì)原始attention score的修正。

我們?cè)賮?lái)看Adaptor和LoRA兩種tuning方式的數(shù)學(xué)表示。Adaptor和LoRA方法可以分別表示為如下公式:

b780c99e-6f24-11ed-8abf-dac502259ad0.png

我們把prefix embedding也可以轉(zhuǎn)換成相同的表達(dá)形式:

b7a5b77c-6f24-11ed-8abf-dac502259ad0.png

可以發(fā)現(xiàn)這些finetune方法都具有相似的表達(dá)形式。并且,prefix-tuning中prefix embedding的數(shù)量其實(shí)和Adapter中降維的維度具有相似的功能。三種方法在這個(gè)視角下的對(duì)比如下圖所示:

b7c173ea-6f24-11ed-8abf-dac502259ad0.png

3統(tǒng)一的高效finetune框架

既然上述幾類(lèi)方法表達(dá)形式相似,并且主要學(xué)的都是如何修改原來(lái)attention的輸出結(jié)果,那么我們可以建立一個(gè)統(tǒng)一的框架,涵蓋上述各類(lèi)finetune方法。這個(gè)框架的核心是如何生成修改原始attention score的向量。為了生成這個(gè)向量,需要考慮以下4個(gè)核心模塊:

Functional Form:用什么樣的函數(shù)生成,上述方法基本都是全連接降維+激活函數(shù)+全連接升維的形式,當(dāng)然也可以設(shè)計(jì)更復(fù)雜的函數(shù)形式;

Modified Representation:對(duì)哪個(gè)位置的信息進(jìn)行直接修改;

Insertion Form:向量引入的形式,Adapter采用的是串聯(lián)的方式,根據(jù)上一層的隱狀態(tài)生成向量;而prefix tuning和LoRA采用并聯(lián)的方式,直接根據(jù)輸入序列生成向量;

Composition Function:向量的使用方式,利用adapter中采用簡(jiǎn)單的對(duì)位相加的形式。

Adapter、Prefix-tuning、LoRA等方法按照 上面4個(gè)維度拆分,各自的實(shí)現(xiàn)形式如下表:

b7f18ad0-6f24-11ed-8abf-dac502259ad0.png

接下來(lái),文中基于上述4個(gè)模塊設(shè)計(jì)了一些新的方法:

Parallel Adapter:將Adapter的串聯(lián)形式修改為并聯(lián)形式;

Multi-head Parallel Adapter:在Parallel Adapter基礎(chǔ)上修改了Modified Representation,使用旁路向量修改attention輸出結(jié)果;

Scaled Parallel Adapter:將LoRA的scaling引入進(jìn)來(lái)。

b80cc340-6f24-11ed-8abf-dac502259ad0.png

4實(shí)驗(yàn)結(jié)果

本文由于站在了更高的視角,看到了parameter-efficient tuning的統(tǒng)一形式,因此可以實(shí)現(xiàn)更加靈活的建模方式,基于這個(gè)框架尋找最節(jié)省參數(shù)量、最能達(dá)到更好效果的結(jié)構(gòu)。從下圖可以看出,本文提出的方法實(shí)現(xiàn)接接近全量參數(shù)finetune的效果,參數(shù)量也比Adapter、LoRA等方法有所減少。

b8268032-6f24-11ed-8abf-dac502259ad0.png

文中通過(guò)大量的實(shí)驗(yàn)對(duì)比各個(gè)模塊采用什么樣的形式能帶來(lái)最好的效果-效率的這種,并最終提出最優(yōu)的模型MAM-Adapter。核心的實(shí)驗(yàn)發(fā)現(xiàn)包括:并聯(lián)的方式比串聯(lián)的好;對(duì)FFN輸出結(jié)果的修改比對(duì)Attention輸出結(jié)果修改要好等。

b880989c-6f24-11ed-8abf-dac502259ad0.png

5總結(jié)

本文從統(tǒng)一視角看parameter-efficient tuning,實(shí)現(xiàn)了更高視角的最優(yōu)tuning框架設(shè)計(jì)。這也啟發(fā)我們尋找同類(lèi)問(wèn)題不同建模方式背后原理的統(tǒng)一性,能夠跳出一種模型結(jié)構(gòu)去看各類(lèi)建模方式的相似性,實(shí)現(xiàn)更高視角下對(duì)問(wèn)題的理解。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • LoRa
    +關(guān)注

    關(guān)注

    353

    文章

    1819

    瀏覽量

    236437

原文標(biāo)題:從統(tǒng)一視角看各類(lèi)高效finetune方法

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    汽車(chē)800V高壓儲(chǔ)能電池管理系統(tǒng)設(shè)計(jì)框架

    整 個(gè)生命周期內(nèi)高效、健康地使用。 BMS 采用主從式結(jié)構(gòu),主控盒可以獨(dú)立使用,也可 以搭配多個(gè) 24S、36S、48S、60S 的 BMU 主多架構(gòu)使用。 最多可擴(kuò)展應(yīng)用到 300 串的動(dòng)力電池
    發(fā)表于 08-20 16:39

    開(kāi)發(fā)工程師視角TTS語(yǔ)音合成芯片

    開(kāi)發(fā)工程師視角TTS語(yǔ)音合成芯片 在語(yǔ)音交互領(lǐng)域,TTS 語(yǔ)音合成芯片作為關(guān)鍵角色,正不斷革新著人機(jī)對(duì)話的體驗(yàn)。開(kāi)發(fā)工程師角度深入剖析,TTS 語(yǔ)音合成芯片與傳統(tǒng)播報(bào)芯片相比,猶
    的頭像 發(fā)表于 08-13 14:52 ?509次閱讀

    信捷電氣Motion-API重構(gòu)工業(yè)控制形態(tài)框架

    在工業(yè)自動(dòng)化領(lǐng)域,“高效” “靈活” “穩(wěn)定” 始終是核心追求。而Motion-API作為信捷電氣推出的集成化解決方案,正以 “硬實(shí)力+軟創(chuàng)新” 的雙重優(yōu)勢(shì),重新定義工業(yè)控制的邊界。框架設(shè)計(jì)到硬件配置,
    的頭像 發(fā)表于 08-07 16:22 ?550次閱讀
    信捷電氣Motion-API重構(gòu)工業(yè)控制形態(tài)<b class='flag-5'>框架</b>

    工業(yè)相機(jī)多視角成像 高效解決瓶體檢測(cè)難題

    廣角式側(cè)面多視角成像系統(tǒng)通過(guò)成像和照明體式設(shè)計(jì),解決了多相機(jī)布局復(fù)雜、反光干擾及異形瓶檢測(cè)適應(yīng)性差等痛點(diǎn)。
    的頭像 發(fā)表于 07-17 15:16 ?484次閱讀
    工業(yè)相機(jī)多<b class='flag-5'>視角</b>成像 <b class='flag-5'>高效</b>解決瓶體檢測(cè)難題

    RDMA over RoCE V2設(shè)計(jì)2:ip 整體框架設(shè)計(jì)考慮

    )多隊(duì)列并行管理及控制。支持系統(tǒng)運(yùn)行過(guò)程中進(jìn)行創(chuàng)建隊(duì)列、刪除隊(duì)列、隊(duì)列更改等操作。 6)DMA 傳輸。通過(guò)配置 DMA 寄存器實(shí)現(xiàn)直接的數(shù)據(jù)傳輸請(qǐng)求,同時(shí)使用突發(fā)傳輸來(lái)提高數(shù)據(jù)傳輸性能。 系統(tǒng)框架
    發(fā)表于 07-16 08:51

    Hyperabrupt Junction Tuning 變?nèi)荻O管芯片 skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()Hyperabrupt Junction Tuning 變?nèi)荻O管芯片相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有Hyperabrupt Junction Tuning 變?nèi)荻O管芯片的引腳
    發(fā)表于 07-11 18:31
    Hyperabrupt Junction <b class='flag-5'>Tuning</b> 變?nèi)荻O管芯片 skyworksinc

    Hyperabrupt Junction Tuning 變?nèi)荻O管 skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()Hyperabrupt Junction Tuning 變?nèi)荻O管相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有Hyperabrupt Junction Tuning 變?nèi)荻O管的引腳圖
    發(fā)表于 07-10 18:32
    Hyperabrupt Junction <b class='flag-5'>Tuning</b> 變?nèi)荻O管 skyworksinc

    Hyperabrupt Junction Tuning Varactor skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()Hyperabrupt Junction Tuning Varactor相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有Hyperabrupt Junction Tuning Varactor
    發(fā)表于 07-09 18:34
    Hyperabrupt Junction <b class='flag-5'>Tuning</b> Varactor skyworksinc

    開(kāi)源鴻蒙統(tǒng)一互聯(lián)分論壇圓滿舉辦

    萬(wàn)物互聯(lián)時(shí)代到來(lái),物聯(lián)網(wǎng)設(shè)備數(shù)量及設(shè)備連接數(shù)高速增長(zhǎng),如何實(shí)現(xiàn)高效、穩(wěn)定的設(shè)備間通信,成為行業(yè)重要的研究方向。作為開(kāi)源操作系統(tǒng),開(kāi)源鴻蒙帶來(lái)了全新的技術(shù)架構(gòu)和解決方案,其統(tǒng)一互聯(lián)的技術(shù)底座為設(shè)備間的無(wú)縫協(xié)作提供了更
    的頭像 發(fā)表于 06-05 15:33 ?681次閱讀

    百度飛槳框架3.0正式版發(fā)布

    、推理等任務(wù)都離不開(kāi)深度學(xué)習(xí)框架的優(yōu)化與支撐。 飛槳框架3.0,設(shè)計(jì)理念上實(shí)現(xiàn)底層硬件適配到頂層開(kāi)發(fā)體驗(yàn)的全面進(jìn)化,在訓(xùn)練效率、性能、
    的頭像 發(fā)表于 04-02 19:03 ?975次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    基于事件相機(jī)的統(tǒng)一幀插值與自適應(yīng)去模糊框架(REFID)

    )的解決方案。團(tuán)隊(duì)提出了種基于事件相機(jī)的統(tǒng)一幀插值與自適應(yīng)去模糊框架(REFID)。該框架基于雙向遞歸網(wǎng)絡(luò),結(jié)合事件流和圖像信息,自適應(yīng)地融合來(lái)自不同時(shí)間點(diǎn)的信息,從而能夠在模糊的輸
    的頭像 發(fā)表于 03-14 11:48 ?1105次閱讀
    基于事件相機(jī)的<b class='flag-5'>統(tǒng)一</b>幀插值與自適應(yīng)去模糊<b class='flag-5'>框架</b>(REFID)

    探索 RK3576 方案:卓越性能與靈活框架,誠(chéng)邀開(kāi)發(fā)定制合作!

    組合分辨率的視頻顯示,配合多種圖像處理算法,可提供極為清晰的視覺(jué)體驗(yàn),提升了監(jiān)控的靈活性和便捷性,滿足不同用戶對(duì)于多畫(huà)面監(jiān)控展示的需求2。RK3576 框架優(yōu)勢(shì)RK3576 的框架設(shè)計(jì)靈活且高效,為
    發(fā)表于 02-05 15:21

    詳解框架設(shè)計(jì)

    后臺(tái)程序(控制中心),是程序的核心。它實(shí)現(xiàn)各類(lèi)RPC接口(遠(yuǎn)程調(diào)用接口),供前臺(tái)程序、MQTT程序使用。
    的頭像 發(fā)表于 01-09 16:48 ?860次閱讀
    詳解<b class='flag-5'>框架設(shè)</b>計(jì)

    特斯拉智能駕駛未來(lái)發(fā)展

    編者語(yǔ):「智駕最前沿」微信公眾號(hào)后臺(tái)回復(fù):C-0587,獲取本文參考報(bào)告:《特斯拉視角,智能駕駛研究框架》pdf下載方式。 隨著自動(dòng)駕駛技術(shù)的快速發(fā)展,智能駕駛已成為汽車(chē)行業(yè)技術(shù)競(jìng)
    的頭像 發(fā)表于 11-16 16:49 ?2389次閱讀
    <b class='flag-5'>從</b>特斯拉<b class='flag-5'>看</b>智能駕駛未來(lái)發(fā)展

    種簡(jiǎn)單高效配置FPGA的方法

    本文描述了種簡(jiǎn)單高效配置FPGA的方法,該方法利用微處理器串行外圍接口(SPI)閃存配置FPGA設(shè)備。這種
    的頭像 發(fā)表于 10-24 14:57 ?2041次閱讀
    <b class='flag-5'>一</b>種簡(jiǎn)單<b class='flag-5'>高效</b>配置FPGA的<b class='flag-5'>方法</b>