chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習中的Multi-Task多任務學習

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:三和廠妹 ? 2021-01-07 14:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

概念

當在一個任務中要優(yōu)化多于一個的目標函數(shù)[1] ,就可以叫多任務學習

一些例外

「一個目標函數(shù)的多任務」:很多任務中把loss加到一起回傳,實質優(yōu)化的是一個目標函數(shù), 但優(yōu)化的是多個任務,loss相加是多任務學習的一種正則策略,對多個任務的參數(shù)起一種類似與均值約束的作用[2],所以也叫multi-task

「多個目標函數(shù)的單任務」:一些NLP中用main-task和auxiliary-task 輔助任務,很多輔助任務的loss并不重要,個人覺得這種雖然是多個loss,但是就是為了main-task ,不應該算多任務

動機

應用上節(jié)省資源,一個模型跑多個任務,單倍的時間雙倍的快樂

感覺上非常的直觀,好不容易花了30分鐘都出門了,肯定多逛幾個個商場,順便剪個頭發(fā)做個指甲

從模型的角度,學習得的底層的概率分布通常是對多個任務都是有效的

兩種常見方式

參數(shù)的硬共享機制:從幾十年前開始到現(xiàn)在這種方式還在流行(Multitask Learning. Autonomous Agents and Multi-Agent Systems[3]),一般認為一個模型中任務越多,通過參數(shù)共享降低噪聲導致過擬合的風險更低,在參數(shù)硬共享機制中l(wèi)oss直接相加就是一種最簡單的均值約束。

參數(shù)的軟共享機制:每個任務都由自己的模型,自己的參數(shù)。對模型間參數(shù)的距離進行正則化來保障參數(shù)空間的相似。

混合方式:前兩種的混合

為什么會有效

1. 不同任務的噪聲能有更好的泛化效果

由于所有任務都或多或少存在一些噪音,例如,當我們訓練任務A上的模型時,我們的目標在于得到任務A的一個好的表示,而忽略了數(shù)據(jù)相關的噪音以及泛化性能。由于不同的任務有不同的噪音模式,同時學習到兩個任務可以得到一個更為泛化的表示

2. 輔助特征選擇作用

如果主任務是那種,噪音嚴重,數(shù)據(jù)量小,數(shù)據(jù)維度高,則對于模型來說區(qū)分相關與不相關特征變得困難。其他輔助任務有助于將模型注意力集中在確實有影響的那些特征上。

3. 特征交流機制

在不同的任務之間的特征交互交流,對于任務B來說很容易學習到某些特征G,而這些特征對于任務A來說很難學到。這可能是因為任務A與特征G的交互方式更復雜,或者因為其他特征阻礙了特征G的學習。

4. 相互強調(監(jiān)督)機制

多任務學習更傾向于學習到大部分模型都強調的部分。學到的空間更泛化,滿足不同的任務。由于一個對足夠多的訓練任務都表現(xiàn)很好的假設空間,對來自于同一環(huán)境的新任務也會表現(xiàn)很好,所以這樣有助于模型展示出對新任務的泛化能力(Deep Multi-Task Learning with Low Level Tasks Supervised at Lower Layers[4]、Emotion-Cause Pair Extraction: A New Task to Emotion Analysis in Texts[5]),非常適合遷移學習場景。

5. 表示偏置機制

如歸約遷移通過引入歸約偏置來改進模型,使得模型更傾向于某些假設,能起到一種正則效果。常見的一種歸約偏置是L1正則化,它使得模型更偏向于那些稀疏的解。在多任務學習場景中,這會導致模型更傾向于那些可以同時解釋多個任務的解。

為什么無效

先說是不是,再問為什么.

在Identifying beneficial task relations for multi-task learning in deep neural networks[6]中,作者探究到底是什么讓multi-task work, 作者使用嚴格意義上相同的參數(shù)用NLP任務做了對比實驗,圖中分別是兩個任務結合時與單任務loss的對比,大部分多任務的效果比不上單任務,作者的結論是單任務的主要特征在起作用,那些多任務結合效果好的情況,是「主任務比較難學(梯度下降比較緩慢),輔助任務比價好學的時候,多任務會有好效果」

73f3b0ce-5036-11eb-8b86-12bb97331649.png

為什么會無效?因為所有有效的原因都有它的負向效果

不同任務的噪聲提高泛化,在模型容量小的時候引入的噪聲也無法忽視。

特征的選擇,交流這些起作用的機制會產生一種負遷移(Negative Transfer),共享的信息交流的信息反而是一種誤導信息

...

Muti-task的一些思路

1. 對任務間的不同強制加稀疏性約束的正則化項

如塊稀疏正則化,對于不同任務的參數(shù),加l1正則,或者l1/lx, x>1等的正則,起任務參數(shù)的選擇,讓模型自動去選擇應該共享哪些參數(shù), 在keras的multi-task框架中,就是多個任務的loss相加后,用一個優(yōu)化器優(yōu)化,就是這種思路

2. 對中間層添加矩陣先驗,可以學習任務間的關系

3. 共享合適的相關結構

高層次監(jiān)督(High Supervision),共享大部分結構,后面直接輸出分叉那種共享(就是大多數(shù)人入手的multi-task),個人覺得除非有很精致的一些調整,感覺效果很難超多個single-task.

低層次監(jiān)督(Low Supervision),Deep Multi-Task Learning with Low Level Tasks Supervised at Lower Layers中,在NLP中,作者使用deep bi-RNN低層開始對各個任務分別建模,不共享的部分模型更新時不受其他任務影響,效果不錯。

4. 建模任務之間的關系

建模任務之間的關系有非常多的方式,如,加各種約束項,這個約束項,讓不同任務的參數(shù)空間,盡量平均, 有很多方式花式拓展,正則也是一種約束項,loss相加也是一種建立任務之間關系的約束項目,如 Learning Multiple Tasks with Kernel Methods[7]對模型聚類 ,a是任務參數(shù),讓各種任務參數(shù)空間盡量靠近

a是各個任務的參數(shù)

特征交互,在 Emotion-Cause Pair Extraction: A New Task to Emotion Analysis in Texts 中,作者通過不同任務的高層特征交互,同時完成情感向判斷和情感向原因提取,這跟有些多模態(tài)特征fusion的方式很相似,

74191f6c-5036-11eb-8b86-12bb97331649.png

Cross-Stitch Networks for Multi-Task Learning[8]將兩個獨立的網(wǎng)絡用參數(shù)的軟共享方式連接起來, 用所謂的十字繡單元來決定怎么將這些任務相關的網(wǎng)絡利用其他任務中學到的知識,并與前面層的輸出進行線性組合。

74730a0e-5036-11eb-8b86-12bb97331649.png

串行的聯(lián)合多任務模型(A Joint Many-Task Model)

NLP 領域中,各個任務間經常是有層級關系,A Joint Many-Task Model: Growing a Neural Network for Multiple NLP Tasks[9]中在多任務并行的同時,加了串行結構,例如具體任務:詞性分析 POS->語塊分析 CHUNK->依存句法分析 DEP->文本語義相關 Relatedness->文本蘊涵 Entailment,每個子任務都偶有自己的loss, 然后又會作為其他任務的輸入

74b6845a-5036-11eb-8b86-12bb97331649.png

5. 用loss調整任務之間的關系

Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics[10] 用同方差不確定性對損失進行加權(Weighting losses with Uncertainty),作者認為最佳權值與不同任務的衡量規(guī)模和噪聲相關,而噪聲中除了認知不確定性,異方差不確定性,這些取決于數(shù)據(jù)的不確定性外,作者把同方差不確定性作為噪聲來對多任務學習中的權重進行優(yōu)化,作者根據(jù)噪聲調整每個任務在代價函數(shù)中的相對權重,噪聲大則降低權重,反之。

GradNorm: Gradient Normalization for Adaptive Loss Balancing in Deep Multitask Networks[11] 基于不同任務loss的降低速度來動態(tài)調整權值, 作者定義了另外一個專門針對權值的優(yōu)化函數(shù)

是每個任務的loss相對第一步loss的優(yōu)化程度, 是每一步 對 task 任務的梯度,即如果某個任務的優(yōu)化程度小,這個loss會超那么就調大這個任務的權值優(yōu)化,達到個loss學習程度的平衡

應用|適用任務

輔助任務,相關性任務,對抗性任務....等[12]

責任編輯:xj

原文標題:Multi-Task 多任務學習, 那些你不知道的事

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    89

    文章

    38012

    瀏覽量

    296000
  • 多任務
    +關注

    關注

    0

    文章

    18

    瀏覽量

    9297
  • 機器學習
    +關注

    關注

    66

    文章

    8541

    瀏覽量

    136207

原文標題:Multi-Task 多任務學習, 那些你不知道的事

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    一句話,多個命令同時執(zhí)行,AI語音模組也能多任務處理?

    、 Ai-WV02-32S ? 將語音識別、喚醒、語義理解等核心功能, 濃縮在一顆小小的模組。 安信可AI語音模組支持 MCP 協(xié)議(Multi Command Processing,多命令并行處理) ,讓語音交互從“單線程”進化為真正的“
    的頭像 發(fā)表于 10-31 14:45 ?231次閱讀
    一句話,多個命令同時執(zhí)行,AI語音模組也能<b class='flag-5'>多任務</b>處理?

    愛普科技PSRAM加速wisun無線模塊多任務處理

    愛普科技256Mb PSRAM(如APS256XXN-OBR-BG)為WiSUN無線模塊提供高速數(shù)據(jù)緩存與臨時存儲解決方案,其166MHz速率、1.8V低功耗及小尺寸封裝顯著提升模塊在智能電網(wǎng)、工業(yè)自動化多任務處理能力和穩(wěn)定性。
    的頭像 發(fā)表于 10-14 09:25 ?206次閱讀
    愛普科技PSRAM加速wisun無線模塊<b class='flag-5'>多任務</b>處理

    Task任務:LuatOS實現(xiàn)“任務級并發(fā)”的核心引擎

    Task任務通過其強大的并發(fā)處理能力,使LuatOS能夠在單線程環(huán)境模擬多線程執(zhí)行,通過協(xié)程的掛起與恢復機制,實現(xiàn)任務級的并行操作,顯著提升系統(tǒng)效能。 sys核心庫是LuatOS運行
    的頭像 發(fā)表于 08-28 13:49 ?325次閱讀
    <b class='flag-5'>Task</b><b class='flag-5'>任務</b>:LuatOS實現(xiàn)“<b class='flag-5'>任務</b>級并發(fā)”的核心引擎

    揭秘LuatOS Task多任務管理的“智能中樞”

    Task任務作為LuatOS的核心組成部分,通過智能化的任務管理機制,實現(xiàn)任務的創(chuàng)建、調度與協(xié)同運行,讓復雜應用得以高效并行處理,滿足實時場景下的嚴苛需求。 sys核心庫是LuatOS
    的頭像 發(fā)表于 08-28 13:48 ?378次閱讀
    揭秘LuatOS <b class='flag-5'>Task</b>:<b class='flag-5'>多任務</b>管理的“智能中樞”

    FPGA在機器學習的具體應用

    ,越來越多地被應用于機器學習任務。本文將探討 FPGA 在機器學習
    的頭像 發(fā)表于 07-16 15:34 ?2608次閱讀

    快速入門——LuatOS:sys庫多任務管理實戰(zhàn)攻略!

    在嵌入式開發(fā)多任務管理是提升系統(tǒng)效率的關鍵。本教程專為快速入門設計,聚焦LuatOS的sys庫,通過實戰(zhàn)案例帶你快速掌握多任務創(chuàng)建、調度與同步技巧。無論你是零基礎新手還是希望快速提升開發(fā)效率
    的頭像 發(fā)表于 05-29 14:36 ?577次閱讀
    快速入門——LuatOS:sys庫<b class='flag-5'>多任務</b>管理實戰(zhàn)攻略!

    使用MATLAB進行無監(jiān)督學習

    無監(jiān)督學習是一種根據(jù)未標注數(shù)據(jù)進行推斷的機器學習方法。無監(jiān)督學習旨在識別數(shù)據(jù)隱藏的模式和關系,無需任何監(jiān)督或關于結果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1157次閱讀
    使用MATLAB進行無監(jiān)督<b class='flag-5'>學習</b>

    機器學習模型市場前景如何

    當今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計算能力的飛速提升,機器學習模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機器學習模型市場的未來發(fā)展。
    的頭像 發(fā)表于 02-13 09:39 ?610次閱讀

    嵌入式機器學習的應用特性與軟件開發(fā)環(huán)境

    作者:DigiKey Editor 在許多嵌入式系統(tǒng),必須采用嵌入式機器學習(Embedded Machine Learning)技術,這是指將機器
    的頭像 發(fā)表于 01-25 17:05 ?1191次閱讀
    嵌入式<b class='flag-5'>機器</b><b class='flag-5'>學習</b>的應用特性與軟件開發(fā)環(huán)境

    傳統(tǒng)機器學習方法和應用指導

    在上一篇文章,我們介紹了機器學習的關鍵概念術語。在本文中,我們會介紹傳統(tǒng)機器學習的基礎知識和多種算法特征,供各位老師選擇。 01 傳統(tǒng)
    的頭像 發(fā)表于 12-30 09:16 ?1959次閱讀
    傳統(tǒng)<b class='flag-5'>機器</b><b class='flag-5'>學習</b>方法和應用指導

    如何選擇云原生機器學習平臺

    當今,云原生機器學習平臺因其彈性擴展、高效部署、低成本運營等優(yōu)勢,逐漸成為企業(yè)構建和部署機器學習應用的首選。然而,市場上的云原生機器
    的頭像 發(fā)表于 12-25 11:54 ?690次閱讀

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    和經驗積累,使機器人能夠自主發(fā)現(xiàn)工藝規(guī)律,優(yōu)化作業(yè)參數(shù)。家庭服務機器人則采用混合任務規(guī)劃策略:將預訓練的基礎技能與實時規(guī)劃相結合,靈活應對開放環(huán)境的各種情況。 第9章深入探討了元
    發(fā)表于 12-24 15:03

    zeta在機器學習的應用 zeta的優(yōu)缺點分析

    在探討ZETA在機器學習的應用以及ZETA的優(yōu)缺點時,需要明確的是,ZETA一詞在不同領域可能有不同的含義和應用。以下是根據(jù)不同領域的ZETA進行的分析: 一、ZETA在機器
    的頭像 發(fā)表于 12-20 09:11 ?1599次閱讀

    cmp在機器學習的作用 如何使用cmp進行數(shù)據(jù)對比

    機器學習領域,"cmp"這個術語可能并不是一個常見的術語,它可能是指"比較"(comparison)的縮寫。 比較在機器學習的作用 模型
    的頭像 發(fā)表于 12-17 09:35 ?1308次閱讀

    傅立葉變換在機器學習的應用 常見傅立葉變換的誤區(qū)解析

    傅里葉變換在機器學習的應用 傅里葉變換是一種將信號分解為其組成頻率分量的數(shù)學運算,它在機器學習
    的頭像 發(fā)表于 12-06 17:06 ?1477次閱讀