chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí):小樣本學(xué)習(xí)下的多標(biāo)簽分類問題初探

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:侯宇泰 ? 2021-01-07 14:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要

小樣本學(xué)習(xí)(Few-shot Learning)近年來吸引了大量的關(guān)注,但是針對多標(biāo)簽問題(Multi-label)的研究還相對較少。在本文中,我們以用戶意圖檢測任務(wù)為切入口,研究了的小樣本多標(biāo)簽分類問題。對于多標(biāo)簽分類的SOTA方法往往會先估計標(biāo)簽-樣本相關(guān)性得分,然后使用閾值來選擇多個關(guān)聯(lián)的標(biāo)簽。

為了在只有幾個樣本的Few-shot場景下確定合適的閾值,我們首先在數(shù)據(jù)豐富的多個領(lǐng)域上學(xué)習(xí)通用閾值設(shè)置經(jīng)驗,然后采用一種基于非參數(shù)學(xué)習(xí)的校準(zhǔn)(Calibration)將閾值適配到Few-shot的領(lǐng)域上。為了更好地計算標(biāo)簽-樣本相關(guān)性得分,我們將標(biāo)簽名稱嵌入作為表示(Embedding)空間中的錨點,以優(yōu)化不同類別的表示,使它們在表示空間中更好的彼此分離。在兩個數(shù)據(jù)集上進(jìn)行的實驗表明,所提出的模型在1-shot和5-shot實驗均明顯優(yōu)于最強的基線模型(baseline)。

1.Introduction

1.1 背景一:用戶意圖識別

用戶意圖識別是任務(wù)型對話理解的關(guān)鍵組成部分,它的任務(wù)是識別用戶輸入的話語屬于哪一個領(lǐng)域的哪一種意圖 [1]。

當(dāng)下的用戶意圖識別系統(tǒng)面臨著兩方面的關(guān)鍵挑戰(zhàn):

頻繁變化的領(lǐng)域和任務(wù)需求經(jīng)常導(dǎo)致數(shù)據(jù)不足

用戶在一輪對話中經(jīng)常會同時包含多個意圖 [2,3]

a1b2d2a6-5036-11eb-8b86-12bb97331649.png

圖1. 示例:意圖理解同時面領(lǐng)域繁多帶來數(shù)據(jù)不足和多標(biāo)簽的挑戰(zhàn)

1.2 背景二:多標(biāo)簽分類 & 小樣本學(xué)習(xí)

小樣本學(xué)習(xí)(Few-shot Learning)旨在像人一樣利用少量樣本完成學(xué)習(xí),近年來吸引了大量的關(guān)注 [4,5]。

但是針對多標(biāo)簽問題的小樣本學(xué)習(xí)研究還相對較少。

1.3 本文研究內(nèi)容

本文以用戶意圖檢測任務(wù)為切入口,研究了的小樣本多標(biāo)簽分類問題,并提出了Meta Calibrated Threshold (MCT) 和 Anchored Label Reps (ALR) 從兩個角度系統(tǒng)地為小樣本多標(biāo)簽學(xué)習(xí)提供解決方案。

2. Problem Definition

2.1 多標(biāo)簽意圖識別

如圖2所示,目前State-of-the-art多標(biāo)簽意圖識別系統(tǒng)往往使用基于閾值(Threshold)的方法 [3,6,7],其工作流程可以大致分為兩步:

計算樣本-標(biāo)簽類別相關(guān)性分?jǐn)?shù)

然后用預(yù)設(shè)或從數(shù)據(jù)學(xué)習(xí)的閾值選擇標(biāo)簽

2.2小樣本多標(biāo)簽用戶意圖識別

觀察一個給定的有少量樣例的支持集(Support Set)

預(yù)測未見樣本(Query Instance)的意圖標(biāo)簽

a1e07080-5036-11eb-8b86-12bb97331649.png

圖2. 小樣本多標(biāo)簽意圖識別框架概覽

3. 方法

a20ccd1a-5036-11eb-8b86-12bb97331649.png

圖3. 我們提出的小樣本多標(biāo)簽識別模型

3.1 閾值計算

(1)挑戰(zhàn):

多標(biāo)簽分類任務(wù)在小樣本情景下主要面臨如下挑戰(zhàn):

a. 因為要從數(shù)據(jù)中學(xué)習(xí)閾值,現(xiàn)有方法只適用于數(shù)據(jù)充足情況。小樣本情景下,模型很難從幾個樣本中歸納出閾值;

b. 此外,不同領(lǐng)域間閾值無法直接遷移,難以利用先驗知識。

(2)解決方案:

為了解決上述挑戰(zhàn),我們提出Meta Calibrated Threshold (MCT),具體可以分為兩步(如圖3左邊所示):

a. 首先在富數(shù)據(jù)領(lǐng)域,學(xué)習(xí)通用的thresholding經(jīng)驗

a28d7ee2-5036-11eb-8b86-12bb97331649.png

b. 然后在Few-shot領(lǐng)域上,用Kernel Regression 來用領(lǐng)域內(nèi)的知識矯正閾值 (Calibration)

a2c75306-5036-11eb-8b86-12bb97331649.png

這樣,我們在估計閾值時,既能遷移先驗知識,又能利用領(lǐng)域特有的知識:

a2e9003c-5036-11eb-8b86-12bb97331649.png

3.2 樣本-標(biāo)簽類別相關(guān)度計算

(1)挑戰(zhàn):

如圖4所示,經(jīng)典的小樣本方法利用相似度計算樣本-標(biāo)簽類別相關(guān)性,這在多標(biāo)簽場景下會失效。

a315937c-5036-11eb-8b86-12bb97331649.png

圖4. 經(jīng)典的基于相似度的小樣本學(xué)習(xí)模型:原型網(wǎng)絡(luò)

如圖3所示,例子中,time和location兩個標(biāo)簽因為support example相同,導(dǎo)致這兩個類別由樣本得到的表示相同不可分,進(jìn)而無法進(jìn)行基于相似度的樣本-類別標(biāo)簽相關(guān)度計算。

(2)解決方案:

為了解決上述挑戰(zhàn),我們提出了Anchored Label Reps (ALR)。具體的,如圖三右邊所示,我們

a. 利用標(biāo)簽名作為錨點來優(yōu)化Embedding空間學(xué)習(xí)

b. 利用標(biāo)簽名語義來分開多標(biāo)簽下的類別表示

4. 實驗

4.1 主實驗結(jié)果

實驗結(jié)果顯示,我們的方法在兩個數(shù)據(jù)集上顯著的優(yōu)于最強baseline。同時可以看到,我們的方法很多時候只用小的預(yù)訓(xùn)練模型就超過了所有使用大預(yù)訓(xùn)練模型的baseline,這在計算資源受限的情景下格外有意義。

a33248fa-5036-11eb-8b86-12bb97331649.png

表1. 主實驗結(jié)果。+E 代表使用 Electra-small (14M);+B為 BERT-base (110M)

4.2 實驗分析

圖5的消融實驗顯示所提出的ALR和MCT都對最終的效果產(chǎn)生了較大的貢獻(xiàn)。

a3a1d42c-5036-11eb-8b86-12bb97331649.png

圖5. 消融實驗

在圖6中,我們對Meta Calibrated Threshold中各步驟對最終標(biāo)簽個數(shù)準(zhǔn)確率的影響進(jìn)行了探索。結(jié)果顯示Meta學(xué)習(xí)和基于Kernel Regression的Calibration過程都會極大地提升最終模型的準(zhǔn)確率。

a3b775a2-5036-11eb-8b86-12bb97331649.png

圖6. 標(biāo)簽個數(shù)準(zhǔn)確率結(jié)果

參考文獻(xiàn)

[1] Young, S.; Gasiˇ c, M.; Thomson, B.; and Williams, J. D. ′ 2013. Pomdp-based statistical spoken dialog systems: A review. In Proc. of the IEEE, volume 101, 1160–1179. IEEE.

[2] Xu, P.; and Sarikaya, R. 2013. Exploiting shared information for multi-intent natural language sentence classification. In Proc. of Interspeech, 3785–3789.

[3]Qin, L.; Xu, X.; Che, W.; and Liu, T. 2020. TD-GIN: Token-level Dynamic Graph-Interactive Network for Joint Multiple Intent Detection and Slot Filling. arXiv preprint arXiv:2004.10087 .

[4] Vinyals, O.; Blundell, C.; Lillicrap, T.; Kavukcuoglu, K.; and Wierstra, D. 2016. Matching networks for one shot learning. In Proc. of NeurIPS, 3630–3638.

[5] Bao, Y.; Wu, M.; Chang, S.; and Barzilay, R. 2020. Few-shot Text Classification with Distributional Signatures. In Proc. of the ICLR.

[6] Xu, G.; Lee, H.; Koo, M.-W.; and Seo, J. 2017. Convolutional neural network using a threshold predictor for multilabel speech act classification. In IEEE international conference on big data and smart computing (BigComp), 126–130.

[7]Gangadharaiah, R.; and Narayanaswamy, B. 2019. Joint Multiple Intent Detection and Slot Labeling for GoalOriented Dialog. In Proc. of the ACL, 564–569.

責(zé)任編輯:xj

原文標(biāo)題:【賽爾AAAI2021】小樣本學(xué)習(xí)下的多標(biāo)簽分類問題初探

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37016

    瀏覽量

    290054
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8528

    瀏覽量

    135872
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5586

    瀏覽量

    123641

原文標(biāo)題:【賽爾AAAI2021】小樣本學(xué)習(xí)下的多標(biāo)簽分類問題初探

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動駕駛領(lǐng)域,部分廠商開始嘗試將模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過時”的激烈爭論。然而,從技術(shù)原理、算力成本、安全需求與實際落地路徑等維度來看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?3771次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    B10 BMS技術(shù)知識初探(上、

    紹相關(guān)電子元器件分類,引導(dǎo)課程B15深入學(xué)習(xí) 適應(yīng)對象: 所有關(guān)注電池、新能源行業(yè)發(fā)展的朋友們。 課程時長: 90 分鐘
    發(fā)表于 05-02 11:04

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1166次閱讀

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?712次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?1180次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?2545次閱讀

    主動學(xué)習(xí)在圖像分類技術(shù)中的應(yīng)用:當(dāng)前狀態(tài)與未來展望

    本文對近年來提出的主動學(xué)習(xí)圖像分類算法進(jìn)行了詳細(xì)綜述,并根據(jù)所用樣本數(shù)據(jù)處理及模型優(yōu)化方案,將現(xiàn)有算法分為三類:基于數(shù)據(jù)增強的算法,包括利用圖像增廣來擴(kuò)充訓(xùn)練數(shù)據(jù),或者根據(jù)圖像特征插值后的差異性來
    的頭像 發(fā)表于 11-14 10:12 ?1578次閱讀
    主動<b class='flag-5'>學(xué)習(xí)</b>在圖像<b class='flag-5'>分類</b>技術(shù)中的應(yīng)用:當(dāng)前狀態(tài)與未來展望

    pcie在深度學(xué)習(xí)中的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強大的計算能力來訓(xùn)練。傳統(tǒng)的CPU計算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用硬件應(yīng)運而生,它們通過
    的頭像 發(fā)表于 11-13 10:39 ?1668次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?891次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1911次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支,它通過模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1323次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1527次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?3379次閱讀

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型的持續(xù)學(xué)習(xí)

    神經(jīng)網(wǎng)絡(luò),特別是預(yù)訓(xùn)練的基礎(chǔ)模型研究得到了廣泛的應(yīng)用,但其仍然主要依賴于在大量樣本上的批量式訓(xùn)練。本報告將探討實現(xiàn)模型的增量式訓(xùn)練,針對深度神經(jīng)網(wǎng)絡(luò)在增量式學(xué)習(xí)新任務(wù)
    的頭像 發(fā)表于 10-18 08:09 ?815次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型<b class='flag-5'>下</b>的持續(xù)<b class='flag-5'>學(xué)習(xí)</b>

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?846次閱讀