chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于預(yù)訓(xùn)練視覺(jué)-語(yǔ)言模型的跨模態(tài)Prompt-Tuning

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:zenRRan ? 作者:zenRRan ? 2021-10-09 15:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

論文:CPT:Colorful Prompt Tuning for Pre-Training Vision-Language Models

狀態(tài):Work in Progress

單位:清華大學(xué)、新加坡國(guó)立大學(xué)

鏈接:https://arxiv.org/pdf/2109.11797.pdf

提取摘要

預(yù)訓(xùn)練的視覺(jué)語(yǔ)言模型 (VL-PTMs) 在將自然語(yǔ)言融入圖像數(shù)據(jù)中顯示出有前景的能力,促進(jìn)了各種跨模態(tài)任務(wù)。

然而,作者注意到模型pre-training和finetune的客觀形式之間存在顯著差距,導(dǎo)致需要大量標(biāo)記數(shù)據(jù)來(lái)刺激 VL-PTMs 對(duì)下游任務(wù)的視覺(jué)基礎(chǔ)能力。

為了應(yīng)對(duì)這一挑戰(zhàn),本文提出了跨模態(tài)提示調(diào)優(yōu)Cross-modal Prompt Tuning(CPT,或者,彩色-Color提示調(diào)優(yōu)),這是一種用于finetune VL-PTMs 的新范式,它在圖像和文本中使用基于顏色的共同參照標(biāo)記重新構(gòu)建了視覺(jué)定位問(wèn)題,使之成為一個(gè)填空問(wèn)題,最大限度地縮小差距。

通過(guò)這種方式,本文的Prompt-Tuning方法可以讓 VL-PTMs 在少樣本甚至零樣本的強(qiáng)大的視覺(jué)預(yù)測(cè)能力。

綜合實(shí)驗(yàn)結(jié)果表明,Prompt-Tuning的 VL-PTMs 大大優(yōu)于 finetune 的方法(例如,在 RefCOCO 評(píng)估中,一次平均提高 17.3% 準(zhǔn)確度,one shot下平均相對(duì)標(biāo)準(zhǔn)偏差降低73.8%)。

數(shù)據(jù)和代碼會(huì)在之后公開(kāi),小伙伴們不要急~

方法介紹

背景:該任務(wù)為Visual Grounding視覺(jué)定位問(wèn)題,通過(guò)一個(gè)給定的expression來(lái)定位在圖像中的位置。

Pre-training和fine-tuning

比如有一張識(shí)別好的圖片和下面的文字:

4ce01cce-2246-11ec-82a8-dac502259ad0.png

普通使用MLM(masked language modeling)的預(yù)訓(xùn)練模型的到VL-PTMs方法為:

4d581986-2246-11ec-82a8-dac502259ad0.png

就是使用[mask]機(jī)制來(lái)預(yù)測(cè)被被掩蓋的token。

而finetune的話,就是使用傳統(tǒng)的[CLS]來(lái)遷就下游的任務(wù),比如做二分類:

4dde4a06-2246-11ec-82a8-dac502259ad0.png

而使用被大規(guī)模數(shù)據(jù)預(yù)訓(xùn)練的模型通過(guò)[CLS]來(lái)遷就下游任務(wù),其實(shí)并不可解釋,而反過(guò)來(lái)讓下游帶著任務(wù)來(lái)到預(yù)訓(xùn)練模型的[mask]戰(zhàn)場(chǎng)上,才能更能發(fā)揮其作用呀。

CPT: Cross-model Prompt Tuning

CPT方法首先將圖片用不同顏色來(lái)區(qū)分不同的實(shí)體模塊:

4e6a3e12-2246-11ec-82a8-dac502259ad0.png

其次將Query Text插入到color-based的模板(eg. is in [mask] color)里:

4f1e1770-2246-11ec-82a8-dac502259ad0.png

最后在[mask]上預(yù)測(cè)對(duì)應(yīng)的該是哪個(gè)顏色即可,語(yǔ)義上非常行得通。

模型公式

普通Finetune for VL-PLMs

首先從圖片 I 中通過(guò)目標(biāo)檢測(cè)工具,檢測(cè)出一系列的region:

4f97a306-2246-11ec-82a8-dac502259ad0.png

最終這些被選出來(lái)的region和Query Text(w)將被放入:

4ffcb052-2246-11ec-82a8-dac502259ad0.png

其中[IMG]、[CLS]和[SEP]為特殊token。

其中圖片regions的representation通過(guò)視覺(jué)的encoder獲得,而文本的就是lookup即可,最后通過(guò)預(yù)訓(xùn)練模型VL-PLMs會(huì)得到:

50520d36-2246-11ec-82a8-dac502259ad0.png

最終使用隱層finetune做分類即可。

但是,finetuned VL-PLMs需要大量的標(biāo)注數(shù)據(jù)來(lái)提高視覺(jué)定位的效果,這個(gè)也是一個(gè)弊端吧。

Cross-Modal Prompt Tuning - CPT

上面說(shuō)過(guò)了,CPT需要兩個(gè)部分:

視覺(jué)子prompt

文本子prompt

視覺(jué)子prompt,目的是為了區(qū)分每一個(gè)region通過(guò)可分辨的標(biāo)記,比如顏色,比如RGB (255, 0, 0)表示red,RGB和text要對(duì)應(yīng)起來(lái)。

這里要注意的是,這個(gè)子prompt是直接加在原圖片上的,所以既沒(méi)有改變模型結(jié)果,又沒(méi)有改變參數(shù)。

文本子prompt,目的就是在圖片和Query Text之間建立一個(gè)鏈接,這里使用的模板為:

50afb7a6-2246-11ec-82a8-dac502259ad0.png

然后,VL-PTMs模型通過(guò)這樣的提示(prompt)來(lái)決定哪個(gè)顏色的region填在這個(gè)空里最恰當(dāng):

51029b1a-2246-11ec-82a8-dac502259ad0.png

實(shí)驗(yàn)

和finetune相比,CPT在zero-shot和few-shot下,性能可以說(shuō)是爆表,巨額提升。在全量數(shù)據(jù)下,也能達(dá)到最佳值或者接近最佳值:

5175c4d2-2246-11ec-82a8-dac502259ad0.png

CPT在其他視覺(jué)任務(wù)上的應(yīng)用

實(shí)體檢測(cè)

52040c92-2246-11ec-82a8-dac502259ad0.png

謂元分類

52a17086-2246-11ec-82a8-dac502259ad0.png

場(chǎng)景圖分類

53448974-2246-11ec-82a8-dac502259ad0.png

總之,Prompt方法就是通過(guò)模板重新定義了任務(wù),讓模型更具有解釋性,本篇文章第一次將Prompt用在了Vision-Language上,未來(lái)還會(huì)有很大的研究動(dòng)向,感興趣的小伙伴可以細(xì)讀原文。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7314

    瀏覽量

    93912
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    820

    瀏覽量

    61479
  • CLS
    CLS
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    9853
  • prompt
    +關(guān)注

    關(guān)注

    0

    文章

    16

    瀏覽量

    2828

原文標(biāo)題:清華劉知遠(yuǎn)提出CPT:基于預(yù)訓(xùn)練視覺(jué)-語(yǔ)言模型的跨模態(tài)Prompt-Tuning

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    亞馬遜云科技上線Amazon Nova多模態(tài)嵌入模型

    的統(tǒng)一嵌入模型,能以行業(yè)頂尖的準(zhǔn)確率實(shí)現(xiàn)模態(tài)檢索。 當(dāng)今,企業(yè)正不斷尋求解決方案,以期從文本、圖像、文檔、視頻、音頻等海
    的頭像 發(fā)表于 10-29 17:15 ?98次閱讀
    亞馬遜云科技上線Amazon Nova多<b class='flag-5'>模態(tài)</b>嵌入<b class='flag-5'>模型</b>

    米爾RK3576部署端側(cè)多模態(tài)多輪對(duì)話,6TOPS算力驅(qū)動(dòng)30億參數(shù)LLM

    細(xì)化需求,系統(tǒng)需實(shí)時(shí)調(diào)整響應(yīng)策略 1.2 多輪對(duì)話系統(tǒng)鳥(niǎo)瞰:三顆“核心”協(xié)同驅(qū)動(dòng)RK3576 多模態(tài)交互對(duì)話方案基于 RKLLM 的核心運(yùn)作,依賴于圖像視覺(jué)編碼器、大語(yǔ)言模型與對(duì)話管
    發(fā)表于 09-05 17:25

    基于大規(guī)模人類操作數(shù)據(jù)預(yù)訓(xùn)練的VLA模型H-RDT

    近年來(lái),機(jī)器人操作領(lǐng)域的VLA模型普遍基于本體機(jī)器人數(shù)據(jù)集預(yù)訓(xùn)練,這類方法存在兩大局限:不同機(jī)器人本體和動(dòng)作空間的差異導(dǎo)致統(tǒng)一訓(xùn)練困難;現(xiàn)
    的頭像 發(fā)表于 08-21 09:56 ?751次閱讀
    基于大規(guī)模人類操作數(shù)據(jù)<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的VLA<b class='flag-5'>模型</b>H-RDT

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進(jìn)一步講解更多的技術(shù)細(xì)節(jié)。本文主要針對(duì)大語(yǔ)言
    的頭像 發(fā)表于 03-21 18:24 ?3758次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進(jìn)制<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集

    ?VLM(視覺(jué)語(yǔ)言模型)?詳細(xì)解析

    視覺(jué)語(yǔ)言模型(Visual Language Model, VLM)是一種結(jié)合視覺(jué)(圖像/視頻)和語(yǔ)言(文本)處理能力的多
    的頭像 發(fā)表于 03-17 15:32 ?7483次閱讀
    ?VLM(<b class='flag-5'>視覺(jué)</b><b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>)?詳細(xì)解析

    從Open Model Zoo下載的FastSeg大型公共預(yù)訓(xùn)練模型,無(wú)法導(dǎo)入名稱是怎么回事?

    從 Open Model Zoo 下載的 FastSeg 大型公共預(yù)訓(xùn)練模型。 運(yùn)行 converter.py 以將 FastSeg 大型模型轉(zhuǎn)換為中間表示 (IR): pyth
    發(fā)表于 03-05 07:22

    小白學(xué)大模型訓(xùn)練語(yǔ)言模型的深度指南

    在當(dāng)今人工智能飛速發(fā)展的時(shí)代,大型語(yǔ)言模型(LLMs)正以其強(qiáng)大的語(yǔ)言理解和生成能力,改變著我們的生活和工作方式。在最近的一項(xiàng)研究中,科學(xué)家們?yōu)榱松钊肓私馊绾胃咝У?b class='flag-5'>訓(xùn)練大型
    的頭像 發(fā)表于 03-03 11:51 ?1190次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:<b class='flag-5'>訓(xùn)練</b>大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>的深度指南

    用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 之前我們分享了《從零開(kāi)始訓(xùn)練一個(gè)大語(yǔ)言模型需要投資多少錢(qián)》,其中高昂的預(yù)訓(xùn)練費(fèi)用讓許多對(duì)大
    的頭像 發(fā)表于 02-19 16:10 ?2111次閱讀
    用PaddleNLP在4060單卡上實(shí)踐大<b class='flag-5'>模型</b><b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>技術(shù)

    一文詳解視覺(jué)語(yǔ)言模型

    視覺(jué)語(yǔ)言模型(VLM)是一種多模態(tài)、生成式 AI 模型,能夠理解和處理視頻、圖像和文本。
    的頭像 發(fā)表于 02-12 11:13 ?3166次閱讀
    一文詳解<b class='flag-5'>視覺(jué)</b><b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>

    騰訊公布大語(yǔ)言模型訓(xùn)練新專利

    近日,騰訊科技(深圳)有限公司公布了一項(xiàng)名為“大語(yǔ)言模型訓(xùn)練方法、裝置、計(jì)算機(jī)設(shè)備及存儲(chǔ)介質(zhì)”的新專利。該專利的公布,標(biāo)志著騰訊在大語(yǔ)言模型
    的頭像 發(fā)表于 02-10 09:37 ?690次閱讀

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    微調(diào):通過(guò)在預(yù)訓(xùn)練模型中插入適配器模塊來(lái)適應(yīng)特定任務(wù),既保留了原始模型的性能,又能快速適應(yīng)新任務(wù)。Prefix-Tuning:通過(guò)在輸入序列
    發(fā)表于 01-14 16:51

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    模型展示了強(qiáng)大的泛化能力,能夠?qū)⒃谀M環(huán)境學(xué)到的技能遷移到真實(shí)場(chǎng)景。RT-2的改進(jìn)版本更是引入了視覺(jué)-語(yǔ)言預(yù)訓(xùn)練技術(shù),使
    發(fā)表于 12-24 15:03

    KerasHub統(tǒng)一、全面的預(yù)訓(xùn)練模型庫(kù)

    深度學(xué)習(xí)領(lǐng)域正在迅速發(fā)展,在處理各種類型的任務(wù)中,預(yù)訓(xùn)練模型變得越來(lái)越重要。Keras 以其用戶友好型 API 和對(duì)易用性的重視而聞名,始終處于這一動(dòng)向的前沿。Keras 擁有專用的內(nèi)容庫(kù),如用
    的頭像 發(fā)表于 12-20 10:32 ?760次閱讀

    NaVILA:加州大學(xué)與英偉達(dá)聯(lián)合發(fā)布新型視覺(jué)語(yǔ)言模型

    (VLM)是一種具備多模態(tài)生成能力的先進(jìn)AI模型。它能夠智能地處理文本、圖像以及視頻等多種提示,并通過(guò)復(fù)雜的推理過(guò)程,實(shí)現(xiàn)對(duì)這些信息的準(zhǔn)確理解和應(yīng)用。NaVILA正是基于這一原理,通過(guò)將大型語(yǔ)言
    的頭像 發(fā)表于 12-13 10:51 ?948次閱讀

    一文理解多模態(tài)語(yǔ)言模型——下

    /understanding-multimodal-llms ? 《一文理解多模態(tài)語(yǔ)言模型 - 上》介紹了什么是多模態(tài)語(yǔ)言
    的頭像 發(fā)表于 12-03 15:18 ?968次閱讀
    一文理解多<b class='flag-5'>模態(tài)</b>大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>——下