chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Transformer模型的多模態(tài)學(xué)習(xí)應(yīng)用

深度學(xué)習(xí)實(shí)戰(zhàn) ? 來(lái)源:CSDN技術(shù)社區(qū) ? 作者:Facebook Amusi ? 2021-03-25 09:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

隨著Transformer在視覺(jué)中的崛起,Transformer在多模態(tài)中應(yīng)用也是合情合理的事情,甚至以后可能會(huì)有更多的類(lèi)似的paper。先來(lái)解釋一下什么多模態(tài),模態(tài)譯作modality,多模態(tài)譯作multimodel。多模態(tài)學(xué)習(xí)主要有一下幾個(gè)方向:表征、轉(zhuǎn)化、對(duì)齊、融合和協(xié)同學(xué)習(xí)。人就是生活在一個(gè)多模態(tài)的世界里面,文字、視覺(jué)、語(yǔ)言都是不同的模態(tài),當(dāng)我們能夠同時(shí)從視覺(jué)、聽(tīng)覺(jué)、嗅覺(jué)等等來(lái)識(shí)別當(dāng)前發(fā)生的事情,實(shí)際上我們就是在做了多模態(tài)的融合。而Transformer is All You Need這篇論文(從Attention is All You Need開(kāi)始大家都成了標(biāo)題黨,X is All You Need)是屬于協(xié)同學(xué)習(xí)(Co-learning)的范疇,將多個(gè)不同的tasks一起訓(xùn)練,共享模型參數(shù)。

689857c6-8d02-11eb-8b86-12bb97331649.png

68f430be-8d02-11eb-8b86-12bb97331649.png

背景介紹

這篇論文出自Facebook AI Research,文章提出了UniT,Unified Transformer model,用一個(gè)Transformer模型去同時(shí)學(xué)習(xí)多個(gè)不同的tasks,甚至這些tasks的領(lǐng)域都可能不同,從目標(biāo)檢測(cè)到語(yǔ)言理解,一共訓(xùn)練了7個(gè)tasks8個(gè)datasets,但是各個(gè)beachmark上都取得了不錯(cuò)的成績(jī)。Transformer在各種不同的領(lǐng)域中都取得了極大的成功,例如NLP、images、video和audio,不僅在以上領(lǐng)域表現(xiàn)出色,甚至在一些vision-and-language reasoning的tasks上,比如VQA(visual question answering)也有很強(qiáng)的表現(xiàn)。但是現(xiàn)有的一些多模態(tài)的模型基本都是關(guān)注某一個(gè)領(lǐng)域的不同task或者就是用將近N倍的參數(shù)去處理N個(gè)不同的領(lǐng)域問(wèn)題。在17年谷歌提出的《One Model To Learn Them All》[1]中也使用了Transformer encoder-decoder的架構(gòu),但是不同的是,它對(duì)于每個(gè)task都需要一個(gè)與之對(duì)應(yīng)的decoder,如下圖。類(lèi)似的還有MT-DNN[2]和VILBERT-MT[3]等等。

6b1f8bcc-8d02-11eb-8b86-12bb97331649.png

UniT: One transformer to learn them all

用單個(gè)模型去訓(xùn)練跨模態(tài)的任務(wù),UniT包括對(duì)于不同的task對(duì)于的encoder,因?yàn)椴煌B(tài)的數(shù)據(jù)需要經(jīng)過(guò)處理才能放到同一個(gè)網(wǎng)絡(luò),就和人獲得不同模態(tài)的信息需要不同的器官一樣。然后這些信息會(huì)經(jīng)過(guò)一個(gè)共享decoder,最后各個(gè)task會(huì)有對(duì)應(yīng)的簡(jiǎn)單的head進(jìn)行最后的輸出。UniT有兩種不同模態(tài)的輸入:圖像和文本。也就是說(shuō)只需要兩個(gè)對(duì)應(yīng)的encoder就可以訓(xùn)練7種不同的任務(wù),可以形象地比喻這個(gè)網(wǎng)絡(luò)有兩個(gè)不同的器官(Image encoder和Text encoder)。

6b497054-8d02-11eb-8b86-12bb97331649.png

Image encoder一些視覺(jué)相關(guān)的task,比如目標(biāo)檢測(cè)、視覺(jué)問(wèn)答等都需要處理圖像,在UniT中,圖像先經(jīng)過(guò)一個(gè)卷積的backbone,然后再用transformer對(duì)特征進(jìn)行編碼,進(jìn)一步得到編碼后的向量。圖像的處理與DETR[4]類(lèi)似。xv=B(I),xv是經(jīng)過(guò)卷積神經(jīng)網(wǎng)絡(luò)B得到的特征圖,B采用了ResNet-50,并在C5中使用了空洞卷積。再用encoder Ev得到圖像編碼的向量,這里使用encoder進(jìn)行編碼時(shí)為了區(qū)別不同的task加入了task embedding以進(jìn)行區(qū)分,和IPT中的作法類(lèi)似,因?yàn)椴煌膖ask它可能關(guān)注的點(diǎn)不一樣。

Text encoder對(duì)于文本的輸入,采用BERT來(lái)進(jìn)行編碼,BERT是一個(gè)在大規(guī)模語(yǔ)料庫(kù)上預(yù)訓(xùn)練好的模型。給定輸入的文本,和BERT處理一樣,先將文本編碼成tokens的序列{w1, · · · , wS},和image encoder一樣,還需要加入一個(gè)wtask來(lái)區(qū)分不同的task。在實(shí)現(xiàn)中,采用了embedding維度是768,12層的BERT。

6c806e8c-8d02-11eb-8b86-12bb97331649.png

Domain-agnostic UniT decoder領(lǐng)域不可知的解碼器,和image和text encoder不一樣的是encoder是針對(duì)某一特定領(lǐng)域的,但是encoder的輸入可以是來(lái)自與image encoder或者是text encoder,所以是領(lǐng)域不可知。對(duì)于純視覺(jué)、純文本和視覺(jué)文本混合的task,encoder的輸入是不一樣的,純視覺(jué)和純文本的task的情況下,decoder的輸入就是它們各自encoder的輸出,但是對(duì)于視覺(jué)文本的task,decoder的輸入是兩個(gè)encoder輸出的拼接,這很好理解,因?yàn)樾枰猇QA這種同時(shí)會(huì)有image和text的輸入。

Task-specific output heads每個(gè)task可能最后的輸出差別很大,因此最后使用對(duì)應(yīng)的prediction head來(lái)進(jìn)行最后的預(yù)測(cè)。對(duì)于檢測(cè)任務(wù)來(lái)說(shuō),最后decoder產(chǎn)生的每個(gè)向量都會(huì)produce一個(gè)輸出,輸出包括類(lèi)別和bounding box。當(dāng)然,對(duì)于不同的task,decoder輸入的query是不同的。

6cc738da-8d02-11eb-8b86-12bb97331649.png

Experiments

下圖是所用到的8個(gè)不同的數(shù)據(jù)集以及上面的測(cè)試結(jié)果,可以看到不同任務(wù)的區(qū)別還是很大的。

根據(jù)下圖的對(duì)比,其實(shí)UniT有些task離SOTA還是差的有點(diǎn)遠(yuǎn),所以這個(gè)領(lǐng)域還是有很大的挖掘的空間的。

6d69c3d4-8d02-11eb-8b86-12bb97331649.png

Conclusion

在這篇論文中,我們可以看到,Transformer確實(shí)是可以來(lái)處理不同的領(lǐng)域的,跨領(lǐng)域?qū)W習(xí)確實(shí)是個(gè)很大的難題,那么Transformer能否成為多模態(tài)領(lǐng)域發(fā)展的一個(gè)跳板呢?我們拭目以待。

Reference論文鏈接:https://arxiv.org/abs/2102.10772
編輯:lyn

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 視覺(jué)
    +關(guān)注

    關(guān)注

    1

    文章

    169

    瀏覽量

    24616
  • paper
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    3850
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    6716

原文標(biāo)題:Facebook提出UniT:Transformer is All You Need

文章出處:【微信號(hào):gh_a204797f977b,微信公眾號(hào):深度學(xué)習(xí)實(shí)戰(zhàn)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    商湯日日新V6.5模態(tài)模型登頂全球權(quán)威榜單

    根據(jù)權(quán)威評(píng)測(cè)平臺(tái)OpenCompass模態(tài)模型學(xué)術(shù)榜單(Multi-modal Academic Leaderboard)最新數(shù)據(jù)顯示,商湯「日日新 V6.5」(SenseNova-V6.5
    的頭像 發(fā)表于 09-10 09:55 ?290次閱讀

    淺析模態(tài)標(biāo)注對(duì)大模型應(yīng)用落地的重要性與標(biāo)注實(shí)例

    ?在人工智能邁向AGI通用智能的關(guān)鍵道路上,大模型正從單一的文本理解者,演進(jìn)為能同時(shí)看、聽(tīng)、讀、想的“多面手”。驅(qū)動(dòng)這一進(jìn)化的核心燃料,正是高質(zhì)量的模態(tài)數(shù)據(jù),而將原始數(shù)據(jù)轉(zhuǎn)化為“機(jī)器可讀教材
    的頭像 發(fā)表于 09-05 13:49 ?333次閱讀

    自動(dòng)駕駛中Transformer模型會(huì)取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動(dòng)駕駛領(lǐng)域,部分廠商開(kāi)始嘗試將模態(tài)模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過(guò)時(shí)”的激烈爭(zhēng)論。然而,從技術(shù)原理、算力成本、安全需求與
    的頭像 發(fā)表于 08-13 09:15 ?3767次閱讀
    自動(dòng)駕駛中<b class='flag-5'>Transformer</b>大<b class='flag-5'>模型</b>會(huì)取代深度<b class='flag-5'>學(xué)習(xí)</b>嗎?

    商湯日日新SenseNova融合模態(tài)模型 國(guó)內(nèi)首家獲得最高評(píng)級(jí)的大模型

    近日,中國(guó)信息通信研究院(以下簡(jiǎn)稱(chēng)“中國(guó)信通院”)完成可信AI模態(tài)模型首輪評(píng)估。 商湯日日新SenseNova融合模態(tài)模型在所有
    的頭像 發(fā)表于 06-11 11:57 ?998次閱讀

    愛(ài)芯通元NPU適配Qwen2.5-VL-3B視覺(jué)模態(tài)模型

    熟悉愛(ài)芯通元NPU的網(wǎng)友很清楚,從去年開(kāi)始我們?cè)诙藗?cè)模態(tài)模型適配上一直處于主動(dòng)緊跟的節(jié)奏。先后適配了國(guó)內(nèi)最早開(kāi)源的模態(tài)大模MiniCP
    的頭像 發(fā)表于 04-21 10:56 ?2297次閱讀
    愛(ài)芯通元NPU適配Qwen2.5-VL-3B視覺(jué)<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    海康威視發(fā)布模態(tài)模型AI融合巡檢超腦

    基于??涤^瀾大模型技術(shù)體系,??低曂瞥鲂乱淮?b class='flag-5'>多模態(tài)模型AI融合巡檢超腦,全面升級(jí)人、車(chē)、行為、事件等算法,為行業(yè)帶來(lái)全新的
    的頭像 發(fā)表于 04-17 17:12 ?1142次閱讀

    移遠(yuǎn)通信智能模組全面接入模態(tài)AI大模型,重塑智能交互新體驗(yàn)

    隨著千行百業(yè)數(shù)智化進(jìn)程的不斷加速,模態(tài)AI大模型的應(yīng)用需求不斷攀升,圖像、語(yǔ)音、視頻等多樣化的交互方式正逐漸成為推動(dòng)行業(yè)變革的新動(dòng)力。 ? 3月20日,全球物聯(lián)網(wǎng)整體解決方案供應(yīng)商移遠(yuǎn)通信宣布,其
    發(fā)表于 03-21 14:12 ?369次閱讀
    移遠(yuǎn)通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>AI大<b class='flag-5'>模型</b>,重塑智能交互新體驗(yàn)

    移遠(yuǎn)通信智能模組全面接入模態(tài)AI大模型,重塑智能交互新體驗(yàn)

    隨著千行百業(yè)數(shù)智化進(jìn)程的不斷加速,模態(tài)AI大模型的應(yīng)用需求不斷攀升,圖像、語(yǔ)音、視頻等多樣化的交互方式正逐漸成為推動(dòng)行業(yè)變革的新動(dòng)力。3月20日,全球物聯(lián)網(wǎng)整體解決方案供應(yīng)商移遠(yuǎn)通信宣布,其全系
    的頭像 發(fā)表于 03-20 19:03 ?591次閱讀
    移遠(yuǎn)通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>AI大<b class='flag-5'>模型</b>,重塑智能交互新體驗(yàn)

    海康威視發(fā)布模態(tài)模型文搜存儲(chǔ)系列產(chǎn)品

    模態(tài)模型為安防行業(yè)帶來(lái)重大技術(shù)革新,基于觀瀾大模型技術(shù)體系,??低晫⒋髤?shù)量、大樣本量的圖文模態(tài)
    的頭像 發(fā)表于 02-18 10:33 ?876次閱讀

    2025年Next Token Prediction范式會(huì)統(tǒng)一模態(tài)

    各種模態(tài)的信息(如圖像、視頻和音頻片段)分解為最小的單元序列(Token),以便 Transformer 結(jié)構(gòu)為基礎(chǔ)的 NTP 模型學(xué)習(xí)。 Tokenization 方法可以分為離散(
    的頭像 發(fā)表于 01-21 10:11 ?806次閱讀
    2025年Next Token Prediction范式會(huì)統(tǒng)一<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>嗎

    體驗(yàn)MiniCPM-V 2.6 模態(tài)能力

    模態(tài)組網(wǎng)
    jf_23871869
    發(fā)布于 :2025年01月20日 13:40:48

    商湯日日新模態(tài)模型權(quán)威評(píng)測(cè)第一

    剛剛,商湯科技日日新SenseNova模態(tài)模型,在權(quán)威綜合評(píng)測(cè)權(quán)威平臺(tái)OpenCompass的模態(tài)評(píng)測(cè)中取得榜單第一。
    的頭像 發(fā)表于 12-20 10:39 ?1367次閱讀

    一文理解模態(tài)大語(yǔ)言模型——下

    /understanding-multimodal-llms ? 《一文理解模態(tài)大語(yǔ)言模型 - 上》介紹了什么是模態(tài)大語(yǔ)言
    的頭像 發(fā)表于 12-03 15:18 ?862次閱讀
    一文理解<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大語(yǔ)言<b class='flag-5'>模型</b>——下

    一文理解模態(tài)大語(yǔ)言模型——上

    /understanding-multimodal-llms 在過(guò)去幾個(gè)月中, OpenVINO? 架構(gòu)師 Yury閱讀了眾多有關(guān)模態(tài)大語(yǔ)言模型的論文和博客,在此基礎(chǔ)上,推薦了一篇解讀
    的頭像 發(fā)表于 12-02 18:29 ?1684次閱讀
    一文理解<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大語(yǔ)言<b class='flag-5'>模型</b>——上

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進(jìn)行融合,通過(guò)學(xué)習(xí)不同模態(tài)之間的關(guān)聯(lián),實(shí)現(xiàn)更加智能化的信息處理。簡(jiǎn)單來(lái)說(shuō)
    的頭像 發(fā)表于 10-18 09:39 ?2116次閱讀