chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

多模態(tài)圖像合成與編輯方法

OpenCV學(xué)堂 ? 來源:機器之心 ? 作者:機器之心 ? 2022-08-23 09:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本篇綜述通過對現(xiàn)有的多模態(tài)圖像合成與編輯方法的歸納總結(jié),對該領(lǐng)域目前的挑戰(zhàn)和未來方向進行了探討和分析。

近期 OpenAI 發(fā)布的 DALLE-2 和谷歌發(fā)布的 Imagen 等實現(xiàn)了令人驚嘆的文字到圖像的生成效果,引發(fā)了廣泛關(guān)注并且衍生出了很多有趣的應(yīng)用。而文字到圖像的生成屬于多模態(tài)圖像合成與編輯領(lǐng)域的一個典型任務(wù)。 近日,來自馬普所和南洋理工等機構(gòu)的研究人員對多模態(tài)圖像合成與編輯這一大領(lǐng)域的研究現(xiàn)狀和未來發(fā)展做了詳細的調(diào)查和分析。

d78635d0-2230-11ed-ba43-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2112.13592.pdf

項目地址:https://github.com/fnzhan/MISE

d79dbe8a-2230-11ed-ba43-dac502259ad0.png

在第一章節(jié),該綜述描述了多模態(tài)圖像合成與編輯任務(wù)的意義和整體發(fā)展,以及本論文的貢獻與總體結(jié)構(gòu)。 在第二章節(jié),根據(jù)引導(dǎo)圖片合成與編輯的數(shù)據(jù)模態(tài),該綜述論文介紹了比較常用的視覺引導(dǎo)(比如 語義圖,關(guān)鍵點圖,邊緣圖),文字引導(dǎo),語音引導(dǎo),場景圖(scene graph)引導(dǎo)和相應(yīng)模態(tài)數(shù)據(jù)的處理方法以及統(tǒng)一的表示框架。 在第三章節(jié),根據(jù)圖像合成與編輯的模型框架,該論文對目前的各種方法進行了分類,包括基于 GAN 的方法,自回歸方法,擴散模型方法,和神經(jīng)輻射場(NeRF)方法。

d7c3cb8e-2230-11ed-ba43-dac502259ad0.png

d7d3ffe0-2230-11ed-ba43-dac502259ad0.png

由于基于 GAN 的方法一般使用條件 GAN 和 無條件 GAN 反演,因此該論文將這一類別進一步分為模態(tài)內(nèi)條件(例如語義圖,邊緣圖),跨模態(tài)條件(例如文字和語音),和 GAN 反演(統(tǒng)一模態(tài))并進行了詳細描述。

d7e7efe6-2230-11ed-ba43-dac502259ad0.png

相比于基于 GAN 的方法,自回歸模型方法能夠更加自然的處理多模態(tài)數(shù)據(jù),以及利用目前流行的 Transformer 模型。自回歸方法一般先學(xué)習(xí)一個向量量化編碼器將圖片離散地表示為 token 序列,然后自回歸式地建模 token 的分布。由于文本和語音等數(shù)據(jù)都能表示為 token 并作為自回歸建模的條件,因此各種多模態(tài)圖片合成與編輯任務(wù)都能統(tǒng)一到一個框架當中。

d7f91f32-2230-11ed-ba43-dac502259ad0.png

d80fe2f8-2230-11ed-ba43-dac502259ad0.png

近期,火熱的擴散模型也被廣泛應(yīng)用于多模態(tài)合成與編輯任務(wù)。例如效果驚人的 DALLE-2 和 Imagen 都是基于擴散模型實現(xiàn)的。相比于 GAN,擴散式生成模型擁有一些良好的性質(zhì),比如靜態(tài)的訓(xùn)練目標和易擴展性。該論文依據(jù)條件擴散模型和預(yù)訓(xùn)練擴散模型對現(xiàn)有方法進行了分類與詳細分析。

d8239028-2230-11ed-ba43-dac502259ad0.png

d83650f0-2230-11ed-ba43-dac502259ad0.png

以上方法主要聚焦于 2D 圖像的多模態(tài)合成與編輯。近期隨著神經(jīng)輻射場(NeRF)的迅速發(fā)展,3D 感知的多模態(tài)合成與編輯也吸引了越來越多的關(guān)注。由于需要考慮多視角一致性,3D 感知的多模態(tài)合成與編輯是更具挑戰(zhàn)性的任務(wù)。本文針對單場景優(yōu)化 NeRF,生成式 NeRF 和 NeRF 反演的三種方法對現(xiàn)有工作進行了分類與總結(jié)。 隨后,該綜述對以上四種模型方法的進行了比較和討論??傮w而言,相比于 GAN,目前最先進的模型更加偏愛自回歸模型和擴散模型。而 NeRF 在多模態(tài)合成與編輯任務(wù)的應(yīng)用為這個領(lǐng)域的研究打開了一扇新的窗戶。

d84df174-2230-11ed-ba43-dac502259ad0.png

在第四章節(jié),該綜述匯集了多模態(tài)合成與編輯領(lǐng)域流行的數(shù)據(jù)集以及相應(yīng)的模態(tài)標注,并且針對各模態(tài)典型任務(wù)(語義圖像合成,文字到圖像合成,語音引導(dǎo)圖像編輯)對當前方法進行了定量的比較。 在第五章節(jié),該綜述對此領(lǐng)域目前的挑戰(zhàn)和未來方向進行了探討和分析,包括大規(guī)模的多模態(tài)數(shù)據(jù)集,準確可靠的評估指標,高效的網(wǎng)絡(luò)架構(gòu),以及 3D 感知的發(fā)展方向。 在第六和第七章節(jié),該綜述分別闡述了此領(lǐng)域潛在的社會影響和總結(jié)了文章的內(nèi)容與貢獻。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6244

    瀏覽量

    110207
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7314

    瀏覽量

    93914
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1095

    瀏覽量

    42144

原文標題:多模態(tài)圖像合成與編輯這么火,馬普所、南洋理工等出了份詳細綜述

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    體驗MiniCPM-V 2.6 模態(tài)能力

    模態(tài)組網(wǎng)
    jf_23871869
    發(fā)布于 :2025年01月20日 13:40:48

    基于通道分類合成的SAR圖像分類研究

    利用SVM對不同通道的數(shù)據(jù)分別進行分類,然后利用粒度合成理論對不同的分類結(jié)果進行合并,最后實現(xiàn)通道SAR數(shù)據(jù)圖像分類。本文重點論述了利用該方法進行SAR
    發(fā)表于 04-23 11:52

    高分辨率合成孔徑雷達圖像的直線特征尺度提取方法

    針對傳統(tǒng)的合成孔徑雷達(SAR)尺度邊緣提取方法中直線提取連續(xù)性和完整性不好的特點,提出了一個由粗到精的多分辨率SAR圖像直線特征多級提取框架,利用
    發(fā)表于 05-06 09:04

    尺度形態(tài)濾波模態(tài)混疊抑制方法

    尺度形態(tài)濾波模態(tài)混疊抑制方法_曹瑩
    發(fā)表于 01-07 18:21 ?0次下載

    基于超圖的模態(tài)關(guān)聯(lián)特征處理方法

    傳統(tǒng)的模式識別方法認為特征是相互獨立的,容易忽略模態(tài)特征之間多元的關(guān)聯(lián)性,從而造成識別的誤差。為此,基于超圖模型,提出一種新的特征整合方法。定義共享熵的計算
    發(fā)表于 03-07 11:01 ?2次下載
    基于超圖的<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>關(guān)聯(lián)特征處理<b class='flag-5'>方法</b>

    基于雙殘差超密集網(wǎng)絡(luò)的模態(tài)醫(yī)學(xué)圖像融合方法

    Networks, DRHDNS)的模態(tài)醫(yī)學(xué)圖像融合方法。 DRHDNS分為特征提取和特征融合兩部分。特征提取部分通過將超密集連接與殘差學(xué)習(xí)相結(jié)合,構(gòu)造出雙殘差超密集塊,用于提取特
    發(fā)表于 04-14 11:18 ?19次下載
    基于雙殘差超密集網(wǎng)絡(luò)的<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>醫(yī)學(xué)<b class='flag-5'>圖像</b>融合<b class='flag-5'>方法</b>

    基于聯(lián)合壓縮感知的模態(tài)目標統(tǒng)一跟蹤方法

    針對模態(tài)目標跟蹤中大多僅考慮單個圖像的異種特征融合或不同模態(tài)圖像的同種特征融合,為了使得這兩者間能自然集成,提出基于聯(lián)合壓縮感知的
    發(fā)表于 04-27 15:59 ?0次下載
    基于聯(lián)合壓縮感知的<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>目標統(tǒng)一跟蹤<b class='flag-5'>方法</b>

    簡述文本與圖像領(lǐng)域的模態(tài)學(xué)習(xí)有關(guān)問題

    來自:哈工大SCIR 本期導(dǎo)讀:近年來研究人員在計算機視覺和自然語言處理方向均取得了很大進展,因此融合了二者的模態(tài)深度學(xué)習(xí)也越來越受到關(guān)注。本期主要討論結(jié)合文本和圖像
    的頭像 發(fā)表于 08-26 16:29 ?7440次閱讀

    圖像對齊所有模態(tài),Meta開源感官AI基礎(chǔ)模型,實現(xiàn)大一統(tǒng)

    最近,很多方法學(xué)習(xí)與文本、音頻等對齊的圖像特征。這些方法使用單對模態(tài)或者最多幾種視覺模態(tài)。最終嵌入僅限于用于訓(xùn)練的
    的頭像 發(fā)表于 05-26 15:45 ?1431次閱讀
    用<b class='flag-5'>圖像</b>對齊所有<b class='flag-5'>模態(tài)</b>,Meta開源<b class='flag-5'>多</b>感官AI基礎(chǔ)模型,實現(xiàn)大一統(tǒng)

    VisCPM:邁向多語言模態(tài)大模型時代

    隨著 GPT-4 和 Stable Diffusion 等模型模態(tài)能力的突飛猛進,模態(tài)大模型已經(jīng)成為大模型邁向通用人工智能(AGI)目標的下一個前沿焦點。總體而言,面向
    的頭像 發(fā)表于 07-10 10:05 ?1186次閱讀
    VisCPM:邁向多語言<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大模型時代

    模態(tài)大模型最全綜述來了!

    其中最后一個表示監(jiān)督信號是從圖像本身中挖掘出來的,流行的方法包括對比學(xué)習(xí)、非對比學(xué)習(xí)和masked image建模。在這些方法之外,文章也進一步討論了
    的頭像 發(fā)表于 09-26 16:42 ?3429次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大模型最全綜述來了!

    探究編輯模態(tài)大語言模型的可行性

    不同于單模態(tài)模型編輯,模態(tài)模型編輯需要考慮更多的模態(tài)信息。文章出發(fā)點依然從單
    發(fā)表于 11-09 14:53 ?980次閱讀
    探究<b class='flag-5'>編輯</b><b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大語言模型的可行性

    基于幾何分析的神經(jīng)輻射場編輯方法

    神經(jīng)輻射場作為近期一個廣受關(guān)注的隱式表征方法,能合成照片級真實的視角圖像。但因為其隱式建模的性質(zhì),用戶難以直觀編輯神經(jīng)輻射場建模對象的幾何
    的頭像 發(fā)表于 11-20 16:56 ?1233次閱讀
    基于幾何分析的神經(jīng)輻射場<b class='flag-5'>編輯</b><b class='flag-5'>方法</b>

    大模型+模態(tài)的3種實現(xiàn)方法

    我們知道,預(yù)訓(xùn)練LLM已經(jīng)取得了諸多驚人的成就, 然而其明顯的劣勢是不支持其他模態(tài)(包括圖像、語音、視頻模態(tài))的輸入和輸出,那么如何在預(yù)訓(xùn)練LLM的基礎(chǔ)上引入跨模態(tài)的信息,讓其變得更強
    的頭像 發(fā)表于 12-13 13:55 ?2985次閱讀
    大模型+<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>的3種實現(xiàn)<b class='flag-5'>方法</b>

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)大模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進行融合,通過學(xué)習(xí)不同模態(tài)之間的關(guān)聯(lián),實現(xiàn)更加智能化的信息處理。簡單來說,
    的頭像 發(fā)表于 10-18 09:39 ?2603次閱讀