chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何去解決文本到圖像生成的跨模態(tài)對比損失問題?

LiveVideoStack ? 來源:LiveVideoStack ? 作者:Google AI Blog ? 2021-06-15 10:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Google提出了一個跨模態(tài)對比學習框架來訓練用于文本到圖像合成的 GAN 模型,用于研究解決生成的跨模態(tài)對比損失問題。

從文本到圖像的自動生成,如何訓練模型僅通過一段文本描述輸入就能生成具體的圖像,是一項非常具有挑戰(zhàn)性的任務。

與其它指導圖像創(chuàng)建的輸入類型相比,描述性句子是一種更直觀、更靈活的視覺概念表達方式。強大的自動文本到圖像的生成系統(tǒng)可以成為快速、有效的內(nèi)容生產(chǎn)、制作工具,用于更多具有創(chuàng)造性的應用當中。

在CVPR 2021中,Google提出了一個跨模態(tài)對比生成對抗網(wǎng)絡(luò)(XMC-GAN),訓練用于文本到圖像合成的 GAN 模型,通過模態(tài)間與模態(tài)內(nèi)的對比學習使圖像和文本之間的互信息最大化,解決文本到圖像生成的跨模態(tài)對比損失問題。

poYBAGDIDJ-AfrniAADMgxcEq1k626.jpg

XMC-GAN 文本到圖像合成模型中的模態(tài)間和模態(tài)內(nèi)對比學習

XMC-GAN 被成功應用于三個具有挑戰(zhàn)性的數(shù)據(jù)集:一個是MS-COCO 圖像描述集合,另外兩個是用Localized Narratives注釋的數(shù)據(jù)集,一個是包括MS-COCO 圖像(稱為LN-COCO) ,另一個描述開放圖像數(shù)據(jù) (LN-OpenImages)。結(jié)果顯示 XMC-GAN生成圖像所描繪的場景相比于使用其它技術(shù)生成的圖像質(zhì)量更高,在每個方面都達到了最先進的水平。

pYYBAGDIDI-AdQkNAAB3Ifj0XNA593.jpg

MS-COCO對圖像質(zhì)量和文本對齊的人工評估

此外,XMC-GAN還在 LN-OpenImages 上進行了一系列訓練和評估,這相比于 MS-COCO 更具有挑戰(zhàn)性,由于數(shù)據(jù)集更大,圖像涵蓋主題范圍更加廣泛且復雜。

對于人類評估和定量指標,XMC-GAN 在多個數(shù)據(jù)集模型中相較之前有顯著的改進。可以生成與輸入描述非常匹配的高質(zhì)量圖像,包括更長,更詳細的敘述,同時端到端模型的復雜度也相對較為簡單,這代表了從自然語言描述生成圖像的創(chuàng)造性應用的重大進步。

責任編輯:lq6

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1096

    瀏覽量

    42366
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    21

    文章

    2377

    瀏覽量

    83061

原文標題:XMC-GAN:從文本到圖像的跨模態(tài)對比學習

文章出處:【微信號:livevideostack,微信公眾號:LiveVideoStack】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    全球首個最大規(guī)模本體視觸覺多模態(tài)數(shù)據(jù)集白虎-VTouch發(fā)布

    全球首個最大規(guī)模本體視觸覺多模態(tài)數(shù)據(jù)集——白虎-VTouch(Vision-Based Tactile Sensor),總規(guī)模超過60,000分鐘。
    的頭像 發(fā)表于 01-29 14:41 ?596次閱讀

    使用Firebase AI Logic生成圖像模型的兩種新功能

    為您的應用添加自定義圖像,能夠顯著改善和個性化用戶體驗,有效提高用戶參與度。本文將探討使用 Firebase AI Logic 生成圖像的兩種新功能: 其一是 Imagen 專屬編輯功能預覽版;其二
    的頭像 發(fā)表于 11-30 09:28 ?473次閱讀

    格靈深瞳多模態(tài)大模型Glint-ME讓圖文互搜更精準

    在電商、安防等場景下,圖文互搜應用廣泛。隨著以CLIP為代表的多模態(tài)表征方法相繼提出,過去單一模態(tài)搜索(文搜文、圖搜圖)被突破,模型可以同時理解文本圖像、音頻乃至視頻,實現(xiàn)
    的頭像 發(fā)表于 11-02 15:56 ?1754次閱讀
    格靈深瞳多<b class='flag-5'>模態(tài)</b>大模型Glint-ME讓圖文互搜更精準

    亞馬遜云科技上線Amazon Nova多模態(tài)嵌入模型

    的統(tǒng)一嵌入模型,能以行業(yè)頂尖的準確率實現(xiàn)模態(tài)檢索。 當今,企業(yè)正不斷尋求解決方案,以期從文本、圖像、文檔、視頻、音頻等海
    的頭像 發(fā)表于 10-29 17:15 ?298次閱讀
    亞馬遜云科技上線Amazon Nova多<b class='flag-5'>模態(tài)</b>嵌入模型

    米爾RK3576部署端側(cè)多模態(tài)多輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    細化需求,系統(tǒng)需實時調(diào)整響應策略 1.2 多輪對話系統(tǒng)鳥瞰:三顆“核心”協(xié)同驅(qū)動RK3576 多模態(tài)交互對話方案基于 RKLLM 的核心運作,依賴于圖像視覺編碼器、大語言模型與對話管家這三大模塊的協(xié)同
    發(fā)表于 09-05 17:25

    淺析多模態(tài)標注對大模型應用落地的重要性與標注實例

    ”的關(guān)鍵工序——多模態(tài)標注重要性日益凸顯。 一、什么是多模態(tài)標注? 多模態(tài)標注是指對文本圖像、語音、視頻、點云等異構(gòu)數(shù)據(jù)進行
    的頭像 發(fā)表于 09-05 13:49 ?2476次閱讀

    基于米爾瑞芯微RK3576開發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評測

    案例:支持圖像文本交互 步驟 1:環(huán)境準備 步驟 2:模型的獲取、驗證與格式轉(zhuǎn)換 步驟 3:修改代碼并交叉編譯可執(zhí)行文件并上傳到板子上 步驟 4:上傳文件開發(fā)板 性能測試 Tips 多
    發(fā)表于 08-29 18:08

    中國科學院自動化研究所攜手中科曙光打造高性能工具鏈解決方案

    2019年起,中國科學院自動化研究所以語音、文本、圖像等單模態(tài)大模型的研究與應用為基石,全力攻關(guān)全球首個千億參數(shù)多模態(tài)大模型。如今,相關(guān)產(chǎn)品已突破
    的頭像 發(fā)表于 08-11 11:08 ?1098次閱讀

    關(guān)于鴻蒙App上架中“AI文本生成模塊的資質(zhì)證明文件”的情況說明

    檢查結(jié)果為“通過”或?qū)徍藸顟B(tài)為“審核通過”。 那么對于這個問題,我也是嘗試解決……這里分享一下我了解的情況和方法 首先,這個政策雖然說是針對AI文本生成模塊,但實際上,針對的是所有調(diào)用了AI大模型
    發(fā)表于 06-30 18:37

    邊緣生成式AI面臨哪些工程挑戰(zhàn)?

    本文由TechSugar編譯自electronicdesign當大多數(shù)人想到人工智能(AI)時,他們通常能想到的是能夠生成文本圖像或語音內(nèi)容的應用。像ChatGPT這樣流行的文本
    的頭像 發(fā)表于 06-25 10:44 ?1178次閱讀
    邊緣<b class='flag-5'>生成</b>式AI面臨哪些工程挑戰(zhàn)?

    無法使用OpenVINO?在 GPU 設(shè)備上運行穩(wěn)定擴散文本圖像的原因?

    在OpenVINO? GPU 設(shè)備上使用圖像大小 (1024X576) 運行穩(wěn)定擴散文本圖像,并收到錯誤消息: RuntimeError: Exception from
    發(fā)表于 06-25 06:36

    利用NVIDIA 3D引導生成式AI Blueprint控制圖像生成

    AI 賦能的圖像生成技術(shù)突飛猛進,從早期模型會生成手指過多的人類圖像,到現(xiàn)在能創(chuàng)造出令人驚嘆的逼真視覺效果。即使取得了如此飛躍,仍然存在一個挑戰(zhàn):實現(xiàn)創(chuàng)意掌控。
    的頭像 發(fā)表于 06-05 09:24 ?939次閱讀

    如何使用離線工具od SPSDK生成完整圖像?

    對我來說,完整圖像是指包含 keyblob、FCB 等的圖像。換句話說,圖像包含 0x30000000 0x30000FFF 之間的大約 4KB。 如果我理解正確,使用 SPT(以
    發(fā)表于 03-28 06:51

    把樹莓派打造成識別文本的“神器”!

    在許多項目中,RaspberryPi被用作監(jiān)控攝像頭或執(zhí)行機器學習任務。在這些場景中,圖像中經(jīng)常包含應用程序感興趣的文本信息。我們希望提取這些信息并將其轉(zhuǎn)換,以便通過程序分析文本
    的頭像 發(fā)表于 03-25 09:30 ?1019次閱讀
    把樹莓派打造成識別<b class='flag-5'>文本</b>的“神器”!

    一種多模態(tài)駕駛場景生成框架UMGen介紹

    端自動駕駛技術(shù)的快速發(fā)展對閉環(huán)仿真器提出了迫切需求,而生成式模型為其提供了一種有效的技術(shù)架構(gòu)。然而,現(xiàn)有的駕駛場景生成方法大多側(cè)重于圖像模態(tài)
    的頭像 發(fā)表于 03-24 15:57 ?1736次閱讀
    一種多<b class='flag-5'>模態(tài)</b>駕駛場景<b class='flag-5'>生成</b>框架UMGen介紹