chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

蒸餾無分類器指導(dǎo)擴(kuò)散模型的方法

OpenCV學(xué)堂 ? 來源:OpenCV學(xué)堂 ? 作者:OpenCV學(xué)堂 ? 2022-10-13 10:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

斯坦福大學(xué)聯(lián)合谷歌大腦使用「兩步蒸餾方法」提升無分類器指導(dǎo)的采樣效率,在生成樣本質(zhì)量和采樣速度上都有非常亮眼的表現(xiàn)。

去噪擴(kuò)散概率模型(DDPM)在圖像生成、音頻合成、分子生成和似然估計(jì)領(lǐng)域都已經(jīng)實(shí)現(xiàn)了 SOTA 性能。同時無分類器(classifier-free)指導(dǎo)進(jìn)一步提升了擴(kuò)散模型的樣本質(zhì)量,并已被廣泛應(yīng)用在包括 GLIDE、DALL·E 2 和 Imagen 在內(nèi)的大規(guī)模擴(kuò)散模型框架中。

然而,無分類器指導(dǎo)的一大關(guān)鍵局限是它的采樣效率低下,需要對兩個擴(kuò)散模型評估數(shù)百次才能生成一個樣本。這一局限阻礙了無分類指導(dǎo)模型在真實(shí)世界設(shè)置中的應(yīng)用。盡管已經(jīng)針對擴(kuò)散模型提出了蒸餾方法,但目前這些方法不適用無分類器指導(dǎo)擴(kuò)散模型。

為了解決這一問題,近日斯坦福大學(xué)和谷歌大腦的研究者在論文《On Distillation of Guided Diffusion Models》中提出使用兩步蒸餾(two-step distillation)方法來提升無分類器指導(dǎo)的采樣效率。

在第一步中,他們引入單一學(xué)生模型來匹配兩個教師擴(kuò)散模型的組合輸出;在第二步中,他們利用提出的方法逐漸地將從第一步學(xué)得的模型蒸餾為更少步驟的模型。

利用提出的方法,單個蒸餾模型能夠處理各種不同的指導(dǎo)強(qiáng)度,從而高效地對樣本質(zhì)量和多樣性進(jìn)行權(quán)衡。此外為了從他們的模型中采樣,研究者考慮了文獻(xiàn)中已有的確定性采樣器,并進(jìn)一步提出了隨機(jī)采樣過程。

研究者在 ImageNet 64x64 和 CIFAR-10 上進(jìn)行了實(shí)驗(yàn),結(jié)果表明提出的蒸餾模型只需 4 步就能生成在視覺上與教師模型媲美的樣本,并且在更廣泛的指導(dǎo)強(qiáng)度上只需 8 到 16 步就能實(shí)現(xiàn)與教師模型媲美的 FID/IS 分?jǐn)?shù),具體如下圖 1 所示。

此外,在 ImageNet 64x64 上的其他實(shí)驗(yàn)結(jié)果也表明了,研究者提出的框架在風(fēng)格遷移應(yīng)用中也表現(xiàn)良好。

方法介紹

接下來本文討論了蒸餾無分類器指導(dǎo)擴(kuò)散模型的方法( distilling a classifier-free guided diffusion model)。給定一個訓(xùn)練好的指導(dǎo)模型,即教師模型970d4384-4a3c-11ed-a3b6-dac502259ad0.png之后本文分兩步完成。

第一步引入一個連續(xù)時間學(xué)生模型9720de08-4a3c-11ed-a3b6-dac502259ad0.png,該模型具有可學(xué)習(xí)參數(shù)η_1,以匹配教師模型在任意時間步 t∈[0,1] 處的輸出。給定一個優(yōu)化范圍 [w_min, w_max],對學(xué)生模型進(jìn)行優(yōu)化:

973061e8-4a3c-11ed-a3b6-dac502259ad0.png

其中,97460e1c-4a3c-11ed-a3b6-dac502259ad0.png。為了合并指導(dǎo)權(quán)重 w,本文引入了一個 w - 條件模型,其中 w 作為學(xué)生模型的輸入。為了更好地捕捉特征,本文還對 w 應(yīng)用傅里葉嵌入。此外,由于初始化在模型性能中起著關(guān)鍵作用,因此本文初始化學(xué)生模型的參數(shù)與教師模型相同。

在第二步中,本文將離散時間步(discrete time-step)考慮在內(nèi),并逐步將第一步中的蒸餾模型976a42dc-4a3c-11ed-a3b6-dac502259ad0.png轉(zhuǎn)化為步數(shù)較短的學(xué)生模型977da4a8-4a3c-11ed-a3b6-dac502259ad0.png,其可學(xué)習(xí)參數(shù)為η_2,每次采樣步數(shù)減半。設(shè) N 為采樣步數(shù),給定 w ~ U[w_min, w_max] 和 t∈{1,…, N},然后根據(jù) Salimans & Ho 等人提出的方法訓(xùn)練學(xué)生模型。在將教師模型中的 2N 步蒸餾為學(xué)生模型中的 N 步之后,之后使用 N 步學(xué)生模型作為新的教師模型,這個過程不斷重復(fù),直到將教師模型蒸餾為 N/2 步學(xué)生模型。

N 步可確定性和隨機(jī)采樣:一旦模型979522b8-4a3c-11ed-a3b6-dac502259ad0.png訓(xùn)練完成,給定一個指定的 w ∈ [w_min, w_max],然后使用 DDIM 更新規(guī)則執(zhí)行采樣。

實(shí)際上,本文也可以執(zhí)行 N 步隨機(jī)采樣,使用兩倍于原始步長的確定性采樣步驟,然后使用原始步長向后執(zhí)行一個隨機(jī)步驟 。對于97a8d538-4a3c-11ed-a3b6-dac502259ad0.png,當(dāng) t > 1/N 時,本文使用以下更新規(guī)則

97b46010-4a3c-11ed-a3b6-dac502259ad0.png

實(shí)驗(yàn)

實(shí)驗(yàn)評估了蒸餾方法的性能,本文主要關(guān)注模型在 ImageNet 64x64 和 CIFAR-10 上的結(jié)果。他們探索了指導(dǎo)權(quán)重的不同范圍,并觀察到所有范圍都具有可比性,因此實(shí)驗(yàn)采用 [w_min, w_max] = [0, 4]。圖 2 和表 1 報告了在 ImageNet 64x64 上所有方法的性能。

97dbcd80-4a3c-11ed-a3b6-dac502259ad0.png

984c2594-4a3c-11ed-a3b6-dac502259ad0.png

本文還進(jìn)行了如下實(shí)驗(yàn)。具體來說,為了在兩個域 A 和 B 之間執(zhí)行風(fēng)格遷移,本文使用在域 A 上訓(xùn)練的擴(kuò)散模型對來自域 A 的圖像進(jìn)行編碼,然后使用在域 B 上訓(xùn)練的擴(kuò)散模型進(jìn)行解碼。由于編碼過程可以理解為反向 DDIM 采樣過程,本文在無分類器指導(dǎo)下對編碼器和解碼器進(jìn)行蒸餾,并與下圖 3 中的 DDIM 編碼器和解碼器進(jìn)行比較。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3899

    瀏覽量

    141335
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3644

    瀏覽量

    51683
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    13665

原文標(biāo)題:采樣提速256倍,蒸餾擴(kuò)散模型生成圖像質(zhì)量媲美教師模型,只需4步

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于擴(kuò)散模型的圖像生成過程

    近年來,擴(kuò)散模型在文本到圖像生成方面取得了巨大的成功,實(shí)現(xiàn)了更高圖像生成質(zhì)量,提高了推理性能,也可以激發(fā)擴(kuò)展創(chuàng)作靈感。 不過僅憑文本來控制圖像的生成往往得不到想要的結(jié)果,比如具體的人物姿勢、面部表情
    的頭像 發(fā)表于 07-17 11:00 ?4066次閱讀
    基于<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>的圖像生成過程

    傳感的故障分類與診斷方法

    最大值;漂移故障,信號以某一速率偏移原信號;周期性干擾故障,原信號上疊加某一頻率的信號。傳感故障的診斷方法從不同角度出發(fā),故障診斷方法分類不完全相同?,F(xiàn)簡單地將故障診斷
    發(fā)表于 10-30 15:57

    基于優(yōu)化SVM模型的網(wǎng)絡(luò)負(fù)面信息分類方法研究

    基于優(yōu)化SVM模型的網(wǎng)絡(luò)負(fù)面信息分類方法研究_鄭金芳
    發(fā)表于 01-07 18:56 ?0次下載

    基于非參數(shù)方法分類模型檢驗(yàn)

    本文主要研究了基于非參數(shù)方法分類模型交叉驗(yàn)證結(jié)果比較,主要是對實(shí)例通過非參數(shù)的方法進(jìn)行模型比較的假設(shè)檢驗(yàn),檢驗(yàn)兩
    發(fā)表于 12-08 15:28 ?1次下載

    針對遙感圖像場景分類的多粒度特征蒸餾方法

    嵌入式設(shè)備上的應(yīng)用。提出一種針對遙感圖像場景分類的多粒度特征蒸餾方法,將深度網(wǎng)絡(luò)不同階段的特征與最終的類別概率同時作為淺層模型的監(jiān)督信號,使得淺層
    發(fā)表于 03-11 17:18 ?20次下載
    針對遙感圖像場景<b class='flag-5'>分類</b>的多粒度特征<b class='flag-5'>蒸餾</b><b class='flag-5'>方法</b>

    如何改進(jìn)和加速擴(kuò)散模型采樣的方法1

      盡管擴(kuò)散模型實(shí)現(xiàn)了較高的樣本質(zhì)量和多樣性,但不幸的是,它們在采樣速度方面存在不足。這限制了擴(kuò)散模型在實(shí)際應(yīng)用中的廣泛采用,并導(dǎo)致了從這些模型
    的頭像 發(fā)表于 05-07 14:25 ?3042次閱讀
    如何改進(jìn)和加速<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>采樣的<b class='flag-5'>方法</b>1

    如何改進(jìn)和加速擴(kuò)散模型采樣的方法2

      事實(shí)上,擴(kuò)散模型已經(jīng)在深層生成性學(xué)習(xí)方面取得了重大進(jìn)展。我們預(yù)計(jì),它們可能會在圖像和視頻處理、 3D 內(nèi)容生成和數(shù)字藝術(shù)以及語音和語言建模等領(lǐng)域得到實(shí)際應(yīng)用。它們還將用于藥物發(fā)現(xiàn)和材料設(shè)計(jì)等領(lǐng)域,以及其他各種重要應(yīng)用。我們認(rèn)為,基于
    的頭像 發(fā)表于 05-07 14:38 ?4028次閱讀
    如何改進(jìn)和加速<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>采樣的<b class='flag-5'>方法</b>2

    若干蒸餾方法之間的細(xì)節(jié)以及差異

    以往的知識蒸餾雖然可以有效的壓縮模型尺寸,但很難將teacher模型的能力蒸餾到一個更小詞表的student模型中,而DualTrain+S
    的頭像 發(fā)表于 05-12 11:39 ?2073次閱讀

    如何度量知識蒸餾中不同數(shù)據(jù)增強(qiáng)方法的好壞?

    知識蒸餾(knowledge distillation,KD)是一種通用神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法,它使用大的teacher模型來 “教” student模型,在各種AI任務(wù)上有著廣泛應(yīng)用。
    的頭像 發(fā)表于 02-25 15:41 ?1534次閱讀

    蒸餾也能Step-by-Step:新方法讓小模型也能媲美2000倍體量大模型

    為了解決大型模型的這個問題,部署者往往采用小一些的特定模型來替代。這些小一點(diǎn)的模型用常見范式 —— 微調(diào)或是蒸餾來進(jìn)行訓(xùn)練。微調(diào)使用下游的人類注釋數(shù)據(jù)升級一個預(yù)訓(xùn)練過的小
    的頭像 發(fā)表于 05-15 09:35 ?1195次閱讀
    <b class='flag-5'>蒸餾</b>也能Step-by-Step:新<b class='flag-5'>方法</b>讓小<b class='flag-5'>模型</b>也能媲美2000倍體量大<b class='flag-5'>模型</b>

    如何加速生成2 PyTorch擴(kuò)散模型

    加速生成2 PyTorch擴(kuò)散模型
    的頭像 發(fā)表于 09-04 16:09 ?1806次閱讀
    如何加速生成2 PyTorch<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>

    任意模型都能蒸餾!華為諾亞提出異構(gòu)模型的知識蒸餾方法

    相比于僅使用logits的蒸餾方法,同步使用模型中間層特征進(jìn)行蒸餾方法通常能取得更好的性能。然而在異構(gòu)
    的頭像 發(fā)表于 11-01 16:18 ?2063次閱讀
    任意<b class='flag-5'>模型</b>都能<b class='flag-5'>蒸餾</b>!華為諾亞提出異構(gòu)<b class='flag-5'>模型</b>的知識<b class='flag-5'>蒸餾</b><b class='flag-5'>方法</b>

    擴(kuò)散模型的理論基礎(chǔ)

    擴(kuò)散模型的迅速崛起是過去幾年機(jī)器學(xué)習(xí)領(lǐng)域最大的發(fā)展之一。在這本簡單易懂的指南中,學(xué)習(xí)你需要知道的關(guān)于擴(kuò)散模型的一切。
    的頭像 發(fā)表于 10-28 09:30 ?2122次閱讀
    <b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>的理論基礎(chǔ)

    基于移動自回歸的時序擴(kuò)散預(yù)測模型

    在人工智能領(lǐng)域,目前有很多工作采用自回歸方法來模擬或是替代擴(kuò)散模型,其中視覺自回歸建模(Visual AutoRegressive modeling,簡稱 VAR)就是其中的典型代表,該工作利用自
    的頭像 發(fā)表于 01-03 14:05 ?1636次閱讀
    基于移動自回歸的時序<b class='flag-5'>擴(kuò)散</b>預(yù)測<b class='flag-5'>模型</b>

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務(wù)

    近日,摩爾線程智能科技(北京)有限責(zé)任公司在其官方渠道發(fā)布了一則重要消息,宣布公司已經(jīng)成功實(shí)現(xiàn)了對DeepSeek蒸餾模型推理服務(wù)的部署。這一技術(shù)突破,標(biāo)志著摩爾線程在人工智能領(lǐng)域邁出了堅(jiān)實(shí)的一步
    的頭像 發(fā)表于 02-06 13:49 ?1176次閱讀