chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用Pytorch實(shí)現(xiàn)頻譜歸一化生成對(duì)抗網(wǎng)絡(luò)(SN-***)

冬至子 ? 來源:思否AI ? 作者:思否AI ? 2023-10-18 10:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自從擴(kuò)散模型發(fā)布以來,GAN的關(guān)注度和論文是越來越少了,但是它們里面的一些思路還是值得我們了解和學(xué)習(xí)。所以本文我們來使用Pytorch 來實(shí)現(xiàn)SN-GAN

譜歸一化生成對(duì)抗網(wǎng)絡(luò)是一種生成對(duì)抗網(wǎng)絡(luò),它使用譜歸一化技術(shù)來穩(wěn)定鑒別器的訓(xùn)練。譜歸一化是一種權(quán)值歸一化技術(shù),它約束了鑒別器中每一層的譜范數(shù)。這有助于防止鑒別器變得過于強(qiáng)大,從而導(dǎo)致不穩(wěn)定和糟糕的結(jié)果。

SN-GAN由Miyato等人(2018)在論文“生成對(duì)抗網(wǎng)絡(luò)的譜歸一化”中提出,作者證明了sn - gan在各種圖像生成任務(wù)上比其他gan具有更好的性能。

SN-GAN的訓(xùn)練方式與其他gan相同。生成器網(wǎng)絡(luò)學(xué)習(xí)生成與真實(shí)圖像無法區(qū)分的圖像,而鑒別器網(wǎng)絡(luò)學(xué)習(xí)區(qū)分真實(shí)圖像和生成圖像。這兩個(gè)網(wǎng)絡(luò)以競(jìng)爭(zhēng)的方式進(jìn)行訓(xùn)練,它們最終達(dá)到一個(gè)點(diǎn),即生成器能夠產(chǎn)生逼真的圖像,從而欺騙鑒別器。

以下是SN-GAN相對(duì)于其他gan的優(yōu)勢(shì)總結(jié):

  • 更穩(wěn)定,更容易訓(xùn)練
  • 可以生成更高質(zhì)量的圖像
  • 更通用,可以用來生成更廣泛的內(nèi)容。

模式崩潰

模式崩潰是生成對(duì)抗網(wǎng)絡(luò)(GANs)訓(xùn)練中常見的問題。當(dāng)GAN的生成器網(wǎng)絡(luò)無法產(chǎn)生多樣化的輸出,而是陷入特定的模式時(shí),就會(huì)發(fā)生模式崩潰。這會(huì)導(dǎo)致生成的輸出出現(xiàn)重復(fù),缺乏多樣性和細(xì)節(jié),有時(shí)甚至與訓(xùn)練數(shù)據(jù)完全無關(guān)。

GAN中發(fā)生模式崩潰有幾個(gè)原因。一個(gè)原因是生成器網(wǎng)絡(luò)可能對(duì)訓(xùn)練數(shù)據(jù)過擬合。如果訓(xùn)練數(shù)據(jù)不夠多樣化,或者生成器網(wǎng)絡(luò)太復(fù)雜,就會(huì)發(fā)生這種情況。另一個(gè)原因是生成器網(wǎng)絡(luò)可能陷入損失函數(shù)的局部最小值。如果學(xué)習(xí)率太高,或者損失函數(shù)定義不明確,就會(huì)發(fā)生這種情況。

以前有許多技術(shù)可以用來防止模式崩潰。比如使用更多樣化的訓(xùn)練數(shù)據(jù)集。或者使用正則化技術(shù),例如dropout或批處理歸一化,使用合適的學(xué)習(xí)率和損失函數(shù)也很重要。

Wassersteian損失

Wasserstein損失,也稱為Earth Mover’s Distance(EMD)或Wasserstein GAN (WGAN)損失,是一種用于生成對(duì)抗網(wǎng)絡(luò)(GAN)的損失函數(shù)。引入它是為了解決與傳統(tǒng)GAN損失函數(shù)相關(guān)的一些問題,例如Jensen-Shannon散度和Kullback-Leibler散度。

Wasserstein損失測(cè)量真實(shí)數(shù)據(jù)和生成數(shù)據(jù)的概率分布之間的差異,同時(shí)確保它具有一定的數(shù)學(xué)性質(zhì)。他的思想是最小化這兩個(gè)分布之間的Wassersteian距離(也稱為地球移動(dòng)者距離)。Wasserstein距離可以被認(rèn)為是將一個(gè)分布轉(zhuǎn)換為另一個(gè)分布所需的最小“成本”,其中“成本”被定義為將概率質(zhì)量從一個(gè)位置移動(dòng)到另一個(gè)位置所需的“工作量”。

Wasserstein損失的數(shù)學(xué)定義如下:

對(duì)于生成器G和鑒別器D, Wasserstein損失(Wasserstein距離)可以表示為:

Jensen-Shannon散度(JSD): Jensen-Shannon散度是一種對(duì)稱度量,用于量化兩個(gè)概率分布之間的差異

對(duì)于概率分布P和Q, JSD定義如下:

JSD(P∥Q)=1/2(KL(P∥M)+KL(Q∥M))

M為平均分布,KL為Kullback-Leibler散度,P∥Q為分布P與分布Q之間的JSD。

JSD總是非負(fù)的,在0和1之間有界,并且對(duì)稱(JSD(P|Q) = JSD(Q|P))。它可以被解釋為KL散度的“平滑”版本。

Kullback-Leibler散度(KL散度):Kullback-Leibler散度,通常被稱為KL散度或相對(duì)熵,通過量化“額外信息”來測(cè)量?jī)蓚€(gè)概率分布之間的差異,這些“額外信息”需要使用另一個(gè)分布作為參考來編碼一個(gè)分布。

對(duì)于兩個(gè)概率分布P和Q,從Q到P的KL散度定義為:KL(P∥Q)=∑x P(x)log(Q(x)/P(x))。KL散度是非負(fù)非對(duì)稱的,即KL(P∥Q)≠KL(Q∥P)。當(dāng)且僅當(dāng)P和Q相等時(shí)它為零。KL散度是無界的,可以用來衡量分布之間的不相似性。

1-Lipschitz Contiunity

1- lipschitz函數(shù)是斜率的絕對(duì)值以1為界的函數(shù)。這意味著對(duì)于任意兩個(gè)輸入x和y,函數(shù)輸出之間的差不超過輸入之間的差。

數(shù)學(xué)上函數(shù)f是1-Lipschitz,如果對(duì)于f定義域內(nèi)的所有x和y,以下不等式成立:

|f(x) — f(y)| <= |x — y|

在生成對(duì)抗網(wǎng)絡(luò)(GANs)中強(qiáng)制Lipschitz連續(xù)性是一種用于穩(wěn)定訓(xùn)練和防止與傳統(tǒng)GANs相關(guān)的一些問題的技術(shù),例如模式崩潰和訓(xùn)練不穩(wěn)定。在GAN中實(shí)現(xiàn)Lipschitz連續(xù)性的主要方法是通過使用Lipschitz約束或正則化,一種常用的方法是Wasserstein GAN (WGAN)。

在標(biāo)準(zhǔn)gan中,鑒別器(也稱為WGAN中的批評(píng)家)被訓(xùn)練來區(qū)分真實(shí)和虛假數(shù)據(jù)。為了加強(qiáng)Lipschitz連續(xù)性,WGAN增加了一個(gè)約束,即鑒別器函數(shù)應(yīng)該是Lipschitz連續(xù)的,這意味著函數(shù)的梯度不應(yīng)該增長(zhǎng)得太大。在數(shù)學(xué)上,它被限制為:

∥∣D(x)?D(y)∣≤K?∥x?y

其中D(x)是評(píng)論家對(duì)數(shù)據(jù)點(diǎn)x的輸出,D(y)是y的輸出,K是Lipschitz 常數(shù)。

WGAN的權(quán)重裁剪:在原始的WGAN中,通過在每個(gè)訓(xùn)練步驟后將鑒別器網(wǎng)絡(luò)的權(quán)重裁剪到一個(gè)小范圍(例如,[-0.01,0.01])來強(qiáng)制執(zhí)行該約束。權(quán)重裁剪確保了鑒別器的梯度保持在一定范圍內(nèi),并加強(qiáng)了利普希茨連續(xù)性。

WGAN的梯度懲罰: WGAN的一種變體,稱為WGAN-GP,它使用梯度懲罰而不是權(quán)值裁剪來強(qiáng)制Lipschitz約束。WGAN-GP基于鑒別器的輸出相對(duì)于真實(shí)和虛假數(shù)據(jù)之間的隨機(jī)點(diǎn)的梯度,在損失函數(shù)中添加了一個(gè)懲罰項(xiàng)。這種懲罰鼓勵(lì)了Lipschitz約束,而不需要權(quán)重裁剪。

譜范數(shù)

從符號(hào)上看矩陣

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3900

    瀏覽量

    141353
  • 生成器
    +關(guān)注

    關(guān)注

    7

    文章

    322

    瀏覽量

    22496
  • 頻譜儀
    +關(guān)注

    關(guān)注

    7

    文章

    371

    瀏覽量

    37409
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    812

    瀏覽量

    14665
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    電能質(zhì)量在線監(jiān)測(cè)裝置遠(yuǎn)程能看實(shí)時(shí)頻譜圖嗎?

    是的,現(xiàn)代電能質(zhì)量在線監(jiān)測(cè)裝置 普遍支持遠(yuǎn)程實(shí)時(shí)查看頻譜圖 ,其核心實(shí)現(xiàn)路徑包括 前端實(shí)時(shí)分析 + 網(wǎng)絡(luò)傳輸 + 云端 / 本地平臺(tái)可視化 。以下是技術(shù)細(xì)節(jié)與典型應(yīng)用場(chǎng)景的解析: 、
    的頭像 發(fā)表于 11-05 15:12 ?194次閱讀

    Alif Semiconductor的Ensemble MCU新增對(duì)ExecuTorch Runtime的支持,助力其推動(dòng)邊緣生成式AI發(fā)展

    ·?Ensemble E4/E6/E8是業(yè)界首個(gè)為Transformer網(wǎng)絡(luò)提供硬件加速的MCU系列,可在邊緣設(shè)備及終端設(shè)備上實(shí)現(xiàn)本地生成式AI推理 ·?Alif與Arm合作,在PyTorch
    的頭像 發(fā)表于 11-04 11:44 ?1176次閱讀
    Alif Semiconductor的Ensemble MCU新增對(duì)ExecuTorch Runtime的支持,助力其推動(dòng)邊緣<b class='flag-5'>生成</b>式AI發(fā)展

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的般化建議

    的尺寸不宜過大,3*3或者1*1等小尺寸的卷積核(濾波器)對(duì)于實(shí)現(xiàn)輕量級(jí)模型是十分必要的。 3)添加歸一化層和驗(yàn)證檢查點(diǎn):歸一化層可以調(diào)整模型的概率分布得到標(biāo)準(zhǔn)化分布,從而提升迭代和梯度流效果
    發(fā)表于 10-28 08:02

    如何通過地址生成實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)特征圖的padding?

    ,從而使卷積輸出特征圖結(jié)果滿足我們的需求,這種補(bǔ)零的操作稱之為padding,如下圖所示。 關(guān)于padding的實(shí)現(xiàn),般有兩種操作,第種是使用稀疏地址生成器,尋找padding數(shù)
    發(fā)表于 10-22 08:15

    硅無光束肖特基二極管 - 成對(duì)和四成對(duì) skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()硅無光束肖特基二極管 - 成對(duì)和四成對(duì)相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有硅無光束肖特基二極管 - 成對(duì)和四成對(duì)的引腳圖、接線圖、封裝手冊(cè)、中文資料、英文資料,硅無光束
    發(fā)表于 07-14 18:33
    硅無光束肖特基二極管 - <b class='flag-5'>成對(duì)</b>和四<b class='flag-5'>成對(duì)</b> skyworksinc

    基于RV1126開發(fā)板網(wǎng)絡(luò)配置方法

    描述網(wǎng)卡的工作方式,然后Netplan工具就會(huì)根據(jù)yaml文件中的描述去自動(dòng)生成對(duì)應(yīng)的網(wǎng)絡(luò)配置。 ? ? ? ?網(wǎng)絡(luò)管理工具[NetworkManager]或者[Systemd-network]就會(huì)根據(jù)
    的頭像 發(fā)表于 04-15 14:57 ?695次閱讀
    基于RV1126開發(fā)板<b class='flag-5'>網(wǎng)絡(luò)</b>配置方法

    歸一化在電機(jī)控制中究竟有什么用?(可下載)

    大家好,今天我們來了解歸一化在電機(jī)控制中的作用,那么首先我們需要先了解下歸 化的概念,這樣才能更好的了解電機(jī)控制中為什么會(huì)經(jīng)常用到歸一化
    發(fā)表于 02-28 14:14 ?0次下載

    掃頻式頻譜分析儀的技術(shù)原理和應(yīng)用場(chǎng)景

    掃頻式頻譜分析儀的技術(shù)原理 掃頻式頻譜分析儀(SSA)是種具有顯示裝置的掃頻超外差接收機(jī),它使用調(diào)諧元件沿所需的頻率范圍進(jìn)行掃描,將時(shí)域輸入信號(hào)轉(zhuǎn)換為頻域信號(hào)。其工作原理可以歸納為以下幾點(diǎn)
    發(fā)表于 02-14 14:16

    操作指南:pytorch云服務(wù)器怎么設(shè)置?

    GPU加速和并行計(jì)算優(yōu)化。完成后,定期監(jiān)測(cè)資源使用情況以優(yōu)化配置。設(shè)置PyTorch云服務(wù)器需要系列步驟,以下是UU云小編整理的操作指南:
    的頭像 發(fā)表于 02-08 10:33 ?596次閱讀

    #新年新氣象,大家新年快樂!#AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動(dòng)生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語言處理(NLP)、計(jì)算機(jī)視覺、生成對(duì)抗
    發(fā)表于 01-13 10:46

    AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動(dòng)生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語言處理(NLP)、計(jì)算機(jī)視覺、生成對(duì)抗
    發(fā)表于 01-13 10:32

    利用Arm Kleidi技術(shù)實(shí)現(xiàn)PyTorch優(yōu)化

    PyTorch個(gè)廣泛應(yīng)用的開源機(jī)器學(xué)習(xí) (ML) 庫(kù)。近年來,Arm 與合作伙伴通力協(xié)作,持續(xù)改進(jìn) PyTorch 的推理性能。本文將詳細(xì)介紹如何利用 Arm Kleidi 技術(shù)提升 Arm
    的頭像 發(fā)表于 12-23 09:19 ?1600次閱讀
    利用Arm Kleidi技術(shù)<b class='flag-5'>實(shí)現(xiàn)</b><b class='flag-5'>PyTorch</b>優(yōu)化

    安捷倫Agilent 4396B RF網(wǎng)絡(luò)頻譜、阻抗分析儀

    4396B是臺(tái)實(shí)現(xiàn)高性能網(wǎng)絡(luò)分析儀、頻譜分析儀和阻抗分析儀的功能的儀器。 4396B為實(shí)驗(yàn)室和生產(chǎn)應(yīng)用提供優(yōu)異的RF矢量網(wǎng)絡(luò)、
    的頭像 發(fā)表于 12-04 15:46 ?1031次閱讀

    Arm KleidiAI助力提升PyTorch上LLM推理性能

    生成式人工智能 (AI) 正在科技領(lǐng)域發(fā)揮關(guān)鍵作用,許多企業(yè)已經(jīng)開始將大語言模型 (LLM) 集成到云端和邊緣側(cè)的應(yīng)用中。生成式 AI 的引入也使得許多框架和庫(kù)得以發(fā)展。其中,PyTorch 作為
    的頭像 發(fā)表于 12-03 17:05 ?1921次閱讀
    Arm KleidiAI助力提升<b class='flag-5'>PyTorch</b>上LLM推理性能

    PyTorch 2.5.1: Bugs修復(fù)版發(fā)布

    ? ,前言 在深度學(xué)習(xí)框架的不斷迭代中,PyTorch 社區(qū)始終致力于提供更穩(wěn)定、更高效的工具。最近,PyTorch 2.5.1 版本正式發(fā)布,這個(gè)版本主要針對(duì) 2.5.0 中發(fā)現(xiàn)的問題進(jìn)行了修復(fù)
    的頭像 發(fā)表于 12-03 16:11 ?1947次閱讀
    <b class='flag-5'>PyTorch</b> 2.5.1: Bugs修復(fù)版發(fā)布