chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

有助于數(shù)據(jù)集增強(qiáng)的GAN體系結(jié)構(gòu),包括樣本增強(qiáng)和特征增強(qiáng)

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:龔婷 ? 2018-03-20 17:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)迅猛地占領(lǐng)了機(jī)器學(xué)習(xí)社區(qū)。優(yōu)雅的理論基礎(chǔ)和在計(jì)算機(jī)視覺(jué)領(lǐng)域不斷提升的優(yōu)越表現(xiàn)使其成為近年來(lái)機(jī)器學(xué)習(xí)最活躍的研究課題之一。事實(shí)上,F(xiàn)acebook AI Research的領(lǐng)導(dǎo)人Yann Lecun在2016年說(shuō)過(guò),“在我看來(lái),GAN及其新提出的變體是機(jī)器學(xué)習(xí)在過(guò)去10年最有意思的想法?!毕胍私膺@一課題的最新進(jìn)展,請(qǐng)參閱這篇The GAN Zoo(GAN動(dòng)物園)。

盡管GAN已被證明是很出色的圖像生成模型,例如生成面部圖像和臥室圖像,GAN尚未在其他數(shù)據(jù)集上進(jìn)行過(guò)廣泛測(cè)試,例如由工廠提供的數(shù)據(jù)集,其中包含大量來(lái)自生產(chǎn)線上的傳感器的測(cè)量值。不同于諸如圖片之類的靜態(tài)數(shù)據(jù),這樣的數(shù)據(jù)集甚至可能包括時(shí)序信息,機(jī)器學(xué)習(xí)模型需要利用這些時(shí)序信息預(yù)測(cè)未來(lái)的事件。在這類數(shù)據(jù)上應(yīng)用生成模型可能很有用,例如,如果我們的預(yù)測(cè)模型需要更多樣本進(jìn)行訓(xùn)練以提升其概括性。另外,如果我們提出一個(gè)可以生成優(yōu)質(zhì)合成數(shù)據(jù)的模型,那么這個(gè)模型必定學(xué)習(xí)到了原始數(shù)據(jù)的潛在結(jié)構(gòu)。既然模型學(xué)習(xí)到了潛在結(jié)構(gòu),預(yù)測(cè)模型就可以將該表示作為新特征集來(lái)利用!

本文將介紹一些可能有助于數(shù)據(jù)集增強(qiáng)的GAN體系結(jié)構(gòu),包括樣本增強(qiáng)和特征增強(qiáng)。讓我們從基本的GAN開(kāi)始。

生成對(duì)抗網(wǎng)絡(luò)

GAN模型由兩部分組成:生成器(generator)和判別器(discriminator)。這里我們認(rèn)為它們都是由參數(shù)確定的神經(jīng)網(wǎng)絡(luò):G和D。判別網(wǎng)絡(luò)的參數(shù)為最大化正確區(qū)分真實(shí)數(shù)據(jù)和偽造數(shù)據(jù)(生成網(wǎng)絡(luò)偽造的數(shù)據(jù))的概率這一目標(biāo)而優(yōu)化,而生成網(wǎng)絡(luò)的目標(biāo)是最大化判別網(wǎng)絡(luò)不能識(shí)別其偽造的樣本的概率。

生成網(wǎng)絡(luò)如此產(chǎn)生樣本:接受一個(gè)輸入向量z,該向量取樣自一個(gè)潛分布(latent distribution),應(yīng)用由網(wǎng)絡(luò)定義的函數(shù)G至該向量,得到G(z)。判別網(wǎng)絡(luò)交替接受G(z)和x(一個(gè)真實(shí)數(shù)據(jù)樣本),輸出輸入為真的概率。

通過(guò)適當(dāng)?shù)某瑓?shù)調(diào)優(yōu)和足夠的訓(xùn)練迭代次數(shù),生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)將一起收斂(通過(guò)梯度下降方法進(jìn)行參數(shù)更新)至描述偽造數(shù)據(jù)的分布和取樣真實(shí)數(shù)據(jù)的分布相一致的點(diǎn)。

本文接下來(lái)的部分將通過(guò)基于MNIST數(shù)據(jù)集生成新數(shù)字或編碼原始數(shù)字至潛空間來(lái)演示GAN是如何工作的。我們也會(huì)看下如何將GAN應(yīng)用到類別數(shù)據(jù)和時(shí)序數(shù)據(jù)上。

作為開(kāi)始,下面是一個(gè)在MNIST數(shù)據(jù)集上訓(xùn)練的、基于多層感知器(MLP)的簡(jiǎn)單GAN模型生成的一些樣本。

圖二:生成新數(shù)字

GAN并非盡善盡美

盡管GAN能如我們所見(jiàn)的那樣工作,在實(shí)踐中,GAN有一些缺點(diǎn),自Ian Goodfellow等在2014年發(fā)表GAN的原始論文起,如何克服GAN的缺點(diǎn)一直是研究的熱點(diǎn)。GAN的主要缺點(diǎn)涉及它的訓(xùn)練,GAN因極難訓(xùn)練而聲名狼藉:首先,GAN的訓(xùn)練高度依賴超參數(shù)。其次,也是最重要的,(生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)的)損失函數(shù)不提供必要的信息:盡管生成的樣本可能已經(jīng)開(kāi)始貼切地重現(xiàn)真實(shí)數(shù)據(jù)——顯著逼近真實(shí)數(shù)據(jù)的分布——一般而言無(wú)法通過(guò)損失的趨勢(shì)來(lái)指示這一表現(xiàn)。這意味著我們不能基于損失運(yùn)行skopt之類的超參數(shù)優(yōu)化器,相反必須手工迭代調(diào)優(yōu),真是可恥。

GAN架構(gòu)的另一個(gè)缺點(diǎn)和它的功能有關(guān)。使用圖一顯示的基于原始的交叉熵?fù)p失的GAN,我們無(wú)法:

控制生成什么數(shù)據(jù)。

生成類別數(shù)據(jù)。

訪問(wèn)潛空間以便將其作為特征使用。

生成類別數(shù)據(jù)對(duì)GAN而言是一個(gè)特大難題。Ian Goodfellow在這個(gè)reddit帖子中以非常直觀的方式解釋了這一點(diǎn):

僅當(dāng)合成數(shù)據(jù)基于連續(xù)數(shù)值時(shí),你才能對(duì)合成數(shù)據(jù)作出微小的改動(dòng)?;陔x散數(shù)值無(wú)法作出微小的改動(dòng)。

例如,如果你輸出的圖像的像素值為1.0,你可以在下一步將該像素值改為1.0001.

如果你輸出單詞“企鵝”,你無(wú)法在下一步將其修改為“企鵝 + .001”,因?yàn)椴⒉淮嬖凇捌簌Z + .001”這樣的單詞。你需要經(jīng)歷從“企鵝”到“鴕鳥(niǎo)”的整個(gè)過(guò)程。

關(guān)鍵的想法是,生成網(wǎng)絡(luò)不可能從一個(gè)實(shí)體(如“企鵝”)一路前進(jìn)到另一個(gè)實(shí)體(如“鴕鳥(niǎo)”)。因?yàn)閮烧咧g的空間出現(xiàn)實(shí)體的概率為0,判別網(wǎng)絡(luò)可以輕易地識(shí)別出該空間內(nèi)的樣本是不真實(shí)的,因而它不可能被生成網(wǎng)絡(luò)所愚弄。

GAN變體

為了解決原始GAN的問(wèn)題,研發(fā)了一些其他的訓(xùn)練方式和架構(gòu)。下面將加以簡(jiǎn)要介紹。這些介紹的目標(biāo)是讓你對(duì)如何應(yīng)用這些方法至結(jié)構(gòu)化數(shù)據(jù)(比如Kaggle競(jìng)賽中的數(shù)據(jù))有所了解。

條件GAN

前面提到的GAN能生成看起來(lái)像MNIST數(shù)據(jù)集中的隨機(jī)數(shù)字。但是如果我們想生成特定數(shù)字呢?只需在訓(xùn)練過(guò)程中做出一個(gè)小小的改動(dòng),我們就能告訴生成網(wǎng)絡(luò)生成我們所要求的數(shù)字。在每次迭代中,生成網(wǎng)絡(luò)的輸入不僅包括z,還包括指明數(shù)字的one-hot編碼向量。同樣,判別網(wǎng)絡(luò)的輸入不僅包括真實(shí)樣本或偽造樣本,還包括同樣的標(biāo)簽向量。

圖三:條件GAN

基于與前述GAN相同的流程,但是加上了這一輸出上的微小改動(dòng),條件GAN(CGAN)學(xué)習(xí)生成以輸入的標(biāo)簽為條件的樣本。

讓我們?yōu)槊總€(gè)數(shù)字生成一個(gè)樣本!在潛空間取樣時(shí),我們同時(shí)輸入一個(gè)one-hot編碼的向量指明我們所需的分類。對(duì)所有10個(gè)分類中的數(shù)字進(jìn)行這一過(guò)程,得到圖四的結(jié)果:

圖四:根據(jù)條件生成的數(shù)字樣本

Wasserstein GAN

Wasserstein GAN(WGAN)是最流行的GAN之一,它改變了目標(biāo),從而提高了訓(xùn)練穩(wěn)定性和可解釋性(損失和樣本質(zhì)量的相關(guān)性),同時(shí)能夠生成類別數(shù)據(jù)。關(guān)鍵點(diǎn)在于,生成網(wǎng)絡(luò)的目標(biāo)是逼近真實(shí)數(shù)據(jù)分布,因此衡量分布間的距離的指標(biāo)很重要,因?yàn)樵撝笜?biāo)將是最小化的目標(biāo)。WGAN選擇了Wasserstein距離。Wasserstein距離也稱為推土機(jī)(Earth-Mover)距離。另外,WGAN實(shí)際上采用的是Wasserstein距離的近似。WGAN選擇Wasserstein距離是因?yàn)閃asserstein距離能在Kullback-Leibler散度和Jensen-Shannon散度無(wú)法收斂的分布上收斂。如果你對(duì)理論感興趣,可以看下原始論文或這篇出色總結(jié)Read-through: Wasserstein GAN。

在實(shí)現(xiàn)層面,總結(jié)一下逼近Wasserstein距離意味著什么:

判別器的輸出不再是概率了,這也是將判別器改名為批評(píng)者(critic)的動(dòng)機(jī)。

判別器的參數(shù)截?cái)嘀聊硞€(gè)閾值(或者進(jìn)行梯度懲罰)。

在每個(gè)訓(xùn)練迭代中,判別器的參數(shù)比生成器的參數(shù)更新更頻繁。

用于類別數(shù)據(jù)的Wasserstein GAN

WGAN論文的作者展示了通過(guò)這種方式訓(xùn)練的GAN顯示了訓(xùn)練上的穩(wěn)定性和可解釋性,但之后有研究證明,Wasserstein距離的使用賦予了GAN生成類別(categorical)數(shù)據(jù)的能力(即,并非圖像之類的連續(xù)值數(shù)據(jù),甚至不是像用1表示周日、用2表示周一這樣的整型編碼數(shù)據(jù))。當(dāng)在這類數(shù)據(jù)上訓(xùn)練原始的GAN時(shí),判別網(wǎng)絡(luò)的損失會(huì)在多次迭代中保持較低的水平,而生成網(wǎng)絡(luò)的損失會(huì)不停增長(zhǎng)。而WGAN在類別數(shù)據(jù)上訓(xùn)練的方式和在連續(xù)值數(shù)據(jù)一樣。

我們只需如此做(圖五是一個(gè)例子):數(shù)據(jù)集中的每個(gè)類別變量都對(duì)應(yīng)一個(gè)生成網(wǎng)絡(luò)的softmax輸出,該輸出的維度和可能的離散值數(shù)目相等。判別網(wǎng)絡(luò)并不接受one-hot編碼的softmax輸出作為輸入,相反,將原始的softmax輸出當(dāng)做一組連續(xù)值變量,傳給判別網(wǎng)絡(luò)作為輸入。這樣訓(xùn)練就能收斂!在測(cè)試時(shí),只需one-hot編碼生成網(wǎng)絡(luò)的離散輸出即可生成偽造的類別數(shù)據(jù)。

圖五:混合類別變量和連續(xù)變量的生成器的例子

上圖中的類別變量1為3個(gè)可能值中的1個(gè),類別變量2為2個(gè)可能值中的1個(gè)。此外還有1個(gè)連續(xù)變量。

圖六展示了一個(gè)在類別值的數(shù)據(jù)集上訓(xùn)練基于梯度懲罰的WGAN的例子,你可以在圖中看到穩(wěn)定的、收斂的損失函數(shù)的美麗曲線。這一個(gè)例子是在Kaggle競(jìng)賽中的Sberbank Russian Housing Market數(shù)據(jù)集(俄羅斯聯(lián)邦儲(chǔ)蓄銀行的房產(chǎn)市場(chǎng)數(shù)據(jù)集)上訓(xùn)練的,該數(shù)據(jù)集同時(shí)包含連續(xù)變量和類別變量。

圖六:在俄羅斯聯(lián)邦儲(chǔ)蓄銀行的房產(chǎn)市場(chǎng)數(shù)據(jù)集上訓(xùn)練的WGAN-GP

當(dāng)然,你也可以組合WGAN和CGAN,以監(jiān)督學(xué)習(xí)的方式訓(xùn)練WGAN,以生成以分類標(biāo)簽為條件的樣本!

注意:Cramer GAN進(jìn)一步改進(jìn)了Wasserstein GAN,其目標(biāo)是提供質(zhì)量更優(yōu)的樣本,同時(shí)提高訓(xùn)練穩(wěn)定性。是否能用它生成類別數(shù)據(jù)是以后的研究課題。

雙向GAN

盡管WGAN看上去解決了很多問(wèn)題,但它不允許訪問(wèn)數(shù)據(jù)的潛空間表示。尋找這樣的表示可能很有幫助,不僅是因?yàn)榭梢酝ㄟ^(guò)在潛空間的連續(xù)移動(dòng)控制生成什么樣的數(shù)據(jù),還因?yàn)榭梢酝ㄟ^(guò)潛空間提取特征。

圖七:雙向GAN

雙向GAN(Bidirectional GAN,BiGAN)是解決這一問(wèn)題的一個(gè)嘗試。它如此工作:不僅學(xué)習(xí)一個(gè)生成式網(wǎng)絡(luò),同時(shí)學(xué)習(xí)一個(gè)編碼網(wǎng)絡(luò)E,該編碼網(wǎng)絡(luò)映射數(shù)據(jù)至生成網(wǎng)絡(luò)的潛空間。對(duì)抗配置中,使用一個(gè)判別網(wǎng)絡(luò)應(yīng)對(duì)生成任務(wù)和編碼任務(wù)。BiGAN的作者展示了,在這一限制下,G和E這一對(duì)網(wǎng)絡(luò)形成了一個(gè)自動(dòng)編碼器(autoencoder):通過(guò)E編碼數(shù)據(jù)樣本,再通過(guò)G解碼,可以得到原始樣本。

InfoGAN

之前我們看到,CGAN允許調(diào)節(jié)生成網(wǎng)絡(luò)以根據(jù)標(biāo)簽生成樣本。不過(guò),是否可以通過(guò)在GAN的潛空間中強(qiáng)制一個(gè)類別化的結(jié)構(gòu),以完全無(wú)監(jiān)督的方式學(xué)習(xí)辨別數(shù)字呢?可不可以設(shè)置一個(gè)連續(xù)的代碼空間,讓我們可以訪問(wèn)這一空間以描述數(shù)據(jù)樣本的連續(xù)語(yǔ)義變體呢?(在MNIST的例子中,連續(xù)語(yǔ)義變體可能是數(shù)字的寬度和斜度。)

上述兩個(gè)問(wèn)題的答案都是可以。比那更好的是:我們可以同時(shí)做到這兩點(diǎn)。真相是,我們可以施加任何我們發(fā)現(xiàn)有用的代碼空間分布,然后訓(xùn)練GAN編碼這些分布中有意義的特性。每份代碼將學(xué)習(xí)包含數(shù)據(jù)的不同語(yǔ)義特性,結(jié)果等效于信息退相干(information disentanglement)。

圖八:InfoGAN

允許我們這么干的GAN是InfoGAN。簡(jiǎn)單來(lái)說(shuō),InfoGAN試圖最大化生成網(wǎng)絡(luò)代碼空間和推斷網(wǎng)絡(luò)輸出的共同信息。推斷網(wǎng)絡(luò)可以簡(jiǎn)單配置為判別網(wǎng)絡(luò)的一個(gè)輸出層,共享其他參數(shù),意味著它是算力免費(fèi)(computationally free)的。一旦訓(xùn)練完成,InfoGAN的判別網(wǎng)絡(luò)的推斷輸出層可以用來(lái)提取特征,或者,如果代碼空間包含標(biāo)簽信息,可以用來(lái)分類!

創(chuàng)建一個(gè)配有兩個(gè)代碼空間的InfoGAN——一個(gè)連續(xù)的二維空間和一個(gè)離散的十維空間——我們能夠以離散代碼為條件生成特定的數(shù)字,同時(shí)以連續(xù)代碼為條件生成特定風(fēng)格的數(shù)字,生成如圖九所示的數(shù)據(jù)。注意,在整個(gè)無(wú)監(jiān)督學(xué)習(xí)計(jì)劃中,沒(méi)有標(biāo)簽的位置——在潛空間中施加一個(gè)類別分布足以讓模型學(xué)習(xí)編碼該分布的標(biāo)簽信息!

圖九:固定生成網(wǎng)絡(luò)的離散代碼輸入,同時(shí)使用不同的連續(xù)代碼輸入

對(duì)抗自動(dòng)編碼器

圖十:對(duì)抗自動(dòng)編碼器

對(duì)抗自動(dòng)編碼器(Adversarial Autoencoder,AAE)結(jié)合了自動(dòng)編碼器和GAN。這一模型優(yōu)化兩個(gè)目標(biāo):其一,最小化通過(guò)編碼網(wǎng)絡(luò)P和解碼網(wǎng)絡(luò)Q的數(shù)據(jù)x的重建錯(cuò)誤。其二,通過(guò)對(duì)抗訓(xùn)練在代碼P(x)上施加一個(gè)先驗(yàn)分布,在對(duì)抗訓(xùn)練中,P為生成網(wǎng)絡(luò)。所以,優(yōu)化P和Q以最小化x和Q(z)的距離,其中z是自動(dòng)編碼器的代碼空間向量,同時(shí)優(yōu)化作為GAN的P和D,以迫使代碼空間P(x)匹配預(yù)先定義的結(jié)構(gòu)。這可以看成對(duì)自動(dòng)編碼器的正則化,迫使它學(xué)習(xí)有意義、結(jié)構(gòu)化、內(nèi)聚的代碼空間(而不是斷裂的代碼空間,參考Geoffrey Hinton講座筆記第76頁(yè)),以允許進(jìn)行有效的特征提取和降維。同時(shí),由于在代碼上施加了一個(gè)已知先驗(yàn)分布,從該先驗(yàn)分布取樣,并將樣本傳給解碼網(wǎng)絡(luò)Q,形成了一個(gè)生成式建模計(jì)劃!

讓我們?cè)谧詣?dòng)編碼器的對(duì)抗訓(xùn)練中,在代碼空間上施加一個(gè)標(biāo)準(zhǔn)差為5的二維高斯分布。取樣該空間的相鄰點(diǎn),得到一些生成數(shù)字的連續(xù)變體集。

左:在二維代碼空間中驗(yàn)證數(shù)據(jù)。右:從代碼空間的相鄰點(diǎn)中取樣,解碼樣本以生成數(shù)字

我們還可以基于標(biāo)簽訓(xùn)練AAE,以強(qiáng)制標(biāo)簽和數(shù)字風(fēng)格信息的退相干。這樣,通過(guò)固定想要的標(biāo)簽,施加的連續(xù)潛空間中的變體將導(dǎo)致不同風(fēng)格的同一數(shù)字。以數(shù)字八為例:

圖十二:固定標(biāo)簽,從潛AAE空間的相鄰點(diǎn)中取樣

很明顯,相鄰點(diǎn)間存在有意義的關(guān)系!為我們的數(shù)據(jù)集增強(qiáng)問(wèn)題生成樣本時(shí),這一性質(zhì)可能會(huì)提供便利。

時(shí)序數(shù)據(jù)?

現(xiàn)實(shí)世界的結(jié)構(gòu)化數(shù)據(jù)常常包含時(shí)序。在這樣的數(shù)據(jù)中,每個(gè)樣本和之前的樣本間存在某種依賴關(guān)系。經(jīng)常選擇基于循環(huán)神經(jīng)網(wǎng)絡(luò)的模型來(lái)處理這種數(shù)據(jù),原因是它們具備建模這種數(shù)據(jù)的內(nèi)在能力。在我們的GAN模型中利用這些神經(jīng)網(wǎng)絡(luò),在原則上可以產(chǎn)生更高質(zhì)量的樣本和特征!

循環(huán)GAN

讓我們將之前的GAN中的MLP替換為RNN,就像這篇論文所做的那樣。具體而言,我們將采用RNN的變體長(zhǎng)短時(shí)記憶(LSTM)單元(事實(shí)上我們?cè)谡務(wù)撋疃葘W(xué)習(xí)最最時(shí)髦的行話——哎喲,我又這么干了),在波形(Waves)數(shù)據(jù)集上進(jìn)行訓(xùn)練。這一數(shù)據(jù)集包含偏移、頻率、振幅不同的一維正弦信號(hào)和鋸齒信號(hào),所有信號(hào)的時(shí)步相同。從RNN的視角來(lái)看,每個(gè)樣本包含一個(gè)30時(shí)步的波形。

我們的CGAN的生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)都將采用基于LSTM的神經(jīng)網(wǎng)絡(luò),將其轉(zhuǎn)化為一個(gè)RCGAN。我們將訓(xùn)練該RCGAN學(xué)習(xí)按需生成正弦、鋸齒波形。

圖十三:左:生成的正弦波形;右:生成的鋸齒波形

訓(xùn)練之后,我們也將查看潛空間中的變體是如何產(chǎn)生生成樣本特性體現(xiàn)的連續(xù)變化的。具體而言,如果我們施加一個(gè)二維正態(tài)分布潛空間,并將分類標(biāo)簽固定為正弦波形,我們將得到圖十四中顯示的樣本。其中,我們能很明顯地看到頻率和振幅由低到高的連續(xù)變化,這意味著RCGAN學(xué)習(xí)到了一個(gè)有意義的潛空間!

圖十四:固定標(biāo)簽,從潛RCGAN空間的相鄰點(diǎn)中取樣

盡管在GAN中使用RNN對(duì)生成實(shí)值的序列化數(shù)據(jù)很有用,它仍然無(wú)法用于離散序列,是否可以配合RNN使用Wasserstein距離尚不清楚(在RNN上施加Lipschitz限制是以后的研究課題)。SeqGAN和最近的ARAE的目標(biāo)是解決這一問(wèn)題。

結(jié)論

我們看到,在因?yàn)镚AN具有生成非??岬膱D像的能力而生成的那些大驚小怪的報(bào)道(看過(guò)沒(méi)有?)之外,一些架構(gòu)也可能有助于處理更一般的機(jī)器學(xué)習(xí)問(wèn)題,包括連續(xù)和離散的數(shù)據(jù)。本文的目的是介紹這一想法,并不打算嚴(yán)格地比較這些多用途生成式模型,不過(guò)本文確實(shí)證明了應(yīng)該進(jìn)行這樣的涉及GAN的研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4832

    瀏覽量

    107376
  • 生成器
    +關(guān)注

    關(guān)注

    7

    文章

    322

    瀏覽量

    22616
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26130

原文標(biāo)題:一文概覽用于數(shù)據(jù)集增強(qiáng)的對(duì)抗生成網(wǎng)絡(luò)架構(gòu)

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    操作系統(tǒng)體系結(jié)構(gòu)

    問(wèn)題是性能問(wèn)題,因?yàn)樾枰l繁地在核心態(tài)和用戶態(tài)之間進(jìn)行切換,操作系統(tǒng)的執(zhí)行開(kāi)銷偏大。因此有的操作系統(tǒng)將那些頻繁使用的系統(tǒng)服務(wù)又移回內(nèi)核,從而保證系統(tǒng)性能。但是有相當(dāng)多的實(shí)驗(yàn)數(shù)據(jù)表明,體系結(jié)構(gòu)不是引起性能下降
    發(fā)表于 01-15 08:19

    常見(jiàn)增強(qiáng)拉曼光譜信號(hào)的技術(shù)詳解

    RRS的能級(jí)過(guò)程,分子被入射光激發(fā)到電子激發(fā)態(tài) 拉曼信號(hào)十分的微弱。為了讓拉曼技術(shù)更加方便易用,許多研究者致力于研究如何增強(qiáng)拉曼信號(hào)。拉曼信號(hào)增強(qiáng)主要是通過(guò)改變樣本制備方式,更改激發(fā)方式來(lái)實(shí)現(xiàn)
    的頭像 發(fā)表于 11-10 09:18 ?617次閱讀
    常見(jiàn)<b class='flag-5'>增強(qiáng)</b>拉曼光譜信號(hào)的技術(shù)詳解

    創(chuàng)北方推出首款移動(dòng)終端AI畫(huà)質(zhì)增強(qiáng)獨(dú)顯芯片

    創(chuàng)北方隆重推出首款12納米AI-PQ畫(huà)質(zhì)增強(qiáng)獨(dú)顯芯片。該芯片聚焦移動(dòng)終端用戶對(duì)高畫(huà)質(zhì)、高幀率、低功耗的核心訴求,融合了創(chuàng)北方在多媒體AI處理、畫(huà)質(zhì)提升、低功耗芯片設(shè)計(jì)領(lǐng)域的核心技術(shù)。
    的頭像 發(fā)表于 10-23 11:32 ?585次閱讀

    基于FPGA的CLAHE圖像增強(qiáng)算法設(shè)計(jì)

    CLAHE圖像增強(qiáng)算法又稱為對(duì)比度有限的自適應(yīng)直方圖均衡算法,其算法原理是通過(guò)有限的調(diào)整圖像局部對(duì)比度來(lái)增強(qiáng)有效信號(hào)和抑制噪聲信號(hào)。
    的頭像 發(fā)表于 10-15 10:14 ?568次閱讀
    基于FPGA的CLAHE圖像<b class='flag-5'>增強(qiáng)</b>算法設(shè)計(jì)

    Photonis 科學(xué)圖像增強(qiáng)器介紹

    對(duì)于尋求先進(jìn)圖像增強(qiáng)技術(shù)的增強(qiáng)相機(jī)制造商,Photonis 提供具有無(wú)與倫比規(guī)格的科學(xué)級(jí)圖像增強(qiáng)管。其中包括市場(chǎng)領(lǐng)先的信噪比 (SNR)、卓越的極限分辨率和亞納秒級(jí)門控技術(shù)。 這些科學(xué)
    的頭像 發(fā)表于 09-19 09:20 ?324次閱讀
    Photonis 科學(xué)圖像<b class='flag-5'>增強(qiáng)</b>器介紹

    增強(qiáng)T-BOX設(shè)計(jì),新唐編解碼器的重要作用

    碼率解碼器,提供單通道和雙通道選項(xiàng)。這些器件具有高精度 24 位立體聲 ADC 和 DAC 功能,并集成了多種附加功能以簡(jiǎn)化音頻系統(tǒng)設(shè)計(jì)解決方案。采用標(biāo)準(zhǔn) QFN32 (5*5mm) 格式封裝,有助于
    發(fā)表于 09-05 06:26

    電壓放大器驅(qū)動(dòng)合成射流的渦結(jié)構(gòu)演化與摻混增強(qiáng)機(jī)制研究

    速度的作用下向下游運(yùn)動(dòng),相互融合形成射流。合成射流已被應(yīng)用于眾多流動(dòng)控制領(lǐng)域,包括摻混增強(qiáng)、傳熱增強(qiáng)、流動(dòng)分離控制等。本實(shí)驗(yàn)通過(guò)粒子圖像測(cè)速(PIV)技術(shù)從瞬時(shí)流動(dòng)結(jié)構(gòu)演化的角度對(duì)合成
    的頭像 發(fā)表于 08-08 15:47 ?535次閱讀
    電壓放大器驅(qū)動(dòng)合成射流的渦<b class='flag-5'>結(jié)構(gòu)</b>演化與摻混<b class='flag-5'>增強(qiáng)</b>機(jī)制研究

    瑞薩電子推出全新GaN FET,增強(qiáng)高密度功率轉(zhuǎn)換能力, 適用于AI數(shù)據(jù)中心、工業(yè)及電源系統(tǒng)應(yīng)用

    基于成熟的SuperGaN技術(shù),650V第四代增強(qiáng)型產(chǎn)品 憑借卓越的熱效率和超低功率損耗帶來(lái)強(qiáng)勁性能 瑞薩電子今日宣布推出三款新型高壓650V GaN FET——TP65H030G4PRS
    的頭像 發(fā)表于 07-09 13:07 ?543次閱讀

    Microchip增強(qiáng)TrustMANAGER平臺(tái)功能

    、保護(hù)和管理加密密鑰和證書(shū)。在該平臺(tái)上增加FOTA服務(wù)有助于客戶安全地部署實(shí)時(shí)固件更新,以遠(yuǎn)程修補(bǔ)漏洞并遵守網(wǎng)絡(luò)安全法規(guī)。
    的頭像 發(fā)表于 07-01 15:16 ?1231次閱讀

    西門子推出用于EDA設(shè)計(jì)流程的AI增強(qiáng)型工具

    西門子數(shù)字化工業(yè)軟件于 2025 年設(shè)計(jì)自動(dòng)化大會(huì) (DAC 2025) 上宣布推出用于 EDA 設(shè)計(jì)流程的 AI 增強(qiáng)型工具,并在大會(huì)期間展示 AI 技術(shù)如何助力 EDA 行業(yè)提升生產(chǎn)力、加快產(chǎn)品上市速度,幫助客戶以市場(chǎng)所需的快節(jié)奏探索創(chuàng)新機(jī)遇。
    的頭像 發(fā)表于 06-30 13:50 ?3006次閱讀

    MPS新品 MPG44100 集成GaN FET的高效率、增強(qiáng)型 PFC 穩(wěn)壓器,具有峰值功率總線升壓功能

    MPS新品 MPG44100 集成GaN FET的高效率、增強(qiáng)型 PFC 穩(wěn)壓器,具有峰值功率總線升壓功能
    的頭像 發(fā)表于 06-18 18:09 ?1326次閱讀
    MPS新品 MPG44100 集成<b class='flag-5'>GaN</b> FET的高效率、<b class='flag-5'>增強(qiáng)</b>型 PFC 穩(wěn)壓器,具有峰值功率總線升壓功能

    增強(qiáng)AlN/GaN HEMT

    一種用于重?fù)诫sn型接觸的選擇性刻蝕工藝實(shí)現(xiàn)了AlN/GaN HEMT的縮小 上圖:原位SiN/AlN/GaN HEMT外延堆疊示意圖 俄亥俄州立大學(xué)的工程師們宣稱,他們已經(jīng)打開(kāi)了一扇大門,有望制備出
    的頭像 發(fā)表于 06-12 15:44 ?872次閱讀
    <b class='flag-5'>增強(qiáng)</b>AlN/<b class='flag-5'>GaN</b> HEMT

    注入增強(qiáng)型IGBT學(xué)習(xí)筆記

    為了協(xié)調(diào)IGBT通態(tài)特性與關(guān)斷特性及短路特性之間的矛盾,提高器件的綜合性能和可靠性,在IGBT中引入了一種電子注入增強(qiáng)效應(yīng)(Injection Enhancement Effect,IE),既可
    的頭像 發(fā)表于 05-21 14:15 ?1476次閱讀
    注入<b class='flag-5'>增強(qiáng)</b>型IGBT學(xué)習(xí)筆記

    CLRC663如何增強(qiáng)對(duì)RFID標(biāo)簽ic的識(shí)別距離?

    我現(xiàn)在在使用clrc663通過(guò)ISO15693協(xié)議識(shí)別rifd標(biāo)簽 ic無(wú)線圈(尺寸5*5mm),我現(xiàn)在的方案識(shí)別距離很短接近0時(shí)才能識(shí)別,我這邊需要將識(shí)別距離提升至10mm,想知道通過(guò)哪種方式可以增強(qiáng)
    發(fā)表于 03-17 07:50

    GNP1070TC-Z 650V GaN HEMT 數(shù)據(jù)手冊(cè)

    ;內(nèi)置ESD保護(hù)功能,有助于實(shí)現(xiàn)高可靠性的設(shè)計(jì)。另外,通過(guò)采用通用性高的DFN封裝,不僅散熱性能出色,還非常易于安裝。采用DFN8080K 封裝,屬于 650V 增強(qiáng)型氮化鎵場(chǎng)效應(yīng)晶體管(GaN FET
    的頭像 發(fā)表于 03-07 15:46 ?955次閱讀
    GNP1070TC-Z 650V <b class='flag-5'>GaN</b> HEMT <b class='flag-5'>數(shù)據(jù)</b>手冊(cè)