chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

「自行科技」一文了解生成式對(duì)抗網(wǎng)絡(luò)GAN

自行科技 ? 來(lái)源:自行科技 ? 作者:自行科技 ? 2022-09-16 09:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、什么是GAN網(wǎng)絡(luò)

生成式對(duì)抗網(wǎng)絡(luò)(Generative adversarial network, GAN)是一種深度學(xué)習(xí)模型,是近年來(lái)復(fù)雜分布上無(wú)監(jiān)督學(xué)習(xí)最具前景的方法之一。

主要包含兩個(gè)模塊:生成器(Generator)和判別器(Discriminator)。生成器要不斷優(yōu)化自己生成的數(shù)據(jù)讓判別器判斷不出來(lái),判別器也要進(jìn)行優(yōu)化讓自己判斷得更準(zhǔn)確。二者關(guān)系形成對(duì)抗,因此叫生成式對(duì)抗網(wǎng)絡(luò)。

二、 GAN的意義及用途

意義:GAN網(wǎng)絡(luò)可以幫助我們建立模型,相比于在已有模型上進(jìn)行參數(shù)更新的傳統(tǒng)網(wǎng)絡(luò),更具研究?jī)r(jià)值。同時(shí),GAN網(wǎng)絡(luò)是一種無(wú)監(jiān)督的學(xué)習(xí)方式,它的泛化性非常好。用途:(1)數(shù)據(jù)生成,主要指圖像生成。圖像生成:基于訓(xùn)練的模型,生成類似于訓(xùn)練集的新的圖片。

文本描述生成圖像:給定一個(gè)文本描述句,生成符合描述句內(nèi)容的圖像。

(2)圖像數(shù)據(jù)增強(qiáng):增強(qiáng)圖像中的有用信息,改善圖像的視覺(jué)效果。

(3)圖像外修復(fù):從受限輸入圖像生成具有語(yǔ)義意義結(jié)構(gòu)的新的視覺(jué)和諧內(nèi)容來(lái)擴(kuò)展圖像邊界。

(4)圖像超分辨率:由一幅低分辨率圖像或圖像序列恢復(fù)出高分辨率圖像。

(5)圖像風(fēng)格遷移:通過(guò)某種方法,把圖像從原風(fēng)格轉(zhuǎn)換到另一個(gè)風(fēng)格,同時(shí)保證圖像內(nèi)容沒(méi)有變化。

三、 GAN的發(fā)展

自2014年GAN的第一次提出,GAN在圖像領(lǐng)域、語(yǔ)音與自然語(yǔ)言處理(Natural language processing, NLP)領(lǐng)域以及其他領(lǐng)域開(kāi)始快速發(fā)展,衍生出了一系列模型。其中,比較流行的有DCGAN(Deep convolutional generative adversarial networks),StyleGAN,BigGAN,StackGAN,Pix2pix,CycleGAN等。

DCGNN:這是第一次在GAN中使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network, CNN)并取得了非常好的結(jié)果。它是GAN研究的一個(gè)里程碑,因?yàn)樗岢隽艘粋€(gè)重要的架構(gòu)變化來(lái)解決訓(xùn)練不穩(wěn)定,模式崩潰和內(nèi)部協(xié)變量轉(zhuǎn)換等問(wèn)題。從那時(shí)起,基于DCGAN的架構(gòu)就被應(yīng)用到了許多GAN架構(gòu)。StyleGAN:GAN研究領(lǐng)域的重大突破,在面部生成任務(wù)中創(chuàng)造了新紀(jì)錄。算法的核心是風(fēng)格轉(zhuǎn)移技術(shù)或風(fēng)格混合。除了生成面部外,它還可以生成高質(zhì)量的汽車,臥室等圖像。BigGAN:用于圖像生成的最新進(jìn)展,生成的圖像質(zhì)量足以以假亂真,這是GAN首次生成具有高保真度和低品種差距的圖像。StackGAN:2017年,由“StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks”論文中提出。作者使用StackGAN完成文本到圖像的生成過(guò)程,并得到了非常好的結(jié)果。Pix2pix:對(duì)于圖像到圖像的翻譯任務(wù),Pix2pix也顯示出了令人印象深刻的結(jié)果。無(wú)論是將夜間圖像轉(zhuǎn)換為白天的圖像還是給黑白圖像著色,或者將草圖轉(zhuǎn)換為逼真的照片等,Pix2pix都呈現(xiàn)出很好的效果。CycleGAN:將對(duì)偶學(xué)習(xí)與GAN進(jìn)行結(jié)合,能將一類圖片自動(dòng)轉(zhuǎn)化為另一類圖片。其中對(duì)偶學(xué)習(xí)是一種類似于雙語(yǔ)翻譯任務(wù)的雙重學(xué)習(xí)機(jī)制,利用原始任務(wù)和雙重任務(wù)之間的反饋信號(hào)對(duì)模型進(jìn)行訓(xùn)練。與輸入必須是成對(duì)數(shù)據(jù)的Pix2pix模型相比,CycleGAN對(duì)非成對(duì)數(shù)據(jù)也能進(jìn)行訓(xùn)練,更具普適性。

四、 GAN的網(wǎng)絡(luò)結(jié)構(gòu)

在介紹GAN網(wǎng)絡(luò)結(jié)構(gòu)之前,我們先了解兩個(gè)概念:生成器和判別器。

生成器:輸入為隨機(jī)數(shù)據(jù),輸出為生成數(shù)據(jù)(通常是圖像)。通常這個(gè)網(wǎng)絡(luò)選用最普通的多層隨機(jī)網(wǎng)絡(luò)即可,網(wǎng)絡(luò)太深容易引起梯度消失或者梯度爆炸。判別器:我們把生成器生成的數(shù)據(jù)稱為假數(shù)據(jù),對(duì)應(yīng)的,來(lái)自真實(shí)數(shù)據(jù)集的數(shù)據(jù)稱為真數(shù)據(jù)。判別器輸入為數(shù)據(jù)(這里指代真實(shí)圖像和生成圖像),輸出是一個(gè)判別概率。需注意的是,這里判別的是圖像的真假,而非圖像的類別。輸入一個(gè)圖片后,我們并不需要確認(rèn)這張圖片是什么,而是判別圖像來(lái)源于真實(shí)數(shù)據(jù)集,還是由生成器輸出得到。網(wǎng)絡(luò)實(shí)現(xiàn)同樣可用最基本的多層神經(jīng)網(wǎng)絡(luò)。

bb7607ac7e3f45a7b627be478f55c561~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=XSCePeGgL%2Fils61w%2FwM2YlXaCTU%3D

圖1 GAN網(wǎng)絡(luò)結(jié)構(gòu)

GAN 的主要思想就是在生成數(shù)據(jù)的過(guò)程中加入一個(gè)可以判斷真實(shí)數(shù)據(jù)和生成數(shù)據(jù)的判別器,使生成器和判別器相互對(duì)抗,判別器的作用是努力地分辨真實(shí)數(shù)據(jù)和生成數(shù)據(jù),生成器的作用是努力改進(jìn)自己從而生成可以迷惑判別器的數(shù)據(jù)。GAN的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。GAN網(wǎng)絡(luò)結(jié)構(gòu)主要包含判別器D和生成器G,判別器D和生成器G通常由包含卷積或全連接層的多層網(wǎng)絡(luò)實(shí)現(xiàn)。判別器D:使用了混合整流器線性激活函數(shù)和sigmoid激活函數(shù),輸入為真實(shí)數(shù)據(jù)x和生成器G輸出的假數(shù)據(jù)G(z)。目標(biāo)是實(shí)現(xiàn)對(duì)數(shù)據(jù)來(lái)源的二分類判別:真(來(lái)源于真實(shí)數(shù)據(jù)的分布)或者假(來(lái)源于生成器的假數(shù)據(jù)G(z))生成器G:使用了maxout激活函數(shù),輸入為隨機(jī)噪聲z。目標(biāo)是使自己生成的假數(shù)據(jù)G(z)在D上的表現(xiàn)D(G(z)),和真實(shí)數(shù)據(jù)x在D上的表現(xiàn)D(x)一致。GAN的訓(xùn)練包括兩個(gè)方面:最大化判別器分類準(zhǔn)確率的判別器的參數(shù)和找到最大程度混淆判別器的生成器的參數(shù)。當(dāng)更新一個(gè)模型生成器的參數(shù)時(shí),另一個(gè)模型判別器的參數(shù)是固定的,反之亦然。通常是兩個(gè)網(wǎng)絡(luò)單獨(dú)且交替訓(xùn)練,先訓(xùn)練判別器,再訓(xùn)練生成器,再訓(xùn)練判別器,如此反復(fù),直到達(dá)到納什均衡。

6dc17019175b4ac8a23857844b7c398b~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=fOusrrd58047vGm0V4AzJoBvohY%3D

圖2 生成器樣本示例

GAN網(wǎng)絡(luò)訓(xùn)練用到的數(shù)據(jù)集:MNIST,the Toronto Face Database(TFD)和CIFAR-10數(shù)據(jù)集。圖2展示了經(jīng)過(guò)訓(xùn)練后從生成器中抽取的樣本示例,其中,最右邊的列顯示了鄰近樣本的最近訓(xùn)練示例,以證明模型沒(méi)有記憶訓(xùn)練集。樣本是公平隨機(jī)抽取,而不是精心挑選。圖2中,a)表示GAN網(wǎng)絡(luò)在MNIST數(shù)據(jù)集上的生成效果,b)表示GAN網(wǎng)絡(luò)在TFD數(shù)據(jù)集上的生成效果。c)和d)均表示GAN網(wǎng)絡(luò)在CIFAR-10數(shù)據(jù)集上的生成效果,只是c)中GAN網(wǎng)絡(luò)采取全連接模型,而d)中是卷積判別器和反卷積生成器。在使用GAN進(jìn)行圖像生成任務(wù)時(shí),比較典型的網(wǎng)絡(luò)結(jié)構(gòu)有DCGAN網(wǎng)絡(luò)和基于先驗(yàn)知識(shí)的StackGAN網(wǎng)絡(luò)。DCGAN將CNN與GAN進(jìn)行了融合,利用CNN強(qiáng)大的特征提取能力來(lái)提高GAN的學(xué)習(xí)效果。DCGAN主要是在網(wǎng)絡(luò)結(jié)構(gòu)上對(duì) GAN 進(jìn)行了改進(jìn)。生成器相當(dāng)于反卷積網(wǎng)絡(luò),而判別器相當(dāng)于卷積網(wǎng)絡(luò)。DCGAN的生成器網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

1ed704fcb2cd4b13b22cf8d3dc2f2351~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=JDbHAdZuTP%2ByMjRLlII9cUZ24%2Bk%3D

圖3 DCGAN生成器網(wǎng)絡(luò)結(jié)構(gòu)

DCGAN網(wǎng)絡(luò)最先采用CNN結(jié)構(gòu)實(shí)現(xiàn)GAN模型,介紹了如何使用卷積層,并給出一些額外的結(jié)構(gòu)上的指導(dǎo)建議來(lái)實(shí)現(xiàn)。另外,它還討論如何可視化GAN的特征、隱空間的插值、利用判別器特征訓(xùn)練分類器以及評(píng)估結(jié)果。關(guān)于DCGAN的應(yīng)用主要集中在圖像處理方面,可以說(shuō)這個(gè)模型是最典型、應(yīng)用最廣泛的GAN變種模型。StackGAN是一種新的堆疊生成對(duì)抗網(wǎng)絡(luò),用于從文本描述合成照片真實(shí)感圖像,其網(wǎng)絡(luò)結(jié)構(gòu)如圖4。StackGAN首次從文本描述生成256×256分辨率的圖像,且生成的圖像具有照片般逼真的細(xì)節(jié)。StackGAN網(wǎng)絡(luò)結(jié)構(gòu)分為兩個(gè)部分:Stage-ⅠGAN和Stage-ⅡGAN。 Stage-ⅠGAN:根據(jù)給定的文本描述,繪制對(duì)象的原始形狀和原始顏色,并根據(jù)隨機(jī)噪聲向量繪制背景布局,生成低分辨率圖像。生成器G0:首先是經(jīng)過(guò)一個(gè)CA(調(diào)節(jié)增強(qiáng)技術(shù))模塊,對(duì)文本嵌入進(jìn)行降維。StackGAN沒(méi)有直接將降維后的文本嵌入作為condition,而是將它接了一個(gè)全連接層,并從得到的獨(dú)立的高斯分布中隨機(jī)采樣得到高斯條件變量。接著,將高斯條件變量與噪聲向量經(jīng)過(guò)級(jí)聯(lián)得到的一組向量輸入到生成器中,然后,經(jīng)過(guò)上采樣之后生成一張64*64的圖像。判別器D0:首先,文本嵌入經(jīng)過(guò)一個(gè)全連接層被壓縮到128維,然后經(jīng)過(guò)空間復(fù)制將其擴(kuò)成一個(gè)4×4×128的張量。同時(shí),圖像會(huì)經(jīng)過(guò)一系列的下采樣到4×4。然后,圖像過(guò)濾映射會(huì)連接圖像和文本張量的通道。隨后,張量會(huì)經(jīng)過(guò)一個(gè)1×1的卷積層去連接跨文本和圖像學(xué)到的特征。最后,會(huì)通過(guò)只有一個(gè)節(jié)點(diǎn)的全連接層去產(chǎn)生圖像真假的概率。

d86f744ed3b24a519e53b7a617100a96~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=XPAN687P4hLS4TCRll5hm9c6988%3D

圖4 StackGAN網(wǎng)絡(luò)結(jié)構(gòu)

Stage-Ⅱ GAN:

修正第一階段低分辨率圖像的缺陷,通過(guò)再次文本描述來(lái)完成對(duì)象的細(xì)節(jié),生成了高分辨率的真實(shí)感圖像。與通常的GAN不同,本階段不使用隨機(jī)噪聲。

生成器G:將第二階段生成器設(shè)計(jì)為一個(gè)具有殘差塊的編解碼網(wǎng)絡(luò)。Stage-Ⅰ GAN生成的64×64的圖片,加上對(duì)文本嵌入進(jìn)行CA操作得到的高斯條件變量,與前一階段相似,高斯條件變量被擴(kuò)成一個(gè)16×16×128的張量(綠色部分)。同時(shí),由前一個(gè)GAN生成的64×64的圖像,會(huì)經(jīng)過(guò)下采樣變成16×16(紫色部分)。連接圖像特征和文本特征后,經(jīng)過(guò)殘差塊,再上采樣,生成圖片。判別器D:對(duì)于判別器,其結(jié)構(gòu)類似于第一階段判別器,僅具有額外的下采樣塊。另外,為了明確地強(qiáng)制GAN更好地學(xué)習(xí)圖像和條件文本之間的對(duì)齊,我們?cè)趦蓚€(gè)階段都采用了匹配感知判別器。StackGAN訓(xùn)練用到的數(shù)據(jù)集:CUB,Oxford-102和MS COCO數(shù)據(jù)集。圖5中a),b)和c)分別展示了基于這三個(gè)數(shù)據(jù)集的測(cè)試集,StackGAN網(wǎng)絡(luò)生成的圖像示例??傮w來(lái)說(shuō),StackGAN生成的高分辨率的圖像,細(xì)節(jié)信息較豐富,且能較好地反映相應(yīng)的文本描述。

6a813559535946bf8203d46eead0e51f~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=HoMCC7vCBtxtt10aBraagn%2BQLng%3D

圖5 StackGAN網(wǎng)絡(luò)生成的圖像示例

五、 GAN的實(shí)際應(yīng)用示例圖

(1)生成人臉:

fb74ae67eddd4a799f52035f9798ee7a~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=L8rW2B3THzmcP0ghTZrjuzkcWEs%3D

圖6 基于GAN方法生成人臉

(2)語(yǔ)義圖像-圖片轉(zhuǎn)化:

4ae1be5926364717b1c28c9b3797b00d~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=0D8Ush0PloJ1UnIKizN6N9uhayY%3D

圖7基于GAN方法將語(yǔ)義圖像轉(zhuǎn)化成圖片

(3)生成動(dòng)漫人物形象:

72b4685c039c413e89e76dc3cc68c9ec~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=p%2FSgwFxDUZQlWJjN7rMs%2BMibS1M%3D

圖8基于GAN方法生成動(dòng)漫人物

(4)路況預(yù)測(cè):圖9中,奇數(shù)列顯示解碼圖像,偶數(shù)列顯示目標(biāo)圖像:

25dc239df8f342ac8c1108be14968389~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=esrwokKvYpan9LdkokilKtJQRDg%3D

圖9基于GAN方法的路況預(yù)測(cè)結(jié)果

(5)人臉圖像修復(fù):圖10中,依次顯示真實(shí)圖像,缺失圖像,修復(fù)圖像:

2dc8ed2df326433c96658e390cbf5b75~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=9f766TwEUQANvaZsxm0ZCfFfMPc%3D

圖10基于GAN方法修復(fù)人臉圖像



審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    思必馳鳴智能客服大模型通過(guò)生成人工智能服務(wù)備案

    近日,江蘇網(wǎng)信發(fā)布新生成人工智能服務(wù)備案信息,其中,由思必馳控股子公司馳必準(zhǔn)自主研發(fā)的鳴智能客服大模型通過(guò)《生成
    的頭像 發(fā)表于 09-16 18:08 ?788次閱讀

    ?Diffusion生成動(dòng)作引擎技術(shù)解析

    Diffusion生成動(dòng)作引擎 Diffusion生成動(dòng)作引擎是種基于擴(kuò)散模型(Diffusion Models)的
    的頭像 發(fā)表于 03-17 15:14 ?2527次閱讀

    帶你了解壁掛工控機(jī)

    壁掛工控機(jī)(Wall-MountIndustrialComputer)是種專為工業(yè)環(huán)境設(shè)計(jì)的計(jì)算機(jī)設(shè)備,通常采用壁掛安裝方式,適用于空間有限或需要固定部署的場(chǎng)景。它結(jié)合了工業(yè)計(jì)算機(jī)的穩(wěn)定性
    的頭像 發(fā)表于 02-18 15:36 ?587次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>帶你<b class='flag-5'>了解</b>壁掛<b class='flag-5'>式</b>工控機(jī)

    DLP660TE在生成4k畫面時(shí),抖動(dòng)頻率是否可以自行設(shè)定?

    我想咨詢下DLP660TE在生成4k畫面時(shí),抖動(dòng)頻率是否可以自行設(shè)定,抖動(dòng)的兩幅圖是否可以客戶指定?
    發(fā)表于 02-17 07:20

    聚云科技榮獲亞馬遜云科技生成AI能力認(rèn)證

    助力企業(yè)加速生成AI應(yīng)用落地 北京2025年2月14日?/美通社/ -- 云管理服務(wù)提供商聚云科技獲得亞馬遜云科技生成AI能力認(rèn)證,利用亞馬遜云科技全托管的
    的頭像 發(fā)表于 02-14 16:07 ?589次閱讀

    聚云科技榮獲亞馬遜云科技生成AI能力認(rèn)證 助力企業(yè)加速生成AI應(yīng)用落地

    北京 ——2025 年 2 月 14 日 云管理服務(wù)提供商聚云科技獲得亞馬遜云科技生成AI能力認(rèn)證,利用亞馬遜云科技全托管的生成AI服務(wù)Amazon Bedrock等技術(shù),從應(yīng)用范
    發(fā)表于 02-14 13:41 ?243次閱讀

    OpenAI計(jì)劃開(kāi)發(fā)可替代手機(jī)的生成AI專用終端

    近日,據(jù)日經(jīng)報(bào)道,人工智能研究公司 OpenAI 的 CEO Sam Altman 在接受采訪時(shí)透露,OpenAI 計(jì)劃開(kāi)發(fā)款可替代手機(jī)的生成 AI 專用終端。 據(jù)了解,OpenA
    的頭像 發(fā)表于 02-05 14:50 ?759次閱讀

    生成AI工具好用嗎

    當(dāng)下,生成AI工具正以其強(qiáng)大的內(nèi)容生成能力,為用戶帶來(lái)了前所未有的便捷與創(chuàng)新。那么,生成AI工具到底好用嗎?答案無(wú)疑是肯定的。接下來(lái),A
    的頭像 發(fā)表于 01-17 09:54 ?667次閱讀

    #新年新氣象,大家新年快樂(lè)!#AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動(dòng)生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語(yǔ)言處理(NLP)、計(jì)算機(jī)視覺(jué)、生成對(duì)抗
    發(fā)表于 01-13 10:46

    AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動(dòng)生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語(yǔ)言處理(NLP)、計(jì)算機(jī)視覺(jué)、生成對(duì)抗
    發(fā)表于 01-13 10:32

    言登頂中國(guó)生成AI使用率榜首

    人工智能產(chǎn)品的用戶規(guī)模已達(dá)到2.3億人,占整體人口的16.4%。這數(shù)據(jù)表明,生成人工智能產(chǎn)品在網(wǎng)民中已經(jīng)形成了相當(dāng)規(guī)模的用戶群體,并且未來(lái)仍有顯著的增長(zhǎng)空間。 在激烈的市場(chǎng)競(jìng)爭(zhēng)中,百度
    的頭像 發(fā)表于 12-04 14:03 ?1049次閱讀

    上海新增14款生成AI服務(wù)備案

    近日,據(jù)網(wǎng)信上海最新消息,截至12月2日,上海市在生成人工智能服務(wù)領(lǐng)域取得了新的進(jìn)展,新增了14款已完成備案的服務(wù)。這消息標(biāo)志著上海市在推動(dòng)生成
    的頭像 發(fā)表于 12-03 10:58 ?724次閱讀

    了解嵌入軟件開(kāi)發(fā)的對(duì)象

    以前應(yīng)用場(chǎng)景很單,嵌入開(kāi)發(fā)可能談不上面向?qū)ο箝_(kāi)發(fā)。但現(xiàn)在,做嵌入開(kāi)發(fā),沒(méi)有面向?qū)ο箝_(kāi)發(fā),你就有點(diǎn)落伍了。 本文結(jié)合個(gè)人經(jīng)驗(yàn)和周立功《抽象接口技術(shù)和組件開(kāi)發(fā)規(guī)范及其思想》,循序漸進(jìn)的用代碼范例說(shuō)明嵌入
    的頭像 發(fā)表于 11-15 10:31 ?1142次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>了解</b>嵌入<b class='flag-5'>式</b>軟件開(kāi)發(fā)的對(duì)象

    不懂就問(wèn)AI:AI大模型embeding是什么

    osc推看到部分內(nèi)容,關(guān)于AI的,雖然作者早期也做過(guò)AI的部分工作,就是簡(jiǎn)單的訓(xùn)練和預(yù)測(cè),也是用的GAN等類似的生成對(duì)抗
    的頭像 發(fā)表于 11-09 10:31 ?2438次閱讀
    不懂就問(wèn)AI:AI大模型embeding是什么

    生成AI工具作用

    生成AI工具是指那些能夠自動(dòng)生成文本、圖像、音頻、視頻等多種類型數(shù)據(jù)的人工智能技術(shù)。在此,petacloud.ai小編為您整理生成AI工
    的頭像 發(fā)表于 10-28 11:19 ?1052次閱讀