chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用DNN深度神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)圖像AIGC的開發(fā)-基于米爾瑞薩RZ/G2L開發(fā)板的創(chuàng)新應(yīng)用

米爾電子 ? 2023-10-21 08:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文由米爾論壇優(yōu)秀評(píng)測(cè)者“ALSET”提供。

01.

項(xiàng)目背景介紹


AIGC(即ArtificialIntelligence Generated Content),中文譯為人工智能生成內(nèi)容。簡單來說,就是經(jīng)過大量特征訓(xùn)練過的神經(jīng)網(wǎng)絡(luò)模型來對(duì)新的內(nèi)容或者需求來生成人們需要的創(chuàng)作內(nèi)容,類似使用人類用思考和創(chuàng)造力才能完成的工作過程,而現(xiàn)在可以利用人工智能技術(shù)來替代我們完成。在狹義上AIGC是指利用AI自動(dòng)生成內(nèi)容的生產(chǎn)方式,比如自動(dòng)寫作、自動(dòng)設(shè)計(jì)等。在廣義上,AIGC是指像人類一樣具備生成創(chuàng)造能力的AI技術(shù),它可以基于訓(xùn)練數(shù)據(jù)和生成算法來完成各類的內(nèi)容生成創(chuàng)作。在圖像生成模型生成方面最主要的幾個(gè)代表模型,是以下常見的4個(gè)模型:

DNNGANVAEDiffusion

其中基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的進(jìn)行圖像藝術(shù)風(fēng)格轉(zhuǎn)移(Transform),生成高質(zhì)量的具有藝術(shù)風(fēng)格圖像的神經(jīng)網(wǎng)絡(luò)模型。該模型通過深度神經(jīng)網(wǎng)絡(luò)分別提取圖像中的內(nèi)容和風(fēng)格特征,然后對(duì)其目標(biāo)圖片內(nèi)容進(jìn)行重組,生成具有原圖內(nèi)容和藝術(shù)風(fēng)格的圖像,其風(fēng)格轉(zhuǎn)移不僅對(duì)圖像的圖案,顏色,特征等進(jìn)行修改還保留原圖高可辨識(shí)的內(nèi)容載體。通常AIGC對(duì)硬件性能要求較高,只要具備高性能的圖形圖像的PC圖形工作站或者服務(wù)器上來運(yùn)行。而這里我們將使用MYD-YG2L開發(fā)板上來實(shí)現(xiàn)在嵌入式設(shè)備上完成圖像風(fēng)格轉(zhuǎn)移計(jì)算這一任務(wù)。并且結(jié)合圖形界面和USB攝像頭完成對(duì)任意拍攝的圖片進(jìn)行圖像風(fēng)格化的開發(fā)。讓嵌入式上也能夠體驗(yàn)這種獨(dú)特的AIGC內(nèi)容生成方式。


02.

技術(shù)硬件方案


項(xiàng)目采用MYD-YG2L為主控板,使用800萬像素4K級(jí)廣角USB相機(jī)鏡頭,通過采集畫面,在主控板內(nèi)完成對(duì)畫面的風(fēng)格化處理,并通過HDMI輸出顯示生成的圖像。

這里使用開發(fā)板連接HDMI顯示器和接入一個(gè)4K高清鏡頭,主要硬件連接如下圖:

01e24ac2-6fa5-11ee-9788-92fbcf53809c.png

03.

主要技術(shù)原理


圖像風(fēng)格轉(zhuǎn)移的主要過程是對(duì)輸入img_content和img_style,然后要把img_content的內(nèi)容主體和img_style進(jìn)行一個(gè)結(jié)合,實(shí)現(xiàn)一個(gè)圖像的創(chuàng)意創(chuàng)作,這個(gè)過程也叫做Style Transform 即風(fēng)格轉(zhuǎn)移。

其核心的算法是把基于CNN卷積編碼后的特征向量transformer第一個(gè)結(jié)合到風(fēng)格遷移任務(wù)中,再對(duì)混合后的內(nèi)容進(jìn)行解碼,從而輸出新的圖像內(nèi)容,主要參考李飛飛論文,其核心流程如下圖:02144842-6fa5-11ee-9788-92fbcf53809c.png022a2d7e-6fa5-11ee-9788-92fbcf53809c.png023f21e8-6fa5-11ee-9788-92fbcf53809c.png 經(jīng)過測(cè)試MYD-YG2L較好的支持OpenCV這個(gè)工具庫,并且具備較強(qiáng)的圖像處理能力。那么就可以在板上使用OpenCV的DNN模塊來實(shí)現(xiàn)以上算法過程。OpenCV的DNN模塊從發(fā)行版開始,主要是支持推理,而數(shù)據(jù)訓(xùn)練不是其支持的目標(biāo)。因此我們可以使用已經(jīng)訓(xùn)練好的模型,在板上上完成推理過程,即圖像風(fēng)格轉(zhuǎn)移生成的這一過程。現(xiàn)在OpenCV已經(jīng)支持TensorFlow、Pytorch/Torch、Caffe、DarkNet等模型的讀取,OpenCV的 DNN模塊的用法。OpenCV的DNN模塊進(jìn)行模型推理就顯得比較簡單,過程就是:1.加載模型因?yàn)镺penCV DNN模塊主要用來做推理計(jì)算,所以在使用前首先準(zhǔn)備一個(gè)訓(xùn)練好的模型(如何訓(xùn)練自己的不同風(fēng)格的模型后面也會(huì)闡述)。OpenCV支持所有主流框架的大部分模型。OpenCV的readNet系列函數(shù)就可以看出所支持的框架類型:

readNetFromCaffereadNetFromTensorflowreadNetFromTorchreadNetFromDarknetreadNetFromONNXreadNetFromModelOptimizer

這里所用風(fēng)格遷移模型是開源的Torch/Lua的模型fast-neural-style。他們提供了十種風(fēng)格遷移的模型,模型的下載腳本在:https://github.com/jcjohnson/fas ... _transfer_models.sh。這里使用OpenCV的readNetFromTorch函數(shù)加載PyTorch模型。2.輸入圖像預(yù)處理在OpenCV中輸入給模型的圖像需要首先被構(gòu)建成一個(gè)4個(gè)區(qū)塊的數(shù)據(jù)塊(Blob),并且做如resize、歸一化和縮放之類的一些預(yù)處理。3.模型推理模型推理過程就是把輸入構(gòu)建的blob輸入給模型神經(jīng)網(wǎng)絡(luò)模型進(jìn)行一次前向傳播,在OpenCV中,用以下非常簡單的兩行代碼即可完成:net.setInput(blob)output = net.forward()

04.

軟件系統(tǒng)設(shè)計(jì)


在本軟件開發(fā),主要使用MYD-YG2L的SDK中,使用了OpenCV SDK與QT SDK。QT 主要實(shí)現(xiàn)文件圖像風(fēng)格轉(zhuǎn)移的界面操作,使用OpenCV實(shí)現(xiàn)DNN圖像推理計(jì)算。設(shè)計(jì)QTUI,選擇文件或者攝像頭采集原圖像

024432f0-6fa5-11ee-9788-92fbcf53809c.png?

開發(fā)UI交互邏輯代碼

025e854c-6fa5-11ee-9788-92fbcf53809c.png?

開發(fā)OpenCV DNN神經(jīng)網(wǎng)絡(luò)調(diào)用模塊

026b3ab2-6fa5-11ee-9788-92fbcf53809c.png?

在開發(fā)板的交叉編譯環(huán)境編譯,把編譯的結(jié)果部署到開發(fā)板上。另外把風(fēng)格轉(zhuǎn)移用到的訓(xùn)練模型文件也部署到開發(fā)板上,經(jīng)過實(shí)際測(cè)試,以下模型在開發(fā)板上運(yùn)行正常,而其它模型則因內(nèi)存不夠而報(bào)錯(cuò)。1: "udnie", 2: "la_muse", 3: "the_scream", 4: "candy", 5: "mosaic", 6: "feathers", 7: "starry_night"

05.

軟件運(yùn)行效果


把QT軟件與相關(guān)模型文件部署到開發(fā)板上后,即可以運(yùn)行測(cè)試效果,開發(fā)板上啟動(dòng)運(yùn)行QT程序命令:./style_transform -platform linuxfb運(yùn)行后,選擇一張圖片顯示

點(diǎn)擊 “transform”按鈕,等待約13秒,得到風(fēng)格轉(zhuǎn)移輸出畫面

再換一張米爾的LOGO圖,這個(gè)圖片尺寸較小,圖像內(nèi)容變化率低看一下,風(fēng)格化轉(zhuǎn)換時(shí)間:

02a73f8a-6fa5-11ee-9788-92fbcf53809c.png?

測(cè)試仍然為13秒左右,得到如下輸出圖像:

02b7a230-6fa5-11ee-9788-92fbcf53809c.png?

這上面使用的是feathers模型生成的風(fēng)格圖片,其它模型時(shí)間也差不多在這個(gè)時(shí)間。

06.

開發(fā)后記


最后使用開發(fā)的圖像轉(zhuǎn)換程序,在MAC電腦上編譯了MAC版本與開發(fā)板上對(duì)同一圖片轉(zhuǎn)換進(jìn)行比較。其使用MacBook Pro 2.2G 16G內(nèi)存主頻硬件運(yùn)行該圖片轉(zhuǎn)換時(shí),需要8.6秒。多次測(cè)試,對(duì)不同模型的轉(zhuǎn)換分別測(cè)試,基本上在MYD-YG2LX上運(yùn)行速度能達(dá)到MAC電腦轉(zhuǎn)換的66%性能,這個(gè)結(jié)果看該開發(fā)板其DNN推理計(jì)算性能比較強(qiáng)悍。 該項(xiàng)目在后續(xù)的發(fā)展中,在有更多時(shí)間時(shí),將嘗試訓(xùn)練更多特色的風(fēng)格,以及融入GAN生成神經(jīng)網(wǎng)絡(luò)模型的內(nèi)容生成模型,嘗試多種方法來進(jìn)行更豐富多彩的內(nèi)容生成。在做本項(xiàng)目開發(fā)時(shí),從資料中已知知名的內(nèi)容生成項(xiàng)目stable diffusion已經(jīng)在一些嵌入式開發(fā)板上移植運(yùn)行成功,這個(gè)振奮的消息會(huì)不會(huì)又給自己挖了一個(gè)坑呢。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 開發(fā)板
    +關(guān)注

    關(guān)注

    25

    文章

    6007

    瀏覽量

    110126
  • dnn
    dnn
    +關(guān)注

    關(guān)注

    0

    文章

    61

    瀏覽量

    9404
  • 米爾電子
    +關(guān)注

    關(guān)注

    1

    文章

    167

    瀏覽量

    946
  • AIGC
    +關(guān)注

    關(guān)注

    1

    文章

    390

    瀏覽量

    3050
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    米爾發(fā)表演講,并攜RZ產(chǎn)品亮相2025 Elexcon深圳電子展

    MYIR攜RZ系列核心、開發(fā)板等方案Demo亮相嵌入式MCU/MPU生態(tài)專區(qū),并發(fā)表主題演講。技術(shù)盛宴:
    的頭像 發(fā)表于 08-28 08:05 ?456次閱讀
    <b class='flag-5'>米爾</b>發(fā)表演講,并攜<b class='flag-5'>瑞</b><b class='flag-5'>薩</b><b class='flag-5'>RZ</b>產(chǎn)品亮相2025 Elexcon深圳電子展

    MCU方案:RZ/G2L Bootloader單獨(dú)編譯方法詳解

    微處理器還配備有大量接口,如攝像頭輸入、顯示輸出、USB2.0和千兆以太網(wǎng),因此特別適用于入門級(jí)工業(yè)人機(jī)界面(HMI)和具有視頻功能的嵌入式設(shè)備等應(yīng)用。 ? ? ? 在RZ/G2L開發(fā)工作中,用戶經(jīng)常
    的頭像 發(fā)表于 07-08 14:47 ?2009次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>薩</b>MCU方案:<b class='flag-5'>瑞</b><b class='flag-5'>薩</b><b class='flag-5'>RZ</b>/<b class='flag-5'>G2L</b> Bootloader單獨(dú)編譯方法詳解

    基于64位MPU RZ/G2L的uboot串口多波特率支持介紹

    本文主要介紹基于64位MPU RZ/G2L,討論uboot下非常規(guī)波特率115200的支持方法,用于解決客戶對(duì)uboot下特殊波特率的需求,供客戶參考。
    的頭像 發(fā)表于 07-04 15:54 ?2433次閱讀
    基于<b class='flag-5'>瑞</b><b class='flag-5'>薩</b>64位MPU <b class='flag-5'>RZ</b>/<b class='flag-5'>G2L</b>的uboot串口多波特率支持介紹

    基于64位MPU RZ/G2L進(jìn)行32位應(yīng)用軟件開發(fā)

    本文主要介紹基于64位MPU RZ/G2L進(jìn)行32位應(yīng)用軟件開發(fā)的介紹,用于解決客戶32位軟件移植相關(guān)問題,供客戶參考。
    的頭像 發(fā)表于 06-26 15:48 ?1440次閱讀
    基于<b class='flag-5'>瑞</b><b class='flag-5'>薩</b>64位MPU <b class='flag-5'>RZ</b>/<b class='flag-5'>G2L</b>進(jìn)行32位應(yīng)用軟件<b class='flag-5'>開發(fā)</b>

    有獎(jiǎng)丨米爾 芯微RK3562開發(fā)板免費(fèi)試用新增名額!

    米爾芯微合作發(fā)布的新品基于芯微RK3562應(yīng)用處理器的MYD-YR3562開發(fā)板免費(fèi)試用名額增加
    的頭像 發(fā)表于 06-13 08:04 ?703次閱讀
    有獎(jiǎng)丨<b class='flag-5'>米爾</b> <b class='flag-5'>瑞</b>芯微RK3562<b class='flag-5'>開發(fā)板</b>免費(fèi)試用新增名額!

    交流日進(jìn)行中,米爾演講-RZ/T2H高性能模組賦能工業(yè)產(chǎn)品創(chuàng)新

    。米爾電子作為的IDH生態(tài)合作伙伴發(fā)表演講,并展出RZ/T2H的核心
    的頭像 發(fā)表于 03-13 08:05 ?697次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>薩</b>交流日進(jìn)行中,<b class='flag-5'>米爾</b>演講-<b class='flag-5'>RZ</b>/T<b class='flag-5'>2</b>H高性能模組賦能工業(yè)產(chǎn)品<b class='flag-5'>創(chuàng)新</b>

    Banana Pi 與電子攜手共同推動(dòng)開源創(chuàng)新:BPI-AI2N

    RZ/V2N高性能處理器與Banana PI開源硬件平臺(tái)的深度融合。 開源優(yōu)勢(shì) :提供部分硬件設(shè)計(jì)資料、SDK及
    發(fā)表于 03-12 09:43

    電子RZ MPU家族精品RZ/N2L產(chǎn)品介紹

    生態(tài)合作伙伴RT-Thread推出了一款高性能、多功能以太網(wǎng)MPU開發(fā)板EtherKit,搭載電子
    的頭像 發(fā)表于 12-23 14:10 ?1180次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>薩</b>電子<b class='flag-5'>RZ</b> MPU家族精品<b class='flag-5'>RZ</b>/N<b class='flag-5'>2L</b>產(chǎn)品介紹

    電子RZ/N2L MPU產(chǎn)品介紹

    生態(tài)合作伙伴RT-Thread推出了一款高性能、多功能以太網(wǎng)MPU開發(fā)板EtherKit,搭載電子
    的頭像 發(fā)表于 12-19 16:50 ?1618次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>薩</b>電子<b class='flag-5'>RZ</b>/N<b class='flag-5'>2L</b> MPU產(chǎn)品介紹

    MCU/MPU盛會(huì),米爾發(fā)表演講-嵌入式處理器模組加速工業(yè)產(chǎn)品開發(fā)

    ”的演講,還展出基于RZ/G2L、RZ/G2UL、RZ/T2H的核心
    的頭像 發(fā)表于 12-13 08:04 ?792次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>薩</b>MCU/MPU盛會(huì),<b class='flag-5'>米爾</b>發(fā)表演講-嵌入式處理器模組加速工業(yè)產(chǎn)品<b class='flag-5'>開發(fā)</b>

    飛凌嵌入式受邀亮相2024工業(yè)技術(shù)研討會(huì)

    飛凌嵌入式作為電子的生態(tài)合作伙伴,給2024電子MCU/MPU工業(yè)技術(shù)研討會(huì)的現(xiàn)場(chǎng)觀眾帶去了基于RZ/
    的頭像 發(fā)表于 12-07 14:27 ?893次閱讀
    飛凌嵌入式受邀亮相<b class='flag-5'>瑞</b><b class='flag-5'>薩</b>2024工業(yè)技術(shù)研討會(huì)

    RZ/G2L微處理器的SD卡GPIO控制功能介紹

    RZ/G2L微處理器配備Cortex-A55(1.2 GHz) CPU、16位DDR3L/DDR4接口、帶Arm Mali-G31的3D圖形加速引擎以及視頻編解碼器(H.264)。此外
    的頭像 發(fā)表于 12-06 10:25 ?2078次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>薩</b><b class='flag-5'>RZ</b>/<b class='flag-5'>G2L</b>微處理器的SD卡GPIO控制功能介紹

    FacenetPytorch人臉識(shí)別方案--基于米爾全志T527開發(fā)板

    、facenet_pytorch算法實(shí)現(xiàn)人臉識(shí)別深度神經(jīng)網(wǎng)絡(luò)1.簡介Facenet-PyTorch是一個(gè)基于PyTorch框架實(shí)現(xiàn)的人臉識(shí)別庫。它提供了FaceNet模型的PyTorc
    的頭像 發(fā)表于 11-28 15:12 ?1183次閱讀
    FacenetPytorch人臉識(shí)別方案--基于<b class='flag-5'>米爾</b>全志T527<b class='flag-5'>開發(fā)板</b>

    追加名額丨米爾芯微RK3576開發(fā)板有獎(jiǎng)試用

    米爾芯微合作發(fā)布的新品基于芯微RK3576應(yīng)用處理器的MYD-LR3576開發(fā)板免費(fèi)試用活動(dòng)加碼啦~~米爾追加了
    的頭像 發(fā)表于 11-22 01:00 ?921次閱讀
    追加名額丨<b class='flag-5'>米爾</b><b class='flag-5'>瑞</b>芯微RK3576<b class='flag-5'>開發(fā)板</b>有獎(jiǎng)試用

    RZ/G2L高速虛擬串口方案 基于RZ/G2L SMARC開發(fā)板的虛擬(Virtual UART)實(shí)現(xiàn)方案

    RZ/G2L具有豐富的外設(shè),比如千兆以太網(wǎng),CANFD以及豐富的UART接口,可以滿足工業(yè)數(shù)據(jù)收集處理相關(guān)的應(yīng)用。本文主要介紹基于RZ/
    發(fā)表于 11-20 14:41 ?1184次閱讀
    <b class='flag-5'>RZ</b>/<b class='flag-5'>G2L</b>高速虛擬串口方案 基于<b class='flag-5'>瑞</b><b class='flag-5'>薩</b><b class='flag-5'>RZ</b>/<b class='flag-5'>G2L</b> SMARC<b class='flag-5'>開發(fā)板</b>的虛擬(Virtual UART)<b class='flag-5'>實(shí)現(xiàn)</b>方案