chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹新型深度CNN模型——NIMA 它能判斷出哪張圖片最好看

zhKF_jqr_AI ? 2017-12-29 14:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌今日發(fā)文介紹新型深度CNN模型——NIMA(Neural Image Assessment),它能以接近人類的水平判斷出哪張圖片最好看。

圖像質(zhì)量和美學(xué)的量化一直是圖像處理和計(jì)算機(jī)視覺長期存在的問題。技術(shù)質(zhì)量評(píng)估測量的是圖像在像素級(jí)別的損壞,例如噪聲、模糊、人為壓縮等等,而對(duì)藝術(shù)的評(píng)估是為了捕捉圖像中的情感和美麗在語義級(jí)別的特征。最近,用帶有標(biāo)記的數(shù)據(jù)訓(xùn)練的深度卷積神經(jīng)網(wǎng)絡(luò)(CNNs)已被用于解決特殊圖像(例如景觀)圖像質(zhì)量的主觀屬性。然而,這些方法通常簡單地將圖像分為低質(zhì)量和高質(zhì)量的兩類,范圍有些狹窄。為了得到更準(zhǔn)確的圖像質(zhì)量預(yù)測,我們提出的方法可以得不出同的預(yù)測評(píng)級(jí),更接近于真實(shí)的評(píng)級(jí),更適用于一般圖像。

在NIMA:Neural Image Assessment這篇論文中,我們介紹了一個(gè)深度卷積神經(jīng)網(wǎng)絡(luò),通過訓(xùn)練,它可以判斷哪些是用戶認(rèn)為技術(shù)精湛的圖片(technically),哪些是有吸引力的圖片(aesthetically)。正是有了最先進(jìn)的能夠識(shí)別物體的深度神經(jīng)網(wǎng)絡(luò),NIMA才能在此基礎(chǔ)上理解更多類別的物體,不論有什么變化。我們提出的網(wǎng)絡(luò)不僅能給圖像打一個(gè)靠譜的分?jǐn)?shù)、接近人類的感知水準(zhǔn),同時(shí)還能用于各種需要大量勞動(dòng)力和主觀任務(wù)中,例如智能照片編輯、優(yōu)化視覺質(zhì)量,或者在pipeline中發(fā)現(xiàn)視覺錯(cuò)誤。

背景

一般來說,圖像質(zhì)量評(píng)估可分為全參考和無參考兩種方法。如果作為參考的理想圖片可用,則就會(huì)使用諸如PSNR、SSIM等衡量圖像質(zhì)量的尺度。當(dāng)參考圖像不可用時(shí),無參考方法就會(huì)依靠統(tǒng)計(jì)模型來預(yù)測圖像質(zhì)量。這兩種方法的主要目標(biāo)是預(yù)測一個(gè)與人類感知十分相近的質(zhì)量分?jǐn)?shù)。在利用深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像質(zhì)量進(jìn)行評(píng)估時(shí),需要通過在與對(duì)象分類器相關(guān)的數(shù)據(jù)集上進(jìn)行訓(xùn)練(例如ImageNet),以初始化權(quán)重。然后對(duì)注釋數(shù)據(jù)進(jìn)行微調(diào),以進(jìn)行感知質(zhì)量評(píng)估任務(wù)。

NIMA

通常判斷一幅圖像是否有吸引力是將其分成高低兩種質(zhì)量。這忽略了一個(gè)事實(shí),即訓(xùn)練數(shù)據(jù)中的每個(gè)圖像都與人類評(píng)分的直方圖相關(guān)聯(lián),而非簡單的二分類。人類評(píng)價(jià)直方圖是評(píng)價(jià)圖像整體質(zhì)量的指標(biāo),也是所有打分者的平均數(shù)。而在我們的新方法中,NIMA模型不是簡單地將圖像分為高或低質(zhì)量,或者進(jìn)行回歸得到平均分,而是對(duì)任意給定的圖像產(chǎn)出評(píng)級(jí)分布——分?jǐn)?shù)從1到10,NIMA計(jì)算出各個(gè)分?jǐn)?shù)的可能性。這也與訓(xùn)練數(shù)據(jù)的來源相一致,并且當(dāng)與其他方法對(duì)比時(shí),我們的方法更勝一籌。

接著,就可以使用NIMA的向量分?jǐn)?shù)的各種功能按照吸引力排列圖像了。下面展示了利用NIMA排名的圖片,他們都來自AVA數(shù)據(jù)集。在測試中,AVA中的每張圖片都由200人共同評(píng)分,訓(xùn)練結(jié)束后,NIMA對(duì)這些圖片的美感排名與人類評(píng)分員的平均分?jǐn)?shù)非常接近。我們發(fā)現(xiàn)NIMA在其他數(shù)據(jù)集上表現(xiàn)同樣很出色,對(duì)圖像質(zhì)量的預(yù)測和人類接近。

AVA中帶有“風(fēng)景”標(biāo)簽的圖片排名。括號(hào)中是人類打分,括號(hào)外是NIMA的預(yù)測分?jǐn)?shù)

NIMA的分?jǐn)?shù)也可以比較經(jīng)過扭曲的圖片與原圖的質(zhì)量差別,以下是TID2013測試集的一部分,其中包含各種類型和級(jí)別的圖像失真。

圖像感知增強(qiáng)(Perceptual Image Enhancement)

正如我們?cè)诹硪黄撐闹兴岬降?,質(zhì)量和吸引力分?jǐn)?shù)也可以用來調(diào)整圖像增強(qiáng)operators。換句話說,將NIMA分?jǐn)?shù)最大化作為損失函數(shù)的一部分,能夠提升圖像增強(qiáng)的感知質(zhì)量。下圖中的例子表明,NIMA可以作為訓(xùn)練損失來調(diào)整色調(diào)增強(qiáng)算法。我們發(fā)現(xiàn)對(duì)美感的基準(zhǔn)評(píng)分可以通過NIMA的評(píng)分指導(dǎo)的對(duì)比調(diào)整來改善。因此,我們的模型能夠引導(dǎo)一個(gè)深度卷積神經(jīng)網(wǎng)絡(luò)濾波器,以找到參數(shù)中接近最佳設(shè)置的位置,例如亮度、高光和陰影。

用CNN和NIMA改變?cè)瓐D的色調(diào)和對(duì)比度

展望未來

NIMA的結(jié)果表明,基于機(jī)器學(xué)習(xí)的質(zhì)量評(píng)估模型可能用途非常廣泛。比如,我們可以讓用戶很輕易地找出最好的照片,甚至實(shí)現(xiàn)在用戶拍照時(shí)進(jìn)行實(shí)時(shí)反饋。在后期處理上,該模型可以產(chǎn)生更優(yōu)秀的結(jié)果。

簡單地說,NIMA以及其他類似的網(wǎng)絡(luò)可以滿足人類對(duì)圖像甚至視頻的審美,雖然還不夠完美,但已經(jīng)比較可行了。俗話說,蘿卜青菜各有所愛,每個(gè)人對(duì)一張照片的評(píng)價(jià)也各不相同,所以想要了解所有人的審美水平是非常困難的。但我們將繼續(xù)訓(xùn)練測試模型,期待有更多的成果。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:谷歌發(fā)布NIMA,一個(gè)有品位的CNN模型

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    從AlexNet到MobileNet,帶你入門深度神經(jīng)網(wǎng)絡(luò)

    深度神經(jīng)網(wǎng)絡(luò)運(yùn)用的方法。AlexNet在研發(fā)的時(shí)候,使用的GTX580僅有3GB的顯存,所以創(chuàng)造性的把模型拆解在兩顯卡中,架構(gòu)如下:1.第一層是卷積層,針對(duì)224x224x3的輸入圖片
    發(fā)表于 05-08 15:57

    利用工業(yè)相機(jī)聚焦過程采集的圖片,我們?cè)趺?b class='flag-5'>判斷圖最清晰?

    如題,我們們采集下來的圖片,用一個(gè)什么標(biāo)準(zhǔn)來判斷它們的清晰度,求指點(diǎn)?。。?/div>
    發(fā)表于 05-10 14:36

    大家是怎么壓榨CNN模型

    【技術(shù)綜述】為了壓榨CNN模型,這幾年大家都干了什么
    發(fā)表于 05-29 14:49

    卷積神經(jīng)網(wǎng)絡(luò)CNN介紹

    深度學(xué)習(xí)】卷積神經(jīng)網(wǎng)絡(luò)CNN
    發(fā)表于 06-14 18:55

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    嵌入式系統(tǒng)已被證明可以降低成本并增加各個(gè)行業(yè)的收入,包括制造工廠,供應(yīng)鏈管理,醫(yī)療保健等等。本文將介紹有關(guān)深度學(xué)習(xí)嵌入式系統(tǒng)的信息。深度學(xué)習(xí)模型是如何創(chuàng)建的?創(chuàng)建
    發(fā)表于 10-27 06:34

    一文詳解CNN

    數(shù)字識(shí)別,將數(shù)字平移到圖像另一個(gè)位置,被認(rèn)為是不同的圖片)2. 參數(shù)量太大,難以訓(xùn)練,容易陷入局部極值, 這樣便有了后來的CNN,CNN是減少模型尺寸的利器。 2
    發(fā)表于 08-18 06:56

    小米6新增黑、藍(lán)“幽雅”兩色,小米6款顏色最好看?

    隨著小米6越來越多的消息曝光,小米6的配置目前也已經(jīng)基本確定,小米6將會(huì)在國內(nèi)首發(fā)高通驍龍835處理器,驍龍835處理器比上一代驍龍821性能提升了30%。那么小米6有幾種顏色?小米6款顏色最好看呢?
    發(fā)表于 12-26 17:16 ?8000次閱讀

    基于FPGA的通用CNN加速設(shè)計(jì)

    基于FPGA的通用CNN加速器整體框架如下,通過Caffe/Tensorflow/Mxnet等框架訓(xùn)練出來的CNN模型,通過編譯器的一系列優(yōu)化生成模型對(duì)應(yīng)的指令;同時(shí),
    發(fā)表于 10-27 14:09 ?1w次閱讀
    基于FPGA的通用<b class='flag-5'>CNN</b>加速設(shè)計(jì)

    深度學(xué)習(xí)模型優(yōu)于人類醫(yī)生?

    2017年,Esteva等人發(fā)表論文,宣布他們創(chuàng)建了一種基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型,可以對(duì)圖片進(jìn)行分類,其中CNN無需被人類的標(biāo)準(zhǔn)所限制,它可以將數(shù)字
    的頭像 發(fā)表于 06-30 08:40 ?2798次閱讀
    <b class='flag-5'>深度</b>學(xué)習(xí)<b class='flag-5'>模型</b>優(yōu)于人類醫(yī)生?

    卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練步驟

    卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練步驟? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種常用的深度學(xué)習(xí)算法,廣泛應(yīng)用于圖像識(shí)別、語音識(shí)別、自然語言處理等諸多領(lǐng)域。C
    的頭像 發(fā)表于 08-21 16:42 ?2296次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測模型 生成卷積神經(jīng)網(wǎng)絡(luò)模型

    cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測模型 生成卷積神經(jīng)網(wǎng)絡(luò)模型? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN
    的頭像 發(fā)表于 08-21 17:11 ?1607次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型cnn的基本概念、結(jié)構(gòu)及原理

    深度神經(jīng)網(wǎng)絡(luò)模型CNN(Convolutional Neural Network)是一種廣泛應(yīng)用于圖像識(shí)別、視頻分析和自然語言處理等領(lǐng)域的深度學(xué)習(xí)
    的頭像 發(fā)表于 07-02 10:11 ?1.1w次閱讀

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過程及應(yīng)用領(lǐng)域

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。CNN
    的頭像 發(fā)表于 07-02 15:26 ?5798次閱讀

    圖像分割與語義分割中的CNN模型綜述

    圖像分割與語義分割是計(jì)算機(jī)視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個(gè)具有特定語義含義的區(qū)域或?qū)ο蟆>矸e神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型,在圖像分割與語義分割中發(fā)揮著至關(guān)重要的作用。本文將從
    的頭像 發(fā)表于 07-09 11:51 ?2062次閱讀

    cnn常用的幾個(gè)模型有哪些

    CNN(卷積神經(jīng)網(wǎng)絡(luò))是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、自然語言處理等領(lǐng)域。以下是一些常用的CNN模型: LeNet-5:LeNet-
    的頭像 發(fā)表于 07-11 14:58 ?1951次閱讀