chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

您好,歡迎來(lái)電子發(fā)燒友網(wǎng)! ,新用戶(hù)?[免費(fèi)注冊(cè)]

您的位置:電子發(fā)燒友網(wǎng)>源碼下載>數(shù)值算法/人工智能>

基于訓(xùn)練圖CNN特征的識(shí)別算法

大?。?/span>2.11 MB 人氣: 2018-01-19 需要積分:2

  視頻人體動(dòng)作識(shí)別一直是具有重要學(xué)術(shù)價(jià)值的研究領(lǐng)域。在傳統(tǒng)方法中,動(dòng)作特征和軌跡特征效果最為優(yōu)秀,改進(jìn)密集軌跡( Improved Dense Trajectories,IDT)特征在HMDB-51動(dòng)作庫(kù)上就可以達(dá)到57. 2%的準(zhǔn)確率,融合了IDT特征的組合特征可以在UCFI01動(dòng)作庫(kù)上達(dá)到89. 62%的準(zhǔn)確率。而只用了圖像RGB數(shù)據(jù)的空域卷積網(wǎng)絡(luò)模型僅能分別做到40. 5%和73. 0%。

  為將卷積神經(jīng)網(wǎng)絡(luò)( CNN)應(yīng)用到視頻理解中,提出一種基于訓(xùn)練圖CNN特征的識(shí)別算法。利用圖像RGB數(shù)據(jù)識(shí)別視頻人體動(dòng)作,使用現(xiàn)有的CNN模型從圖像中提取特征,并采用長(zhǎng)短記憶單元的遞歸神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練分類(lèi),研究CNN模型和隱層的選擇、優(yōu)化、特征矢量化和降維。實(shí)驗(yàn)結(jié)果表明,與使用圖像RGB數(shù)據(jù)注意力模型的算法和組合長(zhǎng)短期記憶模型算法相比,該算法具有更高的準(zhǔn)確率。

基于訓(xùn)練圖CNN特征的識(shí)別算法

非常好我支持^.^

(0) 0%

不好我反對(duì)

(0) 0%

      發(fā)表評(píng)論

      用戶(hù)評(píng)論
      評(píng)價(jià):好評(píng)中評(píng)差評(píng)

      發(fā)表評(píng)論,獲取積分! 請(qǐng)遵守相關(guān)規(guī)定!

      ?