chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TextTopicNet模型:以自監(jiān)督學(xué)習(xí)方式學(xué)習(xí)區(qū)別視覺特征

8g3K_AI_Thinker ? 來源:未知 ? 作者:工程師郭婷 ? 2018-07-31 17:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大規(guī)模帶標(biāo)注的數(shù)據(jù)集的出現(xiàn)是深度學(xué)習(xí)計算機視覺領(lǐng)域取得巨大成功的關(guān)鍵因素之一。然而,監(jiān)督式學(xué)習(xí)存在一個主要問題:過于依賴大規(guī)模數(shù)據(jù)集,而數(shù)據(jù)集的收集和手動數(shù)據(jù)標(biāo)注需要耗費大量的人力成本。

作為替代方案,自監(jiān)督學(xué)習(xí)旨在通過設(shè)計輔助任務(wù)來學(xué)習(xí)可區(qū)別性的視覺特征,如此,目標(biāo)標(biāo)簽就能夠自由獲取。這些標(biāo)簽?zāi)軌蛑苯訌挠?xùn)練數(shù)據(jù)或圖像中獲得,并為計算機視覺模型的訓(xùn)練提供監(jiān)督信息,這與監(jiān)督式學(xué)習(xí)的原理是相同的。但是不同于監(jiān)督式學(xué)習(xí)的是,自監(jiān)督學(xué)習(xí)方法通過挖掘數(shù)據(jù)的性質(zhì),從中學(xué)習(xí)并生成視覺特征的語義標(biāo)簽信息。還有一類方法是弱監(jiān)督學(xué)習(xí),這種學(xué)習(xí)方式能夠利用低水平的注釋信息來解決更復(fù)雜的計算機視覺任務(wù),如利用自然場景下每張圖像的類別標(biāo)簽進行目標(biāo)檢測任務(wù)。

我們的目標(biāo)是探索一種自監(jiān)督的解決方案,利用圖像和圖像之間的相關(guān)性來替代完全監(jiān)督式的 CNN訓(xùn)練。此外,我們還將探索非結(jié)構(gòu)化語言語義信息的強弱,并將其作為文本監(jiān)督信號來學(xué)習(xí)視覺特征。

我們擴展了之前提出的方法并展示了以自監(jiān)督的方式進行插圖文章的學(xué)習(xí),這能夠進一步擴展到更大的訓(xùn)練數(shù)據(jù)集(如整個英語維基百科)。

通過實驗,我們驗證了 TextTopicNet的表現(xiàn)優(yōu)于其他基準(zhǔn)評估中的自監(jiān)督或自然監(jiān)督的方法。此外,我們還在更具挑戰(zhàn)性的 SUN397數(shù)據(jù)集上測試了我們的方法,結(jié)果表明 TextTopicNet能夠減少自監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)之間的性能差距。

我們展示了將上下文的文本表征用于模型的訓(xùn)練,這能夠有助于網(wǎng)絡(luò)自動學(xué)習(xí)多模態(tài)的語義檢索。在圖像——文本的檢索任務(wù)中,TextTopicNet的表現(xiàn)超過了無監(jiān)督學(xué)習(xí)的方法,而與監(jiān)督學(xué)習(xí)的方法相比,我們的方法能夠在無需任何特定類別信息的情況下還能表現(xiàn)出有競爭力的性能。

在自監(jiān)督學(xué)習(xí)設(shè)置下,我們對不同的文本嵌入方法進行了對比分析,如word2vec,GloVe,F(xiàn)astText,doc2vec等。

此外,我們還公開發(fā)布了我們所收集的數(shù)據(jù)集,該數(shù)據(jù)集采自整個英語維基百科,由 420 萬個圖像組成,每張圖像都有對應(yīng)的文字描述信息。

維基圖像——文本數(shù)據(jù)集

我們以維基百科作為數(shù)據(jù)的來源,這是一個基于網(wǎng)絡(luò)的多語言的百科全書項目,目前有 4000 多萬篇文章,含 299 種不同語言。維基百科文章通常由文字及其他多媒體類型的對象(如圖像,音頻或視頻文件)組成,因此可以將其視為多模態(tài)的文檔數(shù)據(jù)。對于我們的實驗,我們使用兩個不同的維基百科文章集合:(a) ImageCLEF 2010維基百科數(shù)據(jù)集;(b)我們所收集的英語維基百科圖像——文本數(shù)據(jù)集,包含 420 萬圖像文本對組成的數(shù)據(jù),下圖1展示了 11 種類別的文章分布情況。

TextTopicNet模型:以自監(jiān)督學(xué)習(xí)方式學(xué)習(xí)區(qū)別視覺特征

圖1英語維基百科種11種類別的文章分布情況

TextTopicNet

我們提出了一種 TextTopicNet的方法,通過挖掘大規(guī)模多模態(tài)網(wǎng)絡(luò)文檔的大規(guī)模語料庫(如維基百科文章),以自監(jiān)督的方式來學(xué)習(xí)視覺特征。在自監(jiān)督學(xué)習(xí)設(shè)置下,TextTopicNet能夠使用免費可用的非結(jié)構(gòu)化、多模態(tài)的內(nèi)容來學(xué)習(xí)可區(qū)別的視覺特征,并在給定圖像的下,通過訓(xùn)練 CNN來預(yù)測可能插圖的語義環(huán)境。我們的方法示意圖如下圖 2 所示,該方法采用一個文本嵌入算法來獲取文本部分的向量表征,然后將該表征作為 CNN視覺特征學(xué)習(xí)的一種監(jiān)督信號。我們進一步使用多種類別的文檔以及詞級(word-level)的文本嵌入方法,發(fā)現(xiàn)通過 LDA主題模型框架發(fā)現(xiàn)的隱藏語義結(jié)構(gòu),能夠在主題層面最佳地展現(xiàn)文本信息。

TextTopicNet模型:以自監(jiān)督學(xué)習(xí)方式學(xué)習(xí)區(qū)別視覺特征

圖2 方法概覽。維基百科文章包含一個主題的文本描述,這些文章同時也附有支持文本的插圖。文本嵌入框架能夠與文本信息相關(guān)的全局上下文表征。而整篇文章的這種文本表征向量被用于為 CNN的訓(xùn)練提供自監(jiān)督信號

如圖 3 所示,作為主題層面的語義描述器,需要大量可用的關(guān)于特定類別或細粒度類別的視覺數(shù)據(jù)。雖然在我們收集的數(shù)據(jù)中,這類數(shù)據(jù)非常有限,但是這很容易在更廣泛的目標(biāo)類別(如哺乳動物)中找到足夠多的、有代表性的圖像。因此,在給定的目標(biāo)主題情況下,我們的方法能夠?qū)W習(xí)到期望的視覺特征,這種特征是通用的,即同樣適用于其他特定的計算機視覺任務(wù)。

圖 3 描述特定實體的維基百科文章。如 (a) 中“羚羊”或 (b) 中的“馬”,每個實體通常包含五張圖像。對于一些特定實體,如 (c)中的“食草哺乳動物”,相關(guān)的圖像很容易就達到數(shù)百或成千上萬張。

我們還訓(xùn)練一個 CNN模型,它能夠直接將圖像投影到文本的語義空間,而 TextTopicNet不僅能夠在無需任何標(biāo)注信息的情況下從頭開始學(xué)習(xí)數(shù)據(jù)的視覺特征,還可以以自然的方式進行多模態(tài)的檢索,而無需額外的注釋或?qū)W習(xí)成本。

實驗

我們通過大量的實驗來展示 TextTopicNet模型所學(xué)習(xí)到的視覺特征質(zhì)量。衡量的標(biāo)準(zhǔn)是所習(xí)得的視覺特征具有足夠好的可區(qū)別性和魯棒性,并能進一步適用于那些未見過的類別數(shù)據(jù)。

首先,為了驗證圖像—文本對的自監(jiān)督學(xué)習(xí),我們比較了各種文本嵌入方法。其次,我們在 PASCAL VOC 2007 數(shù)據(jù)集的圖像分類任務(wù)中對 TextTopicNet模型每層的特征進行基準(zhǔn)分析,以找到了 LDA模型的最佳主題數(shù)量。然后,我們分別在 PASCAL、SUN397和 STL-10數(shù)據(jù)集的圖像分類和檢測任務(wù)中進一步與當(dāng)前最佳的自監(jiān)督方法和無監(jiān)督方法進行了比較。最后,我們利用維基百科檢索數(shù)據(jù)集對我們的方法進行了圖像檢索和文本查詢實驗。

自監(jiān)督視覺特征學(xué)習(xí)的文本嵌入算法比較

在自監(jiān)督視覺特征學(xué)習(xí)的設(shè)置下,我們對 word2vec,GloVe,F(xiàn)astText,doc2vec及 LDA算法進行了比較分析。對于每種文本嵌入方法,我們都將訓(xùn)練一個 CNN模型并利用網(wǎng)絡(luò)不同層獲得的特征信息去學(xué)習(xí)一個一對多的SVM (one-vs-all SVM)。下表1顯示了在 PASCAL VOC2007數(shù)據(jù)集中,使用不同文本嵌入方法,模型所展現(xiàn)的分類性能。我們觀察到在自監(jiān)督的視覺特征學(xué)習(xí)任務(wù)中,基于嵌入的 LDA方法展現(xiàn)了最佳全局表現(xiàn)。

表1:使用不同文本嵌入方法的 TextTopicNet模型在 PASCAL VOC2007數(shù)據(jù)集圖像分類任務(wù)上的性能表現(xiàn)(%mAP)

TextTopicNet模型:以自監(jiān)督學(xué)習(xí)方式學(xué)習(xí)區(qū)別視覺特征

LDA模型的超參數(shù)設(shè)置

我們用 ImageCLEF Wikipedia數(shù)據(jù)集上 35582 篇文章訓(xùn)練了一個 LDA 模型,以確定 LDA模型的主題數(shù)量。下圖4展示了實驗結(jié)果,我們可以看到擁有 40 個主題數(shù)的 LDA模型能夠獲得最佳的 SVM驗證準(zhǔn)確性。

TextTopicNet模型:以自監(jiān)督學(xué)習(xí)方式學(xué)習(xí)區(qū)別視覺特征

圖4隨著 LDA主題數(shù)量的變化,PASCAL VOC2007數(shù)據(jù)集上 One vs. Rest線性 SVM所取得的驗證準(zhǔn)確性(%mAP)

圖像分類和圖像檢測

我們分別在 PASCAL、SUN397和 STL-10數(shù)據(jù)集進行圖像分類和檢測任務(wù),比較并分析 TextTopicNet以及當(dāng)前最佳的自監(jiān)督和無監(jiān)督模型的表現(xiàn)。下表 2、3和4 分別展示各模型在 PASCAL VOC 2007、SUN397和 STL-10數(shù)據(jù)集上的分類表現(xiàn),表 5 展示了在 PASCAL VOC 2007數(shù)據(jù)集上模型的檢測性能。

表 2 PASCAL VOC2007數(shù)據(jù)集上各模型的分類表現(xiàn)(%mAP)

TextTopicNet模型:以自監(jiān)督學(xué)習(xí)方式學(xué)習(xí)區(qū)別視覺特征

表 3 SUN397數(shù)據(jù)集上各模型的分類表現(xiàn)(%mAP)

TextTopicNet模型:以自監(jiān)督學(xué)習(xí)方式學(xué)習(xí)區(qū)別視覺特征

表 4 STL-10數(shù)據(jù)集上各模型的分類表現(xiàn)(%mAP)

TextTopicNet模型:以自監(jiān)督學(xué)習(xí)方式學(xué)習(xí)區(qū)別視覺特征

表 5 PASCAL VOC 2007數(shù)據(jù)集上各模型的檢測表現(xiàn)(%mAP)

TextTopicNet模型:以自監(jiān)督學(xué)習(xí)方式學(xué)習(xí)區(qū)別視覺特征

圖像檢索和文本查詢

我們還在多模態(tài)檢索任務(wù)中評估所習(xí)得的自監(jiān)督視覺特征:(1)圖像查詢與文本數(shù)據(jù)庫; (2)文本查詢與圖像數(shù)據(jù)庫。我們使用維基百科檢索數(shù)據(jù)集,由2,866 個圖像文檔對組成,包含 2173 和 693 對訓(xùn)練和測試數(shù)據(jù)。每個圖像--文本對數(shù)據(jù)都帶有其語義標(biāo)簽。下表 6 展示了監(jiān)督和無監(jiān)督學(xué)習(xí)方法在多模態(tài)檢索任務(wù)中的表現(xiàn),其中監(jiān)督學(xué)習(xí)的方法能夠利用與類別相關(guān)的每個圖像--文本對信息,而無監(jiān)督學(xué)習(xí)方法則不能。

表 8維基數(shù)據(jù)集上各監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)方法的表現(xiàn)(%mAP)

TextTopicNet模型:以自監(jiān)督學(xué)習(xí)方式學(xué)習(xí)區(qū)別視覺特征

圖 4 顯示了與給定查詢圖像(最左側(cè))最接近的 4 張圖像,其中每行使用的是 TextTopicNet模型不同層次獲得的特征,從上到下:prob,fc7,fc6,pool5層。這些查詢圖像是從 PASCAL VOC 2007中隨機選擇的,且從未在訓(xùn)練時出現(xiàn)過。

圖4與查詢圖像(最左側(cè))最相近的4張圖像

圖 5顯示了在 TextTopicNet主題空間中,與給定查詢文本最接近的 12 個查詢內(nèi)容??梢钥吹?,對于第一條查詢文本(“飛機”),所檢索到的圖像列表幾乎是其相同的同義詞,如“flight”,“airway”或“aircraft”。利用文本的語義信息,我們的方法能夠?qū)W習(xí)多義詞的圖像表示。此外,TextTopicNet模型還能夠處理語義文本查詢,如檢索(“飛機”+ “戰(zhàn)斗機”或“飛行”+“天空”)等。

圖 5與不同文本查詢最接近的12個查詢內(nèi)容

結(jié)論

在本文中,我們提出了一種自監(jiān)督學(xué)習(xí)方法,用于學(xué)習(xí) LDA模型的文本主題空間。該方法 TextTopicNet能夠在無監(jiān)督設(shè)置下,利用多模態(tài)數(shù)據(jù)的優(yōu)勢,學(xué)習(xí)并訓(xùn)練計算機視覺算法。將文章插圖中的文字視為噪聲圖像標(biāo)注信息,我們的方法能夠通過視覺特征的學(xué)習(xí),訓(xùn)練 CNN模型并預(yù)測在特定的上下文語義中最可能出現(xiàn)的插圖。

我們通過實驗證明我們方法的有效性,并可以擴展到更大、更多樣化的訓(xùn)練數(shù)據(jù)集。此外,TextTopicNet模型學(xué)到了視覺特征不僅適用于廣泛的主題,而且還能將其應(yīng)用到更具體、復(fù)雜的計算機視覺任務(wù),如圖像分類,物體檢測和多模態(tài)檢索。與現(xiàn)有的自監(jiān)督或無監(jiān)督方法相比,我們方法的表現(xiàn)更優(yōu)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機
    +關(guān)注

    關(guān)注

    19

    文章

    7728

    瀏覽量

    92397
  • 視覺特征
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    5406

原文標(biāo)題:CMU最新視覺特征自監(jiān)督學(xué)習(xí)模型——TextTopicNet

文章出處:【微信號:AI_Thinker,微信公眾號:人工智能頭條】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛中常提的“強化學(xué)習(xí)”是個啥?

    下,就是一個智能體在環(huán)境里行動,它能觀察到環(huán)境的一些信息,并做出一個動作,然后環(huán)境會給出一個反饋(獎勵或懲罰),智能體的目標(biāo)是把長期得到的獎勵累積到最大。和監(jiān)督學(xué)習(xí)不同,強化學(xué)習(xí)沒有一一對應(yīng)的“正確答案”給它看,而是靠與環(huán)境交互、自我探索來發(fā)現(xiàn)
    的頭像 發(fā)表于 10-23 09:00 ?145次閱讀
    自動駕駛中常提的“強化<b class='flag-5'>學(xué)習(xí)</b>”是個啥?

    任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進來呢?

    的基本理論。了解監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)的基本原理。例如,在監(jiān)督學(xué)習(xí)中,理解如何通過標(biāo)注數(shù)據(jù)來訓(xùn)練模型進行分類或回歸任務(wù),像通過大量的
    發(fā)表于 07-08 17:44

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)

    教育等領(lǐng)域發(fā)揮著越來越重要的作用。?針對日前前來咨詢的廣大客戶對面向大模型智能硬件的學(xué)習(xí)需求,我們根據(jù)CSK6大模型語音視覺開發(fā)板已有功能,整理了一份適合基于本開發(fā)板進行教學(xué)活動的
    發(fā)表于 07-04 11:10

    使用MATLAB進行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進行推斷的機器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1045次閱讀
    使用MATLAB進行無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>

    機器學(xué)習(xí)模型市場前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計算能力的飛速提升,機器學(xué)習(xí)模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機器學(xué)習(xí)模型市場的未來發(fā)展。
    的頭像 發(fā)表于 02-13 09:39 ?529次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率是提高模型訓(xùn)練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的方法: 一、理解學(xué)習(xí)率的重要性 學(xué)習(xí)率決定了
    的頭像 發(fā)表于 02-12 15:51 ?1314次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    分配方式,并采用VFL+GloU替代CELoss+IoU作為損失函數(shù),從而提高模型的訓(xùn)練效果。 激活函數(shù)和學(xué)習(xí)率策略: 將 H-Swish 替代 Relu 作為激活函數(shù),采用 cosine 學(xué)
    發(fā)表于 12-19 14:33

    cmp在機器學(xué)習(xí)中的作用 如何使用cmp進行數(shù)據(jù)對比

    比較,我們可以確定哪個模型更適合特定的數(shù)據(jù)集和任務(wù)。 特征選擇 :比較不同特征模型性能的影響,選擇最有信息量的
    的頭像 發(fā)表于 12-17 09:35 ?1216次閱讀

    構(gòu)建云原生機器學(xué)習(xí)平臺流程

    構(gòu)建云原生機器學(xué)習(xí)平臺是一個復(fù)雜而系統(tǒng)的過程,涉及數(shù)據(jù)收集、處理、特征提取、模型訓(xùn)練、評估、部署和監(jiān)控等多個環(huán)節(jié)。
    的頭像 發(fā)表于 12-14 10:34 ?615次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),其靈感來源于生物的視覺皮層機制。它通過模擬人類視覺系統(tǒng)的處理方式,能夠自動提取圖像特征,從而在圖像識別和分類任務(wù)中表現(xiàn)出色。 卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)
    的頭像 發(fā)表于 11-15 14:52 ?1099次閱讀

    時空引導(dǎo)下的時間序列監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個組織聯(lián)合發(fā)布了一篇時間序列無監(jiān)督預(yù)訓(xùn)練的文章,相比原來的TS2Vec等時間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?1086次閱讀
    時空引導(dǎo)下的時間序列<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    深度學(xué)習(xí)模型的魯棒性優(yōu)化

    深度學(xué)習(xí)模型的魯棒性優(yōu)化是一個復(fù)雜但至關(guān)重要的任務(wù),它涉及多個方面的技術(shù)和策略。以下是一些關(guān)鍵的優(yōu)化方法: 一、數(shù)據(jù)預(yù)處理與增強 數(shù)據(jù)清洗 :去除數(shù)據(jù)中的噪聲和異常值,這是提高模型魯棒性的基礎(chǔ)步驟
    的頭像 發(fā)表于 11-11 10:25 ?1850次閱讀

    LLM和傳統(tǒng)機器學(xué)習(xí)區(qū)別

    和訓(xùn)練方法 LLM: 預(yù)訓(xùn)練和微調(diào): LLM通常采用預(yù)訓(xùn)練(Pre-training)和微調(diào)(Fine-tuning)的方法。預(yù)訓(xùn)練階段,模型在大規(guī)模的文本數(shù)據(jù)上學(xué)習(xí)語言的通用特征,微調(diào)階段則針對特定任務(wù)進行
    的頭像 發(fā)表于 11-08 09:25 ?2559次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)的核心應(yīng)用領(lǐng)域之一,GPU在加速圖像識別模型訓(xùn)練方面發(fā)揮著關(guān)鍵作用。通過利用GP
    的頭像 發(fā)表于 10-27 11:13 ?1965次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1564次閱讀