chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學習的目標檢測來實現(xiàn)監(jiān)控系統(tǒng)的快速教程

電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-08-11 10:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導讀】這是一篇關(guān)于使用基于深度學習的目標檢測來實現(xiàn)監(jiān)控系統(tǒng)的快速教程。在教程中通過使用 GPU處理器來比較不同目標檢測模型在行人檢測上的性能。

監(jiān)控是安保和巡邏的一個組成部分,大多數(shù)情況下,這項工作都是在長時間去觀察發(fā)現(xiàn)那些我們不愿意發(fā)生的事情。然而突發(fā)事件發(fā)生的低概率性無法掩蓋監(jiān)控這一平凡工作的重要性,這個工作甚至是至關(guān)重要的。

如果有能夠代替我們?nèi)プ觥暗却捅O(jiān)視”突發(fā)事件的工具那就再好不過了。幸運的是,這些年隨著技術(shù)的進步,我們已經(jīng)可以編寫一些腳本來自動執(zhí)行監(jiān)控這一項任務。在深入探究之前,需要我們先考慮兩個問題。

機器是否已經(jīng)達到人類的水平?

任何熟悉深度學習的人都知道圖像分類器的準確度已經(jīng)趕超人類。圖1顯示了近幾年來對于人類、傳統(tǒng)計算機視覺 (CV) 和深度學習在 ImageNet 數(shù)據(jù)集上的分類錯誤率。

圖 1 人類、深度學習和 CV 在 ImageNet 上分類錯誤率

與人類相比,機器可以更好地監(jiān)視目標,使用機器進行監(jiān)視效率更高,其優(yōu)點可總結(jié)如下:

重復的任務會導致人類注意力的下降,而使用機器進行監(jiān)視時并無這一煩惱,我們可以把更多的精力放在處理出現(xiàn)的突發(fā)事件上面。

當要監(jiān)視的范圍較大時,需要大量的人員,固定相機的視野也很有限。但是通過移動監(jiān)控機器人 (如微型無人機) 就能解決這一問題。

此外,同樣的技術(shù)可用于各種不受限于安全性的應用程序,如嬰兒監(jiān)視器或自動化產(chǎn)品交付。

那我們該如何實現(xiàn)自動化?

在我們討論復雜的理論之前,先讓我們看一下監(jiān)控的正常運作方式。我們在觀看即時影像時,如果發(fā)現(xiàn)異常就采會取行動。因此我們的技術(shù)也應該通過仔細閱讀視頻的每一幀來發(fā)現(xiàn)異常的事物,并判斷這一過程是否需要報警。

大家可能已經(jīng)知道了,這個過程實現(xiàn)的本質(zhì)是通過目標檢測定位,它與分類不同,我們需要知道目標的確切位置,而且在單個圖像中可能有多個目標。為了更好的區(qū)分我們舉了一個簡單形象的例子如圖2所示。

圖2 分類、定位、檢測和分割的示例圖

為了找到確切的位置,我們的算法應該檢查圖像的每個部分,以找到某類的存在。自2014年以來,深度學習的持續(xù)迭代研究引入了精心設(shè)計的神經(jīng)網(wǎng)絡(luò),它能夠?qū)崟r檢測目標。圖3顯示了近兩年R-CNN、Fast R-CNN 和 Faster R-CNN 三種模型的檢測性能。

圖3 R-CNN、Fast R-CNN 和 Faster R-CNN 性能

這里有幾種在內(nèi)部使用的不同方法來執(zhí)行相同任務的深度學習框架。其中最流行的是 Faster-RCNN、YOLO 和 SSD。圖4展示了 Faster R-CNN、R-FCN 和 SSD 的檢測性能。

圖4 Faster R-CNN、R-FCN 和 SSD 的檢測性能,速度與準確性的權(quán)衡,更高的 mpA 和更低的 GPU 時間是最佳的。

每個模型都依賴于基礎(chǔ)分類器,這極大影響了最終的準確性和模型大小。此外,目標檢測器的選擇會嚴重影響計算復雜性和最終精度。在選擇目標檢測算法時,速度、精度和模型大小的權(quán)衡關(guān)系始終存在著。

在有了上面的學習了解后,接下來我們將學習如何使用目標檢測構(gòu)建一個簡單而有效的監(jiān)控系統(tǒng)。

我們先從由監(jiān)視任務的性質(zhì)而引起的限制約束開始討論起。

深度學習在監(jiān)控中的限制

在實現(xiàn)自動化監(jiān)控之前,我們需要考慮以下幾個因素:

1.即時影像

為了在大范圍內(nèi)進行觀察,我們可能需要多個攝像頭。而且,這些攝像頭需要有可用來存儲數(shù)據(jù)的地方 (本地或遠程位置)。圖5為典型的監(jiān)控攝像頭。

圖5 典型的監(jiān)控攝像頭

高質(zhì)量的視頻比低質(zhì)量的視頻要占更多的內(nèi)存。此外,RGB 輸入流比 BW 輸入流大3倍。由于我們只能存儲有限數(shù)量的輸入流,故通常情況下我們會選擇降低質(zhì)量來保證最大化存儲。

因此,可推廣的監(jiān)控系統(tǒng)應該能夠解析低質(zhì)量的圖像。同時我們的深度學習算法也必須在低質(zhì)量的圖像上進行訓練。

2.處理能力

在哪里處理從相機源獲得的數(shù)據(jù)是另一個大問題。通常有兩種方法可以解決這一問題。

集中式服務器處理

來自攝像機的視頻流在遠程服務器或集群上逐幀處理。這種方法很強大,使我們能夠從高精度的復雜模型中獲益。但這種方法的缺點是有延遲。此外,如果不用商業(yè) API,則服務器的設(shè)置和維護成本會很高。圖6顯示了三種模型隨著推理時間的增長內(nèi)存的消耗情況。

圖6 內(nèi)存消耗與推理時間(毫秒),大多數(shù)高性能模型都會占用大量內(nèi)存

分散式邊緣處理

通過附加一個微控制器來對相機本身進行實時處理。優(yōu)點在于沒有傳輸延遲,發(fā)現(xiàn)異常時還能更快地進行反饋,不會受到 WiFi 或藍牙的限制 (如 microdrones)。缺點是微控制器沒有 GPU 那么強大,因此只能使用精度較低的模型。使用板載 GPU 可以避免這一問題,但是太過于昂貴。圖 7 展示了目標檢測器 FPS 的性能。

圖 7 各類目標檢測器 FPS 的性能

訓練監(jiān)控系統(tǒng)

在接下來的內(nèi)容里我們將會嘗試如何使用目標檢測進行行人識別。使用 TensorFlow 目標檢測 API 來創(chuàng)建目標檢測模塊,我們還會簡要的闡述如何設(shè)置 API 并訓練它來執(zhí)行監(jiān)控任務。整個過程可歸納為三個階段 (流程圖如圖8所示):

數(shù)據(jù)準備

訓練模型

推論

圖8 目標檢測模型的訓練工作流程

▌第1階段:數(shù)據(jù)準備

第一步:獲取數(shù)據(jù)集

監(jiān)控錄像是獲取最準確數(shù)據(jù)集的來源。但是,在大多數(shù)情況下,想要獲取這樣的監(jiān)控錄像并不容易。因此,我們需要訓練我們的目標檢測器使其能從普通圖像中識別出目標。

圖9 從數(shù)據(jù)集中提取出帶標注的圖像

正如前面所說,我們的圖像質(zhì)量可能較差,所以所訓練的模型必須適應在這樣的圖像質(zhì)量下進行工作。我們對數(shù)據(jù)集中的圖像 (如圖9所示) 添加一些噪聲或者嘗試模糊和腐蝕的手段,來降低數(shù)據(jù)集中的圖片質(zhì)量。

在目標檢測任務中,我們使用了 TownCentre 數(shù)據(jù)集。使用視頻的前3600幀進行訓練,剩下的900幀用于測試。

第二步:圖像標注

使用像 LabelImg 這樣的工具進行標注,這項工作雖然乏味但也同樣很重要。我們將標注完的圖像保存為 XML 文件。

第三步:克隆存儲庫

運行以下命令以安裝需求文件,編譯一些 Protobuf 庫并設(shè)置路徑變量

pipinstall-rrequirements.txtsudoapt-getinstallprotobuf-compilerprotocobject_detection/protos/*.proto--python_out=.exportPYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim

第四步:準備所需的輸入

首先,我們需要給每個目標一個標簽,并將文件中每個標簽表示為如下所示的label_map.pbtxt

item{id:1name:‘target’}

接下來,創(chuàng)建一個包含 XML 和圖像文件名稱的文本文件。例如,如果數(shù)據(jù)集中有 img1.jpg, img2.jpg, 和 img1.xml, img2.xml ,則 trainval.txt 文件的表示應如下所示:

img1img2

將數(shù)據(jù)集分為兩個文件夾 (圖像與標注)。將 label_map.pbtx 和 trainval.txt放在標注文件夾中,然后在標注文件夾中創(chuàng)建一個名為 xmls 的子文件夾,并將所有 XML 文件放入該子文件夾中。目錄層次結(jié)構(gòu)應如下所示:

-base_directory|-images|-annotations||-xmls||-label_map.pbtxt||-trainval.txt

第五步:創(chuàng)建 TF 記錄

API 接受 TPRecords 文件格式的輸入。使用 creat_tf_record.py 文件將數(shù)據(jù)集轉(zhuǎn)換為 TFRecords。我們應該在 base directory 中執(zhí)行以下命令:

pythoncreate_tf_record.py--data_dir=`pwd`--output_dir=`pwd`

在該程序執(zhí)行完后,我們可以獲取 train.record 和 val.record 文件。

▌第2階段:訓練模型

第1步:模型選擇

如前所述,速度與準確度兩者不可得兼,從頭開始創(chuàng)建和訓練目標檢測器是非常耗時的。因此, TensorFlow 目標檢測 API 提供了一系列預先訓練好的模型,我們可以根據(jù)自己的使用情況進行微調(diào),該過程稱為遷移學習,它可以大大提高我們的訓練速度。

圖10 MS COCO 數(shù)據(jù)集中一組預訓練過的模型

從圖 10 中下載一個模型,并將內(nèi)容解壓縮到 base directory 中??色@取模型檢查點,固定推理圖和 pipeline.config 文件。

第2步:定義訓練工作

我們必須在 pipleline.config 文件中定義“訓練工作”,并將該文件放到 base directory 中。該文件中最重要的是后幾行——我們只需將突出顯示的值放到各自的位置。

gradient_clipping_by_norm:10.0fine_tune_checkpoint:"model.ckpt"from_detection_checkpoint:truenum_steps:200000}train_input_reader{label_map_path:"annotations/label_map.pbtxt"tf_record_input_reader{input_path:"train.record"}}eval_config{num_examples:8000max_evals:10use_moving_averages:false}eval_input_reader{label_map_path:"annotations/label_map.pbtxt"shuffle:falsenum_epochs:1num_readers:1tf_record_input_reader{input_path:"val.record"}}

第3步:開始訓練

執(zhí)行以下命令以啟動訓練工作,建議使用具有足夠大的 GPU 計算機,以便加快訓練過程。

pythonobject_detection/train.py--logtostderr--pipeline_config_path=pipeline.config--train_dir=train

▌第3階段:推論

第1步:導出訓練模型

在模型使用之前,需要將訓練好的檢查點文件導出到固定推理圖上,實現(xiàn)這個過程并不困難,只需要執(zhí)行以下代碼 (用檢查點替換“xxxxx”)

pythonobject_detection/export_inference_graph.py--input_type=image_tensor--pipeline_config_path=pipeline.config--trained_checkpoint_prefix=train/model.ckpt-xxxxx--output_directory=output

該程序執(zhí)行完后,我們可得到 frozen_inference_graph.pb 以及一堆檢查點文件。

第2步:在視頻流上使用

我們需要從視頻源中提出每一幀,這可以使用 OpenCV 的 VideoCapture 方法完成,代碼如下所示:

cap=cv2.VideoCapture()flag=Truewhile(flag):flag,frame=cap.read()##--ObjectDetectionCode--

第一階段使用的數(shù)據(jù)提取代碼會使我們的測試集圖像自動創(chuàng)建“test_images”文件夾。我們的模型可以通過執(zhí)行以下命令在測試集上進行工作:

pythonobject_detection/inference.py--input_dir={PATH}--output_dir={PATH}--label_map={PATH}--frozen_graph={PATH}--num_output_classes=1--n_jobs=1--delay=0

實驗

正如前面所講到的,在選擇目標檢測模型時,速度與準確度不可得兼。對此我們進行了一些實驗,測量使用三種不同的模型檢測到人的 FPS 和數(shù)量精確度。此外,我們的實驗是在不同的資源約束 (GPU并行約束) 條件下操作的。

▌設(shè)置

我們的實驗選擇了以下的模型,這些模型可以在 TensorFlow 目標檢測API 的Zoo 模塊中找到。

Faster RCNN with ResNet 50

SSD with MobileNet v1

SSD with InceptionNet v2

所有的模型都在 Google Colab 上進行了 10k 步訓練,通過比較模型檢測到的人數(shù)與實際人數(shù)之間的接近程度來衡量計數(shù)準確度。在一下約束條件下測試 FPS 的推理速度。

Single GPU

Two GPUs in parallel

Four GPUs in parallel

Eight GPUs in parallel

結(jié)果

下面的 GIF是我們在測試集上使用 FasterRCNN 輸出的片段。

▌訓練時間

圖11展示了以10 k步 (單位:小時) 訓練每個模型所需的時間 (不包括參數(shù)搜索所需要的時間)

圖11 各模型訓練所需時間

▌速度 (每秒幀數(shù))

在之前的實驗中,我們測量了3種模型在5種不同資源約束下的 FPS 性能,其測量結(jié)果如圖12所示:

圖12 使用不同 GPU 數(shù)量下的 FPS 性能

當我們使用單個 GPU 時,SSD速度非??欤p松超越 FasterRCNN 的速度。但是當 GPU 個數(shù)增加時,F(xiàn)asterRCNN 很快就會追上 SSD 。

為了證明我們的結(jié)論:視頻處理系統(tǒng)的速度不能高于圖像輸入系統(tǒng)的速度,我們優(yōu)先讀取圖像。圖13展示了添加延遲后帶有 NobileNet +SSD 的 FPS 改進狀況,從圖13中可看出當我們加入延遲后,F(xiàn)PS 迅速增加。

圖13 增加不同延遲后模型的 FPS 改進狀況

▌計數(shù)準確性

我們將計數(shù)準確度定義為目標檢測系統(tǒng)正確識別出人臉的百分比。圖14是我們每個模型精確度的表現(xiàn),從圖14中可看出 FasterRCNN 是準確度最高的模型,MobileNet 的性能優(yōu)于 InceptionNet。

圖 14 各模型計數(shù)精確度

Nanonets

看到這里相信大家都有一個共同的感受——步驟太多了吧!是的,如果是這樣的一個模型在實際工作即繁重又昂貴。

為此,更好的解決方案就是使用已部署在服務器上的 API 服務。Nanonets 就提供了這樣的一個 API,他們將 API 部署在帶有 GPU 的高質(zhì)量硬件上,以便開發(fā)者不用為性能而困擾。

Nanonets可以減少工作的流程的方法在于:我將現(xiàn)有的 XML 注釋轉(zhuǎn)換成 JSON 格式并提供給NanonetsAPI。所以當不想進行手動注釋數(shù)據(jù)集時,可以直接請求NanonetsAPI來為數(shù)據(jù)添加注釋。

上圖表示為減少后的工作流程

Nanonets 的訓練時間大約花了 2 個小時,就訓練時間而言,Nanonets是明顯的贏家,并且在準確性方面Nanonets也擊敗了 FasterRCNN。

FasterRCNNCountAccuracy=88.77%NanonetsCountAccuracy=89.66%

下面展現(xiàn)了我們的測試數(shù)據(jù)集中四個模型的性能。顯然,兩種 SSD 模型都有點不穩(wěn)定并且精度較低。盡管 FasterRCNN 和 Nanonets 都有較高的精準度,但Nanonets具有更穩(wěn)定的邊界框。

自動監(jiān)控的可信度有多高?

深度學習是一種令人驚嘆的工具。但是我們在多大程度上可以信任我們的監(jiān)控系統(tǒng)并自動采取行動?在以下幾個情況下,自動化過程時需要引起注意。

▌可疑的結(jié)論

我們不知道深度學習算法是如何得出結(jié)論的。即使數(shù)據(jù)的饋送過程很完美,也可能存在大量虛假的成功例子。雖然引導反向傳播在一定程度上可以解釋決策,但是關(guān)于這方面的研究還有待我們進一步的研究。

▌對抗性攻擊

深度學習系統(tǒng)很脆弱,對抗性攻擊類似于圖像的視錯覺。計算出的不明顯干擾會迫使深度學習模型分類失誤。使用相同的原理,研究人員已經(jīng)能夠通過使用 adversarial glasses 來規(guī)避基于深度學習的監(jiān)控系統(tǒng)。

▌誤報

另一個問題是,如果出現(xiàn)誤報我們該怎么做。該問題的嚴重程度取決于應用程序本身。例如邊境巡邏系統(tǒng)的誤報可能比花園監(jiān)控系統(tǒng)更重要。

▌相似的面孔

外觀并不像指紋一樣獨一無二,同卵雙胞胎是最好的一個例子。這會帶來恨大的干擾。

▌數(shù)據(jù)集缺乏多樣性

深度學習算法的好壞和數(shù)據(jù)集有很大關(guān)聯(lián),Google 曾將一個黑人錯誤歸類為大猩猩。

注:鑒于 GDPR 和以上原因,關(guān)于監(jiān)控自動化的合法性和道德性問題是不可忽視的。此教程也是出于并僅用于學習分享目的。在教程中使用的公開數(shù)據(jù)集,所以在使用過程中有責任確保它的合法性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 監(jiān)控系統(tǒng)

    關(guān)注

    21

    文章

    4127

    瀏覽量

    183909
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1713

    瀏覽量

    47330
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5586

    瀏覽量

    123645

原文標題:如何通過深度學習輕松實現(xiàn)自動化監(jiān)控?

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Nanopi深度學習之路(1)深度學習框架分析

    就能實現(xiàn)!還請關(guān)注我后面的日記。實際上我也是剛剛有時間學習深度學習,我是個純初學者,但面對深度學習
    發(fā)表于 06-04 22:32

    深度學習實現(xiàn)目標檢測俄羅斯總統(tǒng)***對沙特王儲攤的“友好攤手”瞬間

    CV:2108足球世界杯—深度學習實現(xiàn)目標檢測俄羅斯總統(tǒng)***對沙特王儲攤的“友好攤手”瞬間—東道主俄羅斯5-0完勝沙特
    發(fā)表于 12-21 10:31

    CV:基于深度學習實現(xiàn)目標檢測之GUI界面產(chǎn)品設(shè)計并實現(xiàn)圖片識別、視頻識別、攝像頭識別

    CV:基于深度學習實現(xiàn)目標檢測之GUI界面產(chǎn)品設(shè)計并實現(xiàn)圖片識別、視頻識別、攝像頭識別
    發(fā)表于 12-21 10:31

    全網(wǎng)唯一一套labview深度學習教程:tensorflow+目標檢測:龍哥教你學視覺—LabVIEW深度學習教程

    缺陷檢測算法結(jié)構(gòu)通過圖像預處理得到便于檢測的圖像,隨后借助統(tǒng)計機器學習方法來提取圖像特征,進而實現(xiàn)缺陷檢測
    發(fā)表于 08-10 10:38

    【HarmonyOS HiSpark AI Camera】基于深度學習目標檢測系統(tǒng)設(shè)計

    項目名稱:基于深度學習目標檢測系統(tǒng)設(shè)計試用計劃:嘗試在硬件平臺實現(xiàn)對Yolo卷積神經(jīng)網(wǎng)絡(luò)的加速
    發(fā)表于 09-25 10:11

    基于深度學習模型的點云目標檢測及ROS實現(xiàn)

    近年來,隨著深度學習在圖像視覺領(lǐng)域的發(fā)展,一類基于單純的深度學習模型的點云目標檢測方法被提出和應
    的頭像 發(fā)表于 11-05 16:47 ?1.9w次閱讀

    如何使用深度學習進行視頻行人目標檢測

    近年來,隨著深度學習在計算機視覺領(lǐng)域的廣泛應用,基于深度學習的視頻運動目標檢測受到廣大學者的青睞
    發(fā)表于 11-19 16:01 ?22次下載
    如何使用<b class='flag-5'>深度</b><b class='flag-5'>學習</b>進行視頻行人<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>

    探究深度學習目標視覺檢測中的應用與展望

    目標視覺檢測是計算機視覺領(lǐng)域的一個重要問題,在視頻監(jiān)控、自主駕駛、人機交互等方面具有重要的研究意義和應用價值.近年來,深度學習在圖像分類研究
    的頭像 發(fā)表于 01-13 10:59 ?6253次閱讀

    基于深度學習目標檢測研究綜述

    基于深度學習目標檢測研究綜述 來源:《電子學報》?,作者羅會蘭等 摘 要:?目標檢測是計算機視
    發(fā)表于 01-06 09:14 ?2547次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>研究綜述

    深度學習目標檢測中的應用

    R-CNN 算法在 2014 年提出,可以說是歷史性的算法,將深度學習應用于目標檢測領(lǐng)域,相較于之前的目標
    的頭像 發(fā)表于 10-31 10:08 ?2465次閱讀

    基于深度學習的復雜背景下目標檢測

    目標檢測是計算機視覺領(lǐng)域的重要研究方向. 傳統(tǒng)的目標檢測方法在特征設(shè)計上花費了大量時間, 且手工設(shè)計的特征對于目標多樣性的問題并沒有好的魯棒
    的頭像 發(fā)表于 12-01 10:00 ?1411次閱讀

    簡述深度學習的基準目標檢測及其衍生算法

    基于深度學習目標檢測方法根據(jù)有無區(qū)域提案階段劃分為區(qū)域提案檢測模型和單階段檢測模型
    的頭像 發(fā)表于 02-27 15:31 ?1963次閱讀
    簡述<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的基準<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>及其衍生算法

    如何學習基于Tansformer的目標檢測算法

    ,也是近年來理論研究的熱點。作為計算機視覺中的基礎(chǔ)算法,目標檢測對后續(xù)的人臉識別、目標跟蹤、實例分割等任務都起著至關(guān)重要的作用。 基于深度學習
    的頭像 發(fā)表于 06-25 10:37 ?1089次閱讀
    如何<b class='flag-5'>學習</b>基于Tansformer的<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>算法

    深度學習檢測目標常用方法

    深度學習的效果在某種意義上是靠大量數(shù)據(jù)喂出來的,小目標檢測的性能同樣也可以通過增加訓練集中小目標樣本的種類和數(shù)量
    發(fā)表于 03-18 09:57 ?1139次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>檢測</b>小<b class='flag-5'>目標</b>常用方法

    基于深度學習的小目標檢測

    在計算機視覺領(lǐng)域,目標檢測一直是研究的熱點和難點之一。特別是在小目標檢測方面,由于小目標在圖像中所占比例小、特征不明顯,使得
    的頭像 發(fā)表于 07-04 17:25 ?2399次閱讀