chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

迅速了解目標(biāo)檢測的基本方法并嘗試?yán)斫饷總€(gè)模型的技術(shù)細(xì)節(jié)

凌智機(jī)器視覺 ? 來源:讀芯術(shù) ? 作者:讀芯術(shù) ? 2021-08-26 15:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文將討論目標(biāo)檢測的基本方法(窮盡搜索、R-CNN、Fast R-CNN和Faster R-CNN),并嘗試?yán)斫饷總€(gè)模型的技術(shù)細(xì)節(jié)。為了讓經(jīng)驗(yàn)水平各不相同的讀者都能夠理解,文章不會(huì)使用任何公式來進(jìn)行講解。

開啟目標(biāo)檢測的第一步

這是只鳥還是架飛機(jī)?—— 圖像分類

目標(biāo)檢測(或識(shí)別)基于圖像分類。圖像分類是通過上圖所示的像素網(wǎng)格,將圖像分類為一個(gè)類類別。目標(biāo)識(shí)別是對圖像中的對象進(jìn)行識(shí)別和分類的過程。

為了使模型能夠?qū)W習(xí)圖像中對象的類別和位置,目標(biāo)必須是一個(gè)五維標(biāo)簽(類別,x, y,寬度,長度)。

對象檢測方法的內(nèi)部工作

一種費(fèi)機(jī)器(奢侈計(jì)算)的方法:窮舉搜索

最簡單的目標(biāo)檢測方法是對圖像的各個(gè)子部分使用圖像分類器,讓我們來逐個(gè)考慮:

· 首先,選擇想要執(zhí)行目標(biāo)檢測的圖像。

· 然后將該圖像分割成不同的部分,或者說“區(qū)域”。

· 把每個(gè)區(qū)域看作一個(gè)單獨(dú)的圖像。

· 使用經(jīng)典的圖像分類器對每幅圖像進(jìn)行分類。

· 最后,將檢測到目標(biāo)的區(qū)域的所有圖像與預(yù)測標(biāo)簽結(jié)合。

這種方法存在一個(gè)問題,對象可能具有的不同縱橫比和空間位置,這可能導(dǎo)致對大量區(qū)域進(jìn)行不必要的昂貴計(jì)算。它在計(jì)算時(shí)間方面存在太大的瓶頸,從而無法用于解決實(shí)際問題。

區(qū)域提議方法和選擇性搜索

最近有種方法是將問題分解為兩個(gè)任務(wù):首先檢測感興趣的區(qū)域,然后進(jìn)行圖像分類以確定每個(gè)對象的類別。

第一步通常是使用區(qū)域提議方法。這些方法輸出可能包含感興趣對象的邊界框。如果在一個(gè)區(qū)域提議中正確地檢測到目標(biāo)對象,那么分類器也應(yīng)該檢測到了它。這就是為什么對這些方法而言,快速和高回應(yīng)率非常重要。重要的是這兩個(gè)方法不僅要是快速的,還要有著很高的回應(yīng)率。

這兩個(gè)方法還使用了一種聰明的體系結(jié)構(gòu),其中目標(biāo)檢測和分類任務(wù)的圖像預(yù)處理部分相同,從而使其比簡單地連接兩個(gè)算法更快。選擇性搜索是最常用的區(qū)域提議方法之一。

它的第一步是應(yīng)用圖像分割。

從圖像分割輸出中,選擇性搜索將依次進(jìn)行:

· 從分割部分創(chuàng)建邊界框,然后將其添加到區(qū)域建議列表中。

· 根據(jù)四種相似度:顏色,紋理,大小和形狀,將幾個(gè)相鄰的小片段合并為較大的片段。

· 返回到第一步,直到該部分覆蓋了整個(gè)圖像。

在了解了選擇性搜索的工作原理后,接著看一些使用該法最常見的目標(biāo)檢測算法。

第一目標(biāo)檢測算法:R-CNN

Ross Girshick等人提出了區(qū)域CNN(R-CNN),允許選擇性搜索與CNN結(jié)合使用。實(shí)際上,對于每個(gè)區(qū)域方案(如本文中的2000),一個(gè)正向傳播會(huì)通過CNN生成一個(gè)輸出向量。這個(gè)向量將被輸入到one-vs-all分類器中。每個(gè)類別一個(gè)分類器,例如一個(gè)分類器設(shè)置為如果圖像是狗,則標(biāo)簽=1,否則為0,另一個(gè)分類器設(shè)置為如果圖像是貓,標(biāo)簽= 1,否則為0,以此類推。R-CNN使用的分類算法是SVM。

但如何將該地區(qū)標(biāo)記為提議呢?當(dāng)然,如果該區(qū)域完全匹配真值,可以將其標(biāo)為1,如果給定的對象根本不存在,這個(gè)對象可以被標(biāo)為0。

如果圖像中存在對象的一部分怎么辦?應(yīng)該把這個(gè)區(qū)域標(biāo)記為0還是1?為了確保訓(xùn)練分類器的區(qū)域是在預(yù)測一幅圖像時(shí)可以實(shí)際獲得的區(qū)域(不僅僅是那些完美匹配的區(qū)域),來看看選擇性搜索和真值預(yù)測的框的并集(IoU)。

IoU是一個(gè)度量,用預(yù)測的框和真值框的重疊面積除以它們的并集面積來表示。它獎(jiǎng)勵(lì)成功的像素檢測,懲罰誤報(bào),以防止算法選擇整個(gè)圖像。

回到R-CNN方法,如果IoU低于給定的閾值(0.3),那么相對應(yīng)的標(biāo)簽將是0。

在對所有區(qū)域建議運(yùn)行分類器后,R-CNN提出使用一個(gè)特定類的邊界框(bbox)回歸量來優(yōu)化邊界框。bbox回歸量可以微調(diào)邊界框的邊界位置。例如,如果選擇性搜索已經(jīng)檢測到一只狗,但只選擇了它的一半,而意識(shí)到狗有四條腿的bbox回歸量,將確保狗的整個(gè)身體被選中。

也多虧了新的bbox回歸預(yù)測,我們可以使用非最大抑制(NMS)舍棄重疊建議。這里的想法是識(shí)別并刪除相同對象的重疊框。NMS根據(jù)分類分?jǐn)?shù)對每個(gè)類的建議進(jìn)行排序,并計(jì)算具有最高概率分?jǐn)?shù)的預(yù)測框與所有其他預(yù)測框(于同一類)的IoU。如果IoU高于給定的閾值(例如0.5),它就會(huì)放棄這些建議。然后對下一個(gè)最佳概率重復(fù)這一步。

綜上所述,R-CNN遵循以下步驟:

· 根據(jù)選擇性搜索創(chuàng)建區(qū)域建議(即,對圖像中可能包含對象的部分進(jìn)行預(yù)測)。

· 將這些地區(qū)帶入到pre-trained模型,然后運(yùn)用支持向量機(jī)分類子圖像。通過預(yù)先訓(xùn)練的模型運(yùn)行這些區(qū)域,然后通過SVM(支持向量機(jī))對子圖像進(jìn)行分類。

· 通過邊界框預(yù)測來運(yùn)行正向預(yù)測,從而獲得更好的邊界框精度。

· 在預(yù)測過程中使用NMS去除重疊的建議。

不過,R-CNN也有一些問題:

· 該方法仍然需要分類所有地區(qū)建議,可能導(dǎo)致達(dá)到計(jì)算瓶頸——不可能將其用于實(shí)時(shí)用例。

· 在選擇性搜索階段不會(huì)學(xué)習(xí),可能導(dǎo)致針對某些類型的數(shù)據(jù)集會(huì)提出糟糕的區(qū)域建議。

小小的改進(jìn):Fast R-CNN(快速R-CNN)

Fast R-CNN,顧名思義,比R-CNN快。它基于R-CNN,但有兩點(diǎn)不同:

· 不再向CNN提供對每個(gè)地區(qū)的提議,通過對CNN提供整幅圖像來生成一個(gè)卷積特性映射(使用一個(gè)過濾器將矢量的像素轉(zhuǎn)換成另一個(gè)矢量,能得到一個(gè)卷積特性映射)。接下來,建議區(qū)域被識(shí)別與選擇性搜索,然后利用區(qū)域興趣池(RoI pooling)層將它們重塑成固定大小,從而能夠作為全連接層的輸入。

· Fast-RCNN使用更快,精度更高的softmax層而不是SVM來進(jìn)行區(qū)域建議分類。

以下是該網(wǎng)絡(luò)的架構(gòu):

如下所示,F(xiàn)ast R-CNN在訓(xùn)練和測試方面比R-CNN要快得多。但是,受選擇性搜索方法的影響,該方法仍然存在瓶頸。

Faster R-CNN(更快的R-CNN)

雖然Fast R-CNN比R-CNN快得多,但其瓶頸仍然是選擇性搜索,因?yàn)樗浅:臅r(shí)。因此,任少卿等人設(shè)計(jì)了更快R-CNN來解決這個(gè)問題,并提出用一個(gè)非常小的卷積網(wǎng)絡(luò)區(qū)域提議網(wǎng)Region Proposal network(RPN)代替選擇性搜索來尋找感興趣的區(qū)域。

簡而言之,RPN是一個(gè)直接尋找區(qū)域建議的小型網(wǎng)絡(luò)。一種簡單的方法是創(chuàng)建一個(gè)深度學(xué)習(xí)模型,輸出x_min、y_min、x_max和x_max來獲得一個(gè)區(qū)域建議的邊界框(如果我們想要2000個(gè)區(qū)域,那么就需要8000個(gè)輸出)。然而,有兩個(gè)基本問題:

· 圖像的大小和比例可能各不相同,所以很難創(chuàng)建一個(gè)能正確地預(yù)測原始坐標(biāo)的模型。

· 在預(yù)測中有一些坐標(biāo)排序約束(x_min 《 x_max, y_min 《 y_max)。

為了克服這個(gè)問題,我們將使用錨:錨是在圖像上預(yù)設(shè)好不同比例和比例的框。(錨點(diǎn)是預(yù)定義的框,它們具有不同的比例,并在整個(gè)圖像上縮放。)

例如,對于給定的中心點(diǎn),通常從三組大?。ɡ纾?4px, 128px, 256px)和三種不同的寬高比(1/1,1/2,2/1)開始。在本例中,對于圖像的給定像素(方框的中心),最終會(huì)有9個(gè)不同的方框。

那么一張圖片總共有多少個(gè)錨點(diǎn)呢?

我們不打算在原始圖像上創(chuàng)建錨點(diǎn),而是在最后一個(gè)卷積層的輸出特征圖上創(chuàng)建錨點(diǎn),這一點(diǎn)非常重要。例如,對于一個(gè)1000*600的輸入圖像,由于每個(gè)像素有一個(gè)錨點(diǎn),所以有1000 *600*9=5400000個(gè)錨點(diǎn),這是錯(cuò)誤的。確實(shí),因?yàn)橐谔卣鲌D譜上創(chuàng)建它們,所以需要考慮子采樣比率,即由于卷積層的大步移動(dòng),輸入和輸出維度之間的因子減少。

在示例中,如果我們將這個(gè)比率設(shè)為16(像在VGG16中那樣),那么特征圖譜的每個(gè)空間位置將有9個(gè)錨,因此“只有”大約20000個(gè)錨(5400000/ 16^2)。這意味著輸出特征中的兩個(gè)連續(xù)像素對應(yīng)于輸入圖像中相距16像素的兩個(gè)點(diǎn)。注意,這個(gè)下降采樣比率是Faster R-CNN的一個(gè)可調(diào)參數(shù)。

現(xiàn)在剩下的問題是如何從那20000個(gè)錨到2000個(gè)區(qū)域建議(與之前的區(qū)域建議數(shù)量相同),這是RPN的目標(biāo)。

如何訓(xùn)練區(qū)域建議網(wǎng)絡(luò)

要實(shí)現(xiàn)這一點(diǎn),需要RPN告知框包含的是對象還是背景,以及對象的精確坐標(biāo)。輸出預(yù)測有作為背景的概率,作為前景的概率,以及增量Dx, Dy, Dw, Dh,它們是錨點(diǎn)和最終建議之間的差異。

1.第一,我們將刪除跨邊界錨(即因?yàn)閳D像邊界而被減去的錨點(diǎn)),這給我們留下了約6000張圖像。

2.如果存在以下兩個(gè)條件中的任一,我們需要標(biāo)簽錨為正:

· 在所有錨中,該錨具有最高的IoU,并帶有真值框。

· 錨點(diǎn)至少有0.7的IoU,并帶有真值框。

3.如果錨的IoU在所有真值框中小于0.3,需要標(biāo)簽其為負(fù)。

4.舍棄所有剩下的錨。

5.訓(xùn)練二進(jìn)制分類和邊界框回歸調(diào)整。

最后,關(guān)于實(shí)施的幾點(diǎn)說明:

· 希望正錨和負(fù)錨的數(shù)量在小批處理中能夠平衡。

· 因?yàn)橄氡M量減少損失而使用了多任務(wù)損失,這是有意義的——損失有錯(cuò)誤預(yù)測前景或背景的錯(cuò)誤,以及方框的準(zhǔn)確性的錯(cuò)誤。

· 使用預(yù)先訓(xùn)練好的模型中的權(quán)值來初始化卷積層。

如何使用區(qū)域建議網(wǎng)絡(luò)

· 所有錨(20000)計(jì)入后得到新的邊界框和成為所有邊界框的前景(即成為對象)的概率。

· 使用non-maximum抑制。

· 建議選擇:最后,僅保留按分?jǐn)?shù)排序的前N個(gè)建議(當(dāng)N=2000,回到2000個(gè)區(qū)域建議)。

像之前的方法一樣,最終獲得了2000個(gè)方案。盡管看起來更復(fù)雜,這個(gè)預(yù)測步驟比以前的方法更快更準(zhǔn)確。

下一步是使用RPN代替選擇性搜索,創(chuàng)建一個(gè)與Fast R-CNN相似的模型(即RoI pooling和一個(gè)分類器+bbox回歸器)。然而,不像之前那樣,把這2000個(gè)建議進(jìn)行裁剪,然后通過一個(gè)預(yù)先訓(xùn)練好的基礎(chǔ)網(wǎng)絡(luò)進(jìn)行傳遞。而是重用現(xiàn)有的卷積特征圖。實(shí)際上,使用RPN作為提案生成器的一個(gè)好處是在RPN和主檢測器網(wǎng)絡(luò)之間共享權(quán)值和CNN。

· 使用預(yù)先訓(xùn)練好的網(wǎng)絡(luò)對RPN進(jìn)行訓(xùn)練,然后進(jìn)行微調(diào)。

· 使用預(yù)先訓(xùn)練好的網(wǎng)絡(luò)對檢測器網(wǎng)絡(luò)進(jìn)行訓(xùn)練,然后進(jìn)行微調(diào)。使用來自RPN的建議區(qū)域。

· 使用來自第二個(gè)模型的權(quán)重對RPN進(jìn)行初始化,然后進(jìn)行微調(diào)——這將是最終的RPN模型)。

· 最后,對檢測器網(wǎng)絡(luò)進(jìn)行微調(diào)(RPN權(quán)值固定)。CNN的特色圖將在兩個(gè)網(wǎng)絡(luò)之間共享。

綜上所述,F(xiàn)aster R-CNN比之前的方法更準(zhǔn)確,比Fast-R-CNN快10倍左右,這是一個(gè)很大的進(jìn)步,也是實(shí)時(shí)評分的開始。

即便如此,區(qū)域建議檢測模型對于嵌入式系統(tǒng)來說還是不夠,因?yàn)檫@些模型太笨重,而且對于大多數(shù)實(shí)時(shí)評分案例來說速度也不夠快——最后一例是大約每秒檢測5張圖像。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 嵌入式系統(tǒng)
    +關(guān)注

    關(guān)注

    41

    文章

    3702

    瀏覽量

    132568
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    13602
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23102

原文標(biāo)題:深入了解目標(biāo)檢測深度學(xué)習(xí)算法的技術(shù)細(xì)節(jié)

文章出處:【微信號(hào):lingzhiVision888,微信公眾號(hào):凌智機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    廣和通發(fā)布端側(cè)目標(biāo)檢測模型FiboDet

    為提升端側(cè)設(shè)備視覺感知與決策能力,廣和通全自研端側(cè)目標(biāo)檢測模型FiboDet應(yīng)運(yùn)而生。該模型基于廣和通在邊緣計(jì)算與人工智能領(lǐng)域的深度積累,面向工業(yè)、交通、零售等多個(gè)行業(yè)提供高性能、低功
    的頭像 發(fā)表于 09-26 13:39 ?1274次閱讀

    PCIe 7.0技術(shù)細(xì)節(jié)曝光

    6 月 11 日 PCI SIG官宣 PCI Express 7.0(PCIe 7.0)規(guī)范最終版已制定完畢,但幾乎沒有公開任何技術(shù)細(xì)節(jié)。不過,在 7 月 16 日,PCI-SIG 通過 BrightTalk 公開了一些更詳細(xì)的技術(shù)信息,下面就為大家介紹這些內(nèi)容。
    的頭像 發(fā)表于 09-08 10:43 ?1893次閱讀
    PCIe 7.0<b class='flag-5'>技術(shù)細(xì)節(jié)</b>曝光

    揭秘徐工新能源重卡的技術(shù)細(xì)節(jié)

    對于一臺(tái)新能源重卡而言,無論在安全方面多做多少努力都不為過。徐工汽車將新能源重卡的“安全”筑入整車的結(jié)構(gòu)設(shè)計(jì)中,融進(jìn)控制系統(tǒng)每一個(gè)響應(yīng)邏輯里,更深藏技術(shù)細(xì)節(jié)的每一行代碼之后。
    的頭像 發(fā)表于 08-11 11:45 ?789次閱讀

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】+混合專家

    的版本區(qū)別, 深入了解Deepseek的技術(shù)細(xì)節(jié),快速掌握大模型領(lǐng)域的前沿知識(shí),洞察對行業(yè)應(yīng)用的影響,提升自身在該領(lǐng)域的專業(yè)水平和競爭力。 本書流程非常清晰,先認(rèn)識(shí)Deepseek性能,然后講解原理,底層
    發(fā)表于 07-22 22:14

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】在 VisionFive 2 上為目標(biāo)檢測準(zhǔn)備軟件環(huán)境運(yùn)行 MobileNet-SSD 模型

    目標(biāo): 本教程將實(shí)現(xiàn)在 StarFive VisionFive 2 開發(fā)板上為目標(biāo)檢測應(yīng)用準(zhǔn)備所需軟件環(huán)境,最終運(yùn)行一個(gè)基于 MobileNet-SSD 的
    發(fā)表于 07-10 19:51

    SMA連接器名稱由來:SubMiniature Version A 的技術(shù)細(xì)節(jié)

    SMA連接器名稱中的“SubMiniature Version A”,精準(zhǔn)概括了其小型化、開創(chuàng)性的設(shè)計(jì)理念,而德索精密工業(yè)以卓越的技術(shù)細(xì)節(jié)和嚴(yán)謹(jǐn)?shù)闹圃旃に?,為SMA連接器的高性能連接提供了有力支撐,讓這一經(jīng)典連接器在射頻與微波連接領(lǐng)域持續(xù)煥發(fā)新的光彩。
    的頭像 發(fā)表于 06-24 11:30 ?371次閱讀
    SMA連接器名稱由來:SubMiniature Version A 的<b class='flag-5'>技術(shù)細(xì)節(jié)</b>

    基于LockAI視覺識(shí)別模塊:C++目標(biāo)檢測

    ::PaddleDet 類進(jìn)行目標(biāo)檢測通過lockzhiner_vision_module::vision::Visualize 函數(shù)將檢測結(jié)果可視化。 源代碼網(wǎng)址:https:/
    發(fā)表于 06-06 14:43

    索尼IP編碼板:技術(shù)細(xì)節(jié)與應(yīng)用探索

    索尼IP編碼板的技術(shù)細(xì)節(jié),探討其在不同領(lǐng)域的應(yīng)用價(jià)值。 技術(shù)細(xì)節(jié):卓越性能與高效傳輸 索尼IP編碼板作為連接硬件與軟件的橋梁,集成了精密的電路設(shè)計(jì)與先進(jìn)的芯片技術(shù)。它不僅能夠接收并處
    的頭像 發(fā)表于 03-20 10:10 ?711次閱讀

    明晚開播 |數(shù)據(jù)智能系列講座第5期:理解改進(jìn)基礎(chǔ)模型

    鷺島論壇數(shù)據(jù)智能系列講座第5期「理解改進(jìn)基礎(chǔ)模型」明晚(19號(hào))20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目理解
    的頭像 發(fā)表于 02-18 17:23 ?811次閱讀
    明晚開播 |數(shù)據(jù)智能系列講座第5期:<b class='flag-5'>理解</b><b class='flag-5'>并</b>改進(jìn)基礎(chǔ)<b class='flag-5'>模型</b>

    SONY編碼板測試:技術(shù)細(xì)節(jié)與性能評估

    和信號(hào)轉(zhuǎn)換,其性能優(yōu)劣直接影響到整個(gè)產(chǎn)品的運(yùn)行效率和穩(wěn)定性。本文將深入探討SONY編碼板的測試過程,從技術(shù)細(xì)節(jié)到性能評估,全面解析這一關(guān)鍵組件的重要性。 一、SONY編碼板概述 SONY編碼板,作為連接硬件與軟件的橋梁,集成了復(fù)
    的頭像 發(fā)表于 01-15 16:37 ?596次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    并非易事,它涉及到從選擇合適的算法架構(gòu)到針對特定硬件平臺(tái)進(jìn)行優(yōu)化等一系列復(fù)雜的工作。 接下來,我們將詳細(xì)介紹如何在資源受限的邊緣設(shè)備上成功部署目標(biāo)檢測模型,探索其背后的原理和技術(shù),
    發(fā)表于 12-19 14:33

    名單公布!【書籍評測活動(dòng)NO.52】基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化

    。 (3)在采用提示工程、RAG等技術(shù)后,無法達(dá)到需要的指令理解準(zhǔn)確、輸出穩(wěn)定或其他業(yè)務(wù)目標(biāo)。 在除此之外的很多場景中,可以優(yōu)先考慮使用RAG來增強(qiáng)大模型生成。當(dāng)然,在實(shí)際條件允許的前
    發(fā)表于 12-04 10:50

    視頻目標(biāo)跟蹤從0到1,概念與方法

    導(dǎo)讀從目標(biāo)跟蹤的應(yīng)用場景,底層模型,組件,類型和具體算法幾個(gè)方面對目標(biāo)跟蹤做了全方面的介紹,非常好的入門文章。在今天的文章中,我們將深入研究視頻目標(biāo)跟蹤。我們從基礎(chǔ)開始,
    的頭像 發(fā)表于 11-20 01:06 ?1125次閱讀
    視頻<b class='flag-5'>目標(biāo)</b>跟蹤從0到1,概念與<b class='flag-5'>方法</b>

    YOLOv10自定義目標(biāo)檢測之理論+實(shí)踐

    概述 YOLOv10 是由清華大學(xué)研究人員利用 Ultralytics Python 軟件包開發(fā)的,它通過改進(jìn)模型架構(gòu)消除非極大值抑制(NMS)提供了一種新穎的實(shí)時(shí)目標(biāo)檢測
    的頭像 發(fā)表于 11-16 10:23 ?2563次閱讀
    YOLOv10自定義<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>之理論+實(shí)踐

    深入解析Zephyr RTOS的技術(shù)細(xì)節(jié)

    ,Zephyr OS在嵌入式開發(fā)中的知名度逐漸增加,新的微控制器和開發(fā)板都支持Zephyr。本文將深入討論Zephyr RTOS的技術(shù)細(xì)節(jié)
    的頭像 發(fā)表于 10-22 16:47 ?3609次閱讀
    深入解析Zephyr RTOS的<b class='flag-5'>技術(shù)細(xì)節(jié)</b>