chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

目標(biāo)物體識(shí)別算法:物體識(shí)別算法的一般路徑

新機(jī)器視覺 ? 來源:創(chuàng)來科技 ? 作者:創(chuàng)來科技 ? 2021-04-18 10:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)語:智能駕駛的決策執(zhí)行依賴于對(duì)目標(biāo)物體識(shí)別的精準(zhǔn)判斷,因而目標(biāo)物體識(shí)別功能也是最早開始研發(fā)的部分。精度、響應(yīng)度提升是現(xiàn)階段技術(shù)關(guān)鍵。

物體識(shí)別分類對(duì)于速度和精度要求極高。一方面,物體的識(shí)別和分類是實(shí)時(shí)的,且結(jié)果的置信度要足夠高。由于無人駕駛需要實(shí)時(shí)做出駕駛決策,而物體識(shí)別僅僅是其中一環(huán),在做出判斷前,需要給算法處理、決策效應(yīng)到執(zhí)行器留有足夠時(shí)間,因此留給物體分類和識(shí)別器的時(shí)間很短,實(shí)時(shí)性要求非常高。

另一方面,汽車駕駛關(guān)系到乘客的生命安全,在此情況下,物體識(shí)別必須將誤報(bào)、錯(cuò)判的概率和可能性降低到極低范圍。一旦發(fā)生誤判,系統(tǒng)執(zhí)行錯(cuò)誤的指令,則結(jié)果將是致命的。

目標(biāo)物體識(shí)別難點(diǎn)

?目標(biāo)物體差異化。


無人駕駛需要依賴算法來識(shí)別道路上的各種差異化目標(biāo)。道路情況十分復(fù)雜,面對(duì)的物體多種多樣。即使同一類物體,也存在外形、尺寸差異。同時(shí),路面上的物體也可能以組合形式出現(xiàn)。以行人為例,行人有不同的靜態(tài)和動(dòng)態(tài)差異,靜態(tài)包括行人的外形、服裝、高矮胖瘦、體貌特征差異;動(dòng)態(tài)差異指行人的運(yùn)動(dòng)狀態(tài),可能奔跑、行走或者靜止。這就要求識(shí)別算法擁有極高的辨識(shí)度,能夠區(qū)分路面上各個(gè)不同的物體,精準(zhǔn)判斷。

?環(huán)境和路況差異化。

實(shí)際道路行駛中,會(huì)碰到不同環(huán)境和路況,這就要求識(shí)別算法普適所有工況。例如:極端的天氣情況(大雨、大雪、閃電、霧霾等)、不同的光照、不同的路況。

?在動(dòng)態(tài)場景中進(jìn)行識(shí)別。

在實(shí)際道路行駛中周圍的場景都是運(yùn)動(dòng)的物體,從不同的視角看過去,不同的物體的坐標(biāo)變化模式、姿態(tài)變化模式都會(huì)不同,識(shí)別難度進(jìn)一步增加。

物體識(shí)別算法的一般路徑

物體識(shí)別算法通常分為六個(gè)步驟:

前處理→前景分離→物體分類→結(jié)果改進(jìn)→物體追蹤→應(yīng)用層面處理

前五個(gè)部分是算法的核心,第六部分則通常指后續(xù)的物體行為預(yù)測、路徑規(guī)劃、導(dǎo)航和防碰撞算法等。

c5340072-9fbb-11eb-8b86-12bb97331649.jpg

1

——前處理

此部分為最底層的機(jī)器視覺算法,通常包含攝像頭曝光、增益控制、攝像頭標(biāo)定校準(zhǔn)等步驟。由于路況復(fù)雜多變而實(shí)時(shí)性要求很高(例如當(dāng)車輛快速駛?cè)腭傠x隧道時(shí),周圍的光照變化劇烈,需要迅速做出調(diào)整),無人駕駛中對(duì)前處理算法的要求極高。

前處理算法需要保證輸入到后續(xù)步驟的圖像質(zhì)量。圖像質(zhì)量會(huì)直接影響后續(xù)分類算法性能。盡管傳統(tǒng)的機(jī)器視覺增強(qiáng)算法能夠部分解決這一問題,但是使用高動(dòng)態(tài)范圍(HDR)的視覺傳感器和配套算法將是未來的主要趨勢。高動(dòng)態(tài)范圍傳感器可以通過多次曝光運(yùn)算增強(qiáng)圖片對(duì)比度, “照亮” 場景。汽車上使用的 HDR 攝像頭通常還會(huì)將近紅外夜視波段也涵蓋進(jìn)去,實(shí)現(xiàn)夜視功能。

傳感器自身的在線標(biāo)定也在這一部分完成。由于傳感器始終處于運(yùn)動(dòng)狀態(tài)中,因此實(shí)時(shí)確認(rèn)傳感器自身的姿態(tài)尤為重要。單目攝像頭往往通過跟蹤不同圖像幀之間的差別來確認(rèn)自身姿態(tài),而雙目攝像頭則使用額外的景深信息來實(shí)現(xiàn)這一功能。前者的可靠性較差,而后者則需要更多的計(jì)算資源。

2

——前景切分

前景切分的目的是盡可能過濾與待識(shí)別物體無關(guān)的背景信息(例如天空),并且將圖像切分為適宜大小。一個(gè)好的前景切分算法可能將原先的 200k- 1000k 個(gè)待識(shí)別區(qū)域縮小到 20k-40k,大大減輕后續(xù)處理負(fù)擔(dān)。主流算法有基于仿生原理的注意力算法等,但是這些算法往往需要依賴于預(yù)先收集的數(shù)據(jù),這些數(shù)據(jù)規(guī)定了不同場景下的可能的背景區(qū)間信息。另外,額外的傳感器輸入(包括定位系統(tǒng)、雙目攝像頭或雷達(dá)提供的景深信息等)可以進(jìn)一步加快前景切分。

一旦有了這些額外的信息,前景切分算法對(duì)圖像區(qū)域是否處于前景(待識(shí)別)的判斷確信度會(huì)大幅提升,大量背景區(qū)間將會(huì)被去除,大幅減少輸入到物體識(shí)別器中的待識(shí)別區(qū)域,提高識(shí)別的速度和準(zhǔn)確性。

c55bc8c8-9fbb-11eb-8b86-12bb97331649.jpg

3

——物體識(shí)別

將上一步驟生成的大量待識(shí)別區(qū)間歸類為數(shù)百種已知的可能在道路上出現(xiàn)的物體,并且盡量減少誤判。基本上所有的物體識(shí)別算法都是以二維圖像作為輸入的。這種輸入分為兩種,一種是將待識(shí)別區(qū)域圖像中的邊緣提取出來,將邊緣信息輸入分類器(可以輔以激光雷達(dá)以獲得更高精度);另一種則是直接將圖像的外觀輸入到分類器(通過攝像頭實(shí)現(xiàn))。前者在性能上基本已經(jīng)到了極限,而后者則是目前研發(fā)的主要方向。

具體到算法,主流的特征提取方法包括梯度方向直方圖法(HOG)和形狀上下文描述符法(SCT),提取特征后進(jìn)入分類程序。主流的 AI 分類學(xué)習(xí)算法包括支持向量機(jī)(SVM)、迭代分類算法(AdaBoost)和神經(jīng)網(wǎng)絡(luò)(NN)。

4

——驗(yàn)證與結(jié)果改進(jìn)

這一步驟使用與分類方法不同的判據(jù)來驗(yàn)證分類的結(jié)果可靠性,并提取被歸類為特定物體的待識(shí)別區(qū)間中更加詳細(xì)的信息(例如交通標(biāo)志)。由于雷達(dá)、激光雷達(dá)等非視覺傳感器往往能夠滿足“冗余傳感信息來源”這一要求,因此在實(shí)際算法中,這一部分也將應(yīng)用大量的傳感器融合。

c57dbd3e-9fbb-11eb-8b86-12bb97331649.jpg

5

——物體跟蹤

這一步驟的目的有二。除了為應(yīng)用層提供物體軌跡外,還能為前景切分、物體分類提供輸入(告訴前景切分之前這個(gè)地方出現(xiàn)過什么)。目前最為常用的算法是卡爾曼濾波算法(用來跟蹤、預(yù)測物體軌跡,根據(jù)過去空間位置預(yù)測未來位置)。在物體跟蹤環(huán)節(jié)同樣涉及較多的傳感器融合算法,通過視覺數(shù)據(jù)預(yù)測軌跡,同時(shí)同雷達(dá)的物體跟蹤數(shù)據(jù)進(jìn)行耦合

精度和響應(yīng)速度之間的最優(yōu)選擇

精度是視覺算法的核心,近年來視覺識(shí)別算法精度不斷提高。視覺識(shí)別算法的精度由誤檢率和漏檢率共同決定。物體識(shí)別本身的復(fù)雜性決定了這一功能必須以視覺為核心。

縱觀過去十多年,視覺物體識(shí)別的精度有了長足的發(fā)展。以美國加州理工學(xué)院進(jìn)行的一項(xiàng)行人識(shí)別的算法調(diào)查為例,當(dāng)誤判率為每張圖 0.1 個(gè)行人時(shí),純視覺算法的漏檢率已由 2004 年最早的 95%降低到了最近幾年的 50%附近。

因此我們有理由相信在無人駕駛真正商用時(shí),即使是純視覺算法也能達(dá)到很高的物體識(shí)別精確度,而若加以傳感器融合(在相同誤判率下約能降低 10%的漏檢率)和強(qiáng)大的車聯(lián)網(wǎng)實(shí)時(shí)數(shù)據(jù),無人駕駛階段的精度要求將得以滿足。

c5b0fb40-9fbb-11eb-8b86-12bb97331649.jpg

視覺識(shí)別算法精度提升途徑

?視覺算法本身的優(yōu)化。在前處理和前景分離階段提取明確目標(biāo)值,分類和學(xué)習(xí)系統(tǒng)的算法不斷優(yōu)化。這需要技術(shù)研發(fā)的不斷投入,產(chǎn)生極高的進(jìn)入壁壘,目前國內(nèi)從事視覺算法研究的公司只有少數(shù)幾家,因而也構(gòu)成了標(biāo)的稀缺性。

?通過傳感融合算法冗余信息判斷,提高精度。視覺識(shí)別以攝像頭數(shù)據(jù)為主,同時(shí)輔以雷達(dá)、激光雷達(dá)的邊界、距離信息。數(shù)據(jù)顯示,在相同誤判率下雷達(dá)的決策輔助能降低約 10%的漏檢率。

?利用車聯(lián)網(wǎng)、地圖數(shù)據(jù)的輔助決策。無人駕駛的商用與車聯(lián)網(wǎng)應(yīng)用密不可分,通過 V2X 實(shí)時(shí)數(shù)據(jù)傳輸,協(xié)助車輛判斷物體信息,同時(shí)通過 GPS 高精度定位和地圖數(shù)據(jù)相結(jié)合,輔助物體的分類識(shí)別。

另外一個(gè)值得關(guān)注的問題是各種算法的處理速度。為了保證在高速行駛狀態(tài)下的可靠性,物體識(shí)別的圖像輸入速率往往達(dá)到了 60~90fps (比一般攝像頭幀數(shù)高 3-4 倍)。即使前景分離步驟每張圖僅產(chǎn)生 20,000 個(gè)待識(shí)別區(qū)域,流入硬件的待識(shí)別區(qū)間也達(dá)到了每秒1200,000 個(gè)。目前算法在一臺(tái)普通計(jì)算機(jī)下運(yùn)行速度如下圖所示。

c5cbdeec-9fbb-11eb-8b86-12bb97331649.jpg

面對(duì)如此大的計(jì)算量,通常情況會(huì)有如下幾種解決方法:

第一, 算法上做出妥協(xié)。不使用過于復(fù)雜的算法,這意味著精度上要做出妥協(xié)。

第二, 優(yōu)化算法架構(gòu),在算法上取得突破,分類器的性能往往是主流算法瓶頸,通過加強(qiáng)在前處理和前景分離過程中的數(shù)據(jù)篩選能力減少傳輸給分類環(huán)節(jié)的數(shù)據(jù)量。

第三, 更加強(qiáng)大的運(yùn)算芯片。

第四, 定制專門的計(jì)算單元來處理物體識(shí)別計(jì)算,這需要較高的研發(fā)投入。CPU 用來處理日常的運(yùn)算、排序、組合,GPU用來處理圖像、著色、點(diǎn)距等信息,DSP 應(yīng)用于處理時(shí)間序列信號(hào)。三者結(jié)合的定制芯片更為實(shí)用。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 芯片
    +關(guān)注

    關(guān)注

    462

    文章

    53182

    瀏覽量

    453747
  • 識(shí)別算法
    +關(guān)注

    關(guān)注

    0

    文章

    45

    瀏覽量

    10776
  • 無人駕駛
    +關(guān)注

    關(guān)注

    99

    文章

    4226

    瀏覽量

    125439

原文標(biāo)題:目標(biāo)物體識(shí)別算法:精度和響應(yīng)度關(guān)乎生命

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛汽車如何準(zhǔn)確識(shí)別物體?

    [首發(fā)于智駕最前沿微信公眾號(hào)]自動(dòng)駕駛汽車想要在道路上安全行駛,需要識(shí)別的東西遠(yuǎn)比我們所知道的諸如紅綠燈、行人、車輛等復(fù)雜得多。其中有個(gè)是我們經(jīng)常會(huì)忽略,但同樣非常重要的障礙物,那就是小物體,像是
    的頭像 發(fā)表于 08-22 09:11 ?343次閱讀
    自動(dòng)駕駛汽車如何準(zhǔn)確<b class='flag-5'>識(shí)別</b>小<b class='flag-5'>物體</b>?

    【上海晶珩睿莓1開發(fā)板試用體驗(yàn)】物體識(shí)別的板端推理

    model/yolov5n.onnx desktop.jpg 加載模型和目標(biāo)圖片,處理后打印識(shí)別結(jié)果 下載保存路徑中輸出的識(shí)別結(jié)果圖片 更多場景 包括動(dòng)物、路口、水果、運(yùn)動(dòng)、臥
    發(fā)表于 08-18 21:25

    瑞芯微RK3576語音識(shí)別算法

    1.語音識(shí)別簡介語音識(shí)別技術(shù),也被稱為自動(dòng)語音識(shí)別(AutomaticSpeechRecognition,ASR),其目標(biāo)是將人類的語音中的詞匯內(nèi)容轉(zhuǎn)換為計(jì)算機(jī)可讀的輸入,例如按鍵、二
    的頭像 發(fā)表于 08-15 15:13 ?1664次閱讀
    瑞芯微RK3576語音<b class='flag-5'>識(shí)別</b><b class='flag-5'>算法</b>

    在樹莓派5上使用YOLO進(jìn)行物體和動(dòng)物識(shí)別-入門指南

    大家好,接下來會(huì)為大家開個(gè)樹莓派5和YOLO的專題。內(nèi)容包括四個(gè)部分:在樹莓派5上使用YOLO進(jìn)行物體和動(dòng)物識(shí)別-入門指南在樹莓派5上開啟YOLO人體姿態(tài)估計(jì)識(shí)別之旅YOLO
    的頭像 發(fā)表于 07-17 17:16 ?1053次閱讀
    在樹莓派5上使用YOLO進(jìn)行<b class='flag-5'>物體</b>和動(dòng)物<b class='flag-5'>識(shí)別</b>-入門指南

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 YOLO 模型的物體識(shí)別

    介紹; 官方 Demo 測試; 動(dòng)態(tài)識(shí)別:加載 USB 攝像頭實(shí)現(xiàn)動(dòng)態(tài)畫面的物體識(shí)別,結(jié)果顯示在板載LCD屏; 靜態(tài)識(shí)別:通過加載本地圖片并執(zhí)行板端推理實(shí)現(xiàn)靜態(tài)圖片的
    發(fā)表于 06-21 16:32

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 MobileNet 的物體識(shí)別

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 MobileNet 的物體識(shí)別 本文介紹了正點(diǎn)原子 STM32MP257 開發(fā)板實(shí)現(xiàn)物體識(shí)別的項(xiàng)目設(shè)計(jì)。 項(xiàng)目介紹 準(zhǔn)備工作: Mobi
    發(fā)表于 06-20 20:43

    基于RK3576開發(fā)板的人臉識(shí)別算法

    RK3576開發(fā)板展示人臉識(shí)別算法例程和API說明
    的頭像 發(fā)表于 05-07 16:48 ?2287次閱讀
    基于RK3576開發(fā)板的人臉<b class='flag-5'>識(shí)別</b><b class='flag-5'>算法</b>

    請問訓(xùn)練平臺(tái)訓(xùn)練完的識(shí)別程序,可以實(shí)現(xiàn)在識(shí)別物體時(shí)屏幕再顯示出來,沒有識(shí)別物體時(shí)屏幕不顯示嗎?

    問題如題,訓(xùn)練平臺(tái)訓(xùn)練完的識(shí)別程序,可以實(shí)現(xiàn)在識(shí)別物體時(shí)屏幕再顯示出來,沒有識(shí)別物體時(shí)屏幕不顯示嗎?比較小白,可以解釋
    發(fā)表于 04-29 06:12

    人臉識(shí)別門禁終端的一般故障排查方法

    問題,有些可能是使用環(huán)境造成,有些可能是人為不小心損壞了。下面,天波小編就來簡單介紹人臉識(shí)別門禁終端的一般故障排查方法吧?!倦娫磫栴}】當(dāng)人臉識(shí)別
    的頭像 發(fā)表于 04-27 10:45 ?1361次閱讀
    人臉<b class='flag-5'>識(shí)別</b>門禁終端的<b class='flag-5'>一般</b>故障排查方法

    研究基于多功能離子纖維傳感器系統(tǒng)的物體識(shí)別和抓取的人工觸覺感知

    人類觸覺感知是種復(fù)雜的感覺系統(tǒng),它依賴于皮膚中的感覺受體來接收外部刺激,轉(zhuǎn)換信號(hào),隨后通過神經(jīng)系統(tǒng)分析和識(shí)別這些信號(hào)。傳遞到大腦皮層的觸覺信息在特定區(qū)域經(jīng)歷復(fù)雜的處理。例如,體感皮層感知身體
    的頭像 發(fā)表于 03-24 18:22 ?558次閱讀
    研究基于多功能離子纖維傳感器系統(tǒng)的<b class='flag-5'>物體</b><b class='flag-5'>識(shí)別</b>和抓取的人工觸覺感知

    人臉識(shí)別技術(shù)的算法原理解析

    基于人的面部特征,通過計(jì)算機(jī)算法識(shí)別或驗(yàn)證個(gè)人身份。這項(xiàng)技術(shù)通常包括以下幾個(gè)步驟:人臉檢測、特征提取、特征比對(duì)和身份確認(rèn)。 2. 人臉檢測 人臉檢測是人臉識(shí)別流程的第步,其目的是在
    的頭像 發(fā)表于 02-06 17:50 ?2422次閱讀

    接近感應(yīng)單片機(jī)在背景抑制光電開關(guān)上的應(yīng)用

    進(jìn)行快速識(shí)別和分類。通過調(diào)整光電開關(guān)的參數(shù)和背景抑制算法,能夠適應(yīng)不同顏色、形狀和材質(zhì)的包裹,提高分揀效率和準(zhǔn)確性。 ·機(jī)器人視覺輔助 :為機(jī)器人提供視覺輔助,幫助機(jī)器人在復(fù)雜環(huán)境中準(zhǔn)確識(shí)別
    發(fā)表于 12-27 15:38

    什么是YOLO?RK3568+YOLOv5是如何實(shí)現(xiàn)物體識(shí)別的?起來了解下!

    、掌握基于YOLOV5算法實(shí)現(xiàn)物體識(shí)別的方法。三、實(shí)驗(yàn)原理YOLOYOLO(YouOnlyLookOnce)v5是種非常流行的實(shí)時(shí)目標(biāo)檢測
    的頭像 發(fā)表于 12-19 19:04 ?1427次閱讀
    什么是YOLO?RK3568+YOLOv5是如何實(shí)現(xiàn)<b class='flag-5'>物體</b><b class='flag-5'>識(shí)別</b>的?<b class='flag-5'>一</b>起來了解<b class='flag-5'>一</b>下!

    在RK3568教學(xué)實(shí)驗(yàn)箱上實(shí)現(xiàn)基于YOLOV5的算法物體識(shí)別案例詳解

    、實(shí)驗(yàn)?zāi)康?本節(jié)視頻的目的是了解YOLOv5模型的用途及流程,并掌握基于YOLOV5算法實(shí)現(xiàn)物體識(shí)別的方法。 二、實(shí)驗(yàn)原理 YOLO(You Only Look Once?。?YOL
    發(fā)表于 12-03 14:56

    物體識(shí)別桌 AR物體識(shí)互動(dòng)桌 電容屏實(shí)物識(shí)別漫游桌

    在這個(gè)科技發(fā)達(dá)的時(shí)代,AR增強(qiáng)技術(shù)也在迅速發(fā)展,在展廳展館中發(fā)光發(fā)熱,帶來了創(chuàng)意無限的互動(dòng)展示效果,AR技術(shù)結(jié)合物體識(shí)別技術(shù)打造的AR物體識(shí)別桌,讓游客有了全新的體驗(yàn),通過新穎的人機(jī)交
    的頭像 發(fā)表于 10-21 17:44 ?613次閱讀