chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對駕駛行為的學(xué)習(xí)以及對其他車輛駕駛的預(yù)測

ml8z_IV_Technol ? 來源:cc ? 2019-02-21 10:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自動駕駛里面很重要的就是估計和預(yù)測交通情況。預(yù)測的來源就是路上各種物體的姿態(tài)和速度歷史,高級的預(yù)測會包括可能的行動軌跡。

對于車輛本身來說,其駕駛動作分析離不開動力學(xué)理論(kinematic,dynamic),周圍的障礙物,同時還有道路行駛的路況(坡度,曲率)和規(guī)則(紅綠燈,限速牌,車道線,交叉路口等等)。所有這些因素組合一起就能體現(xiàn)交通參與者的行為模式,而學(xué)習(xí)這些行為模型就是自動駕駛掌握老司機(jī)技術(shù)的必然之路。

一共兩件事,一是對其他車輛的駕駛行為預(yù)測,二是司機(jī)駕駛行為建模以便學(xué)習(xí)模仿這種技術(shù)。在ADAS層次,基于錯誤的駕駛操作危險預(yù)測,可以對司機(jī)的不良行為警告,這不是這里的討論范圍。

駕駛行為建模(DBM,driver behavior modeling)目的就是預(yù)測駕駛動作,預(yù)測駕駛員心思,還有環(huán)境因素,如下圖所示:各種傳感器和車載控制器CAN數(shù)據(jù)作為輸入,預(yù)處理算法過濾數(shù)據(jù),然后給各種應(yīng)用提供預(yù)測模型。

以換車道為例吧,建模方法可以分成微觀模型,宏觀模型(交通流)和二者混合模型。微觀模型又可以細(xì)分為基于規(guī)則模型,基于(概率)選擇模型,AI模型和基于激勵模型,見下圖。

這些微觀模型的各個方法在決策(decision),理由(reason),目標(biāo)車道選擇(target lane selection),可接受間距(gap),駕駛習(xí)慣(drivers variability)比如激進(jìn)或者溫和 (aggressive or mild)等方面有各自的特色,如下面表格的總結(jié)。

規(guī)則法主要是基于Gipps模型建立包含一系列固定條件的決策樹,輸出是二值選擇;也有基于其他的,比如游戲理論的方法;

選擇法主要是采用概率模型,最大似然估計給出操作;

AI法需要車輛的行駛數(shù)據(jù)來訓(xùn)練NN模型;

激勵法會考慮車道的吸引度和風(fēng)險安全標(biāo)準(zhǔn),也可以加入禮貌之類的個性化因素。

各自的優(yōu)缺點對比:

規(guī)則法建模簡單,決策的變量少;難處是參數(shù)調(diào)節(jié),判決只能二值;

選擇法決定來自于其概率計算,獲取最大的益處;問題是概率如何計算選擇的益處;

AI法是根據(jù)司機(jī)駕駛的數(shù)據(jù),優(yōu)化模型參數(shù);但數(shù)據(jù)量要求大,函數(shù)復(fù)雜度高;

激勵法參數(shù)少,有駕駛風(fēng)格選項可以考慮;但是交通擁擠的時候動機(jī)不清楚。

研究DBM,必然涉及道路網(wǎng)絡(luò)建模(RNM,road network modeling),即道路的拓?fù)浣Y(jié)構(gòu)?;旧希缆沸畔ǘ鄠€分級結(jié)構(gòu),如regional road network–road–road segment–carriageway–lane。

車道(Lane)是最基本的道路單位,而行車道(carriageway)是同一方向和類似交通性質(zhì)的車道合并而成,如圖所示。

而這個是十字路口的行車道網(wǎng)絡(luò)結(jié)構(gòu)。

建立一個道路網(wǎng)絡(luò)和拓?fù)浣Y(jié)構(gòu)可以像下圖一樣。

除了道路網(wǎng)絡(luò),DBM也需要考慮車輛模型,下圖是一個車輛種類劃分的分級模型。

下面選幾篇論文分析一下做駕駛行為建模及其預(yù)測的研究工作。

這一篇文章是講述如何針對不同場景預(yù)測駕駛行為:“A Scenario-Adaptive Driving Behavior Prediction Approach to Urban Autonomous Driving“。

因為城市交通場景經(jīng)常變化,需要在駕駛行為預(yù)測時候考慮對場景的自適應(yīng)性。首先需要設(shè)計一個場景模型庫,稱為ontology,如下圖:包括兩個分支,一是Entity,二是Attribute;Entity包括4個部分:

MapEntity。它包括兩個部分,即AreaEntity和PointEntity。前者表示道路的一個區(qū)域,包括RoadPart,SideWalk,Junction,Segment和Lane。后者表示道路剩下的部分,包括TrafficSign,LaneMarker,StopLine。

ObstacleEntity。包括靜態(tài)和運動的。

EgoEntity。自身車的部分,VehicleType,EquippedSensors等等。

Environment。包括Weather,LightingConditions和RoadSurfaceConditions。

Attributes 描述位置,區(qū)域范圍和限制類型。包括Position,Perimeter和ConnectedRestriction。下圖是一個道路基于此ontology的分解:

回頭看,該駕駛行為預(yù)測方法的系統(tǒng)框架如圖描述:存在兩個工作模式,在線和離線。

在離線模式,從數(shù)字地圖中提取道路信息,并根據(jù)上面的ontology模型進(jìn)行描述;先從典型的交通場景里提取數(shù)據(jù)用于學(xué)習(xí)駕駛行為的連續(xù)特征;每個駕駛模型通過一個HMM學(xué)習(xí);基于先驗知識(交通規(guī)則,駕駛經(jīng)驗)定義候選行為模型,輸入特征,以及每個模型的先驗知識概率,構(gòu)成語義規(guī)則;所有這些規(guī)則存于知識庫。

在線模式下,將知識庫的所有學(xué)習(xí)的模型和語義規(guī)則在初始化裝入內(nèi)存,然后每個候選行為模型會計算其似然值,結(jié)合先驗概率得到行為標(biāo)簽(tag)。

最后駕駛行為的預(yù)測方法如圖:對應(yīng)行為集合的一組HMM已經(jīng)離線學(xué)習(xí)完成,現(xiàn)在輸入實時的感知器數(shù)據(jù),那么對于每個車輛,基于規(guī)則的推理模塊會計算產(chǎn)生其候選模型,而HMM中的Forward算法就能估計每個所選模型的擬合程度,即最大后驗估計。

這里給出一個實驗例子:

其中 (a) 是場景推理結(jié)果, (b) 不同行為似然值,(c) 駕駛行為預(yù)測界面。

北卡的駕駛行為預(yù)測的工作,兩篇論文:

第一篇是規(guī)劃算法AutonoVi,以支持滿足交通約束的無人駕駛動態(tài)機(jī)動(dynamic maneuvers):“AutonoVi: Autonomous Vehicle Planning with Dynamic Maneuvers and Traffic Constraints”。

其中機(jī)動包括拐彎,換道和剎車等動作,要求遵守各種交通規(guī)則(路口紅燈/stop牌停車)和避撞(行人,車輛,自行車)。下圖是算法流水線圖:

路徑規(guī)劃在前,按車道駕駛和交通生成一個引導(dǎo)軌跡,以及一串候選控制輸入(PID控制器)。這些控制會以數(shù)據(jù)驅(qū)動的車輛動力建模和控制障礙物理論(Control Obstacle)的無碰撞導(dǎo)航為標(biāo)準(zhǔn)評估,最后剩下的軌跡再通過優(yōu)化算法(Path,Comfort,Maneuver,Proximity等為開銷)決定最佳控制信號。

車輛的行為描述為有限狀態(tài)機(jī)(FSM),如下圖:

軌跡規(guī)劃要計算一組沿著車道中心等時間間隔的waypoints。如圖給出一個計算引導(dǎo)路徑的例子:(a)偏離中心被平滑引回;(b) 突然改變前進(jìn)方向;(c)換道,離開和目標(biāo)車道的waypoints加權(quán)平均。

第二篇討論如何從車輛軌跡分析駕駛行為并用于自動駕駛:"Identifying Driver Behaviors using Trajectory Features for Vehicle Navigation"。

算法的框架如圖:

其中定義一個模塊叫Trajectory to Driver Behavior Mapping (TDBM),有6種駕駛員行為定義和分析,主要衍生于兩種基本模式Aggressiveness 和Carefulness,定義如下。

其中0-5是駕駛行為測度,6-9是注意(attention)測度。

很重要的一點是,作者定義了一組軌跡的特征,以此形成軌跡到行為的映射,10個候選特征見下表,其中綠色部分就是用來計算行為測度的,藍(lán)色是用來一起計算行為測度和注意測度。

選擇特征的方法是基于LASSO分析,映射關(guān)系最終是矩陣形式。應(yīng)用在自動駕駛時,選擇了前面提到的AutonoVi規(guī)劃算法。

Uber Toronto最近的駕駛預(yù)測工作,有兩篇論文

"Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion Forecasting with a Single Convolutional Net"

"IntentNet: Learning to Predict Intention from Raw Sensor Data"

第一篇論文介紹一種將目標(biāo)檢測工作和預(yù)測合為一體的系統(tǒng)FAF,如圖所示:

這里數(shù)據(jù)是激光雷達(dá)的點云,利用它的鳥瞰投影作為模型輸入。其實預(yù)測部分才是我們感興趣的,當(dāng)然三合一的NN模型是新穎的方式。模型輸入多幀數(shù)據(jù)構(gòu)成4-D張量,利用3-D卷積做預(yù)測。下圖是運動預(yù)測的示意圖(t, t+1, ...,t+n-1):

第二篇論文在此基礎(chǔ)上,定義意向(intent)是一個高級行為和連續(xù)的軌跡的組合,提出了一個預(yù)測意向的模型IntentNet??纯茨P偷妮斎?,輸出和模型結(jié)構(gòu)的介紹:

輸入如上圖,左邊是點云鳥瞰投影,右邊是靜態(tài)地圖部分,包括道路,車道,十字路口,交通牌和紅綠燈等。

下圖是輸出部分:綠色是groundtruth,粉色是預(yù)測的結(jié)果,箭頭表示意向分?jǐn)?shù),針對定義的8種行為類型而言,即保持車道,左轉(zhuǎn),右轉(zhuǎn),換左道,換右道,停止,泊車和其他。

下圖是模型結(jié)構(gòu):一種后融合方法。

其中一些模型細(xì)節(jié):

關(guān)于學(xué)習(xí)駕駛行為的工作,先介紹一篇相對舊的文章,是普林斯頓大學(xué)X教授研究組的:“DeepDriving: Learning Affordance for Direct Perception in Autonomous Driving“。

這個圖對E2E學(xué)習(xí)“老”司機(jī)駕駛的方法進(jìn)行劃分:mediated perception,分析觀測場景得到駕駛決策;behavior reflex 直接映射傳感器數(shù)據(jù)(圖像為例)到駕駛動作,有些類似特斯拉提出的Autopilot software 2.0;第三種方法,direct perception,作者定義affordance,標(biāo)記一些如車輛相對道路的角度,到車道線的距離,和相鄰車輛的距離等,這些信息由感知得到,然后映射到駕駛動作。

沿著Affordance這個思路,看看最近蘇黎世ETH的駕駛行為學(xué)習(xí)工作:“Conditional Affordance Learning for Driving in Urban Environments“。

為了和模擬學(xué)習(xí)或條件性模擬學(xué)習(xí)區(qū)別開,作者稱自己的方法為Conditional Affordance Learning (CAL) 。上圖所示,輸入的除了傳感器的數(shù)據(jù)(視頻為例),還有一些高級方向性的信號,即“直行“,”左行“和”右行“之類的行為類別。

下圖給出系統(tǒng)的框圖:模型訓(xùn)練出來一組駕駛行為Affordance,送入車輛控制器。

定義的Affordance見左下表:分類取決于種類(連續(xù)/離散)和條件性(紅綠燈,限速)。

文中定義了6個危險事件:駕駛車道錯誤,車上行人道,闖紅燈,車相撞,撞行人,和撞靜態(tài)物體。訓(xùn)練在開源仿真模擬軟件Carla進(jìn)行,測試也是。

加州伯克利分校的這個工作是通過模擬學(xué)習(xí)(Imitation Learning)方法得到一個集成規(guī)劃和控制的框架,結(jié)合了機(jī)器學(xué)習(xí)和優(yōu)化理論的兩層分級結(jié)構(gòu):“A Fast Integrated Planning and Control Framework for Autonomous Driving via Imitation Learning“ 。

這個框架的第一層是policy layer,通過NN學(xué)習(xí)長期的最優(yōu)MPC駕駛策略,第二層是execution layer,主要跟蹤上一層policy layer生成的參考軌跡(reference trajectory),是一個保證短期安全和可行性的基于優(yōu)化的短期控制器。特別提出的一點,第一層采用在線模擬學(xué)習(xí),其中借用了dataset aggregation(DAgger)的方法,可以快速連續(xù)地改進(jìn)policy layer。

下圖是整個分級二層結(jié)構(gòu):包括感知,決策,規(guī)劃控制等模塊。它不是一個E2E的模擬學(xué)習(xí)方法,其實包括感知在內(nèi)的E2E機(jī)器學(xué)習(xí)框架是比較risky的,以前也提過這種corner case太多。

下圖是定義的Sampled DAgger,用在policy layer的模擬學(xué)習(xí):

跟以前的DAgger相比,Sampled DAgger的數(shù)據(jù)效率更高。

另外,論文里做了對學(xué)習(xí)的policy泛化處理,可以用在復(fù)雜的駕駛場景,下圖是一個多車道的駕駛場景:

泛化就是將一個連續(xù)駕駛的問題降為一系列的抽象場景,而每個抽象場景能直接應(yīng)用學(xué)習(xí)的policy模型來求解。

谷歌WayMo的最新文章介紹通過駕駛數(shù)據(jù)模擬學(xué)習(xí)駕駛策略:“ChauffeurNet: Learning to Drive by Imitating the Best and Synthesizing the Worst“。

該文反對純粹地模擬所有數(shù)據(jù),而是在模擬損失上附加一些損失(比如碰撞,離開路和幾何上軌跡的不光滑等)來懲罰不期望出現(xiàn)的事件和鼓勵進(jìn)步,這些擾動增強(qiáng)了模型的魯棒性。實驗中表明ChauffeurNet模型可以處理復(fù)雜的情況。

以下圖是模型的輸入-輸出:地圖,交通燈,限速,路徑,自身位置和姿態(tài),其他車輛/行人/自行車的位置和姿態(tài)和自身姿態(tài)的過去軌跡,作為輸入,而輸出是自身的下一個姿態(tài)。

駕駛模型包括幾個部分,如下圖:FeatureNet,AgentRNN,Road Mask Net,PerceptionRNN。

更詳細(xì)的描述可以見下圖:那些輸入先進(jìn)入FeatureNet輸出Feature,然后再進(jìn)入AgentRNN來預(yù)測駕駛軌跡的下一個位置,車身的heatMap,迭代次數(shù),以前預(yù)測的Memory(單通道圖像,是一個疊加型內(nèi)存,每次迭代會在預(yù)測位置加一),和上次迭代預(yù)測的車身heatMap。

整個軟件系統(tǒng)框圖如下:

實驗中特意提到有一個路旁停車被成功地繞開的例子。

總的看,駕駛行為的學(xué)習(xí)以及對其他車輛駕駛的預(yù)測都是目前比較關(guān)鍵的問題,如果感知的一些不足,可以說是一些失誤,能不能被行為模型看成噪聲或者干擾而成功忽略和“屏蔽”,那么就是自動駕駛模塊化的研發(fā)過程中成功的進(jìn)步。但目前的實驗,還不能證明這一點,主要是數(shù)據(jù)不夠,而且駕駛模型中ontology也不完備。

另外大家也認(rèn)為感知和規(guī)劃應(yīng)該被看成一個整體,所以研發(fā)的次序應(yīng)該是在感知和規(guī)劃+控制的交替中前進(jìn),感知的進(jìn)步會驅(qū)使駛決策模型的更新。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • adas
    +關(guān)注

    關(guān)注

    311

    文章

    2332

    瀏覽量

    211990
  • 自動駕駛
    +關(guān)注

    關(guān)注

    794

    文章

    14918

    瀏覽量

    180384

原文標(biāo)題:自動駕駛中的駕駛行為建模和預(yù)測方法

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛端到端為什么會出現(xiàn)黑盒現(xiàn)象?

    在自動駕駛領(lǐng)域,端到端(End-to-End)是指從感知環(huán)境的原始數(shù)據(jù)到車輛實際控制指令,全部交給一個統(tǒng)一的深度學(xué)習(xí)模型來完成。這和傳統(tǒng)的模塊化自動駕駛系統(tǒng)不一樣,模塊化自動
    的頭像 發(fā)表于 02-20 09:25 ?9388次閱讀
    自動<b class='flag-5'>駕駛</b>端到端為什么會出現(xiàn)黑盒現(xiàn)象?

    強(qiáng)化學(xué)習(xí)會讓自動駕駛模型學(xué)習(xí)更快嗎?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛大模型訓(xùn)練時,有的技術(shù)方案會采用模仿學(xué)習(xí),而有些會采用強(qiáng)化學(xué)習(xí)。同樣作為大模型的訓(xùn)練方式,強(qiáng)化學(xué)習(xí)有何不同?又有什么特點呢? 什么是強(qiáng)化
    的頭像 發(fā)表于 01-31 09:34 ?716次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會讓自動<b class='flag-5'>駕駛</b>模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    自動駕駛中常提的模仿學(xué)習(xí)是什么?

    當(dāng)談及自動駕駛模型學(xué)習(xí)時,經(jīng)常會提到模仿學(xué)習(xí)的概念。所謂模仿學(xué)習(xí),就是模型先看別人怎么做,然后學(xué)著去做。自動駕駛中的模仿
    的頭像 發(fā)表于 01-16 16:41 ?2031次閱讀

    世界模型是讓自動駕駛汽車?yán)斫馐澜邕€是預(yù)測未來?

    ? [首發(fā)于智駕最前沿微信公眾號]世界模型在自動駕駛技術(shù)中已有廣泛應(yīng)用。但當(dāng)談及它對自動駕駛的作用時,難免會出現(xiàn)分歧。它到底是讓自動駕駛汽車得以理解世界,還是為其提供了預(yù)測未來的視角?
    的頭像 發(fā)表于 12-16 09:27 ?910次閱讀
    世界模型是讓自動<b class='flag-5'>駕駛</b>汽車?yán)斫馐澜邕€是<b class='flag-5'>預(yù)測</b>未來?

    自動駕駛為什么要重視軌跡預(yù)測

    軌跡預(yù)測。 軌跡預(yù)測要做的是,在幾秒到十幾秒的時間范圍內(nèi),判斷出“其他交通參與者可能會怎么移動”。如果缺少這個能力,自動駕駛系統(tǒng)更像是一個被動的跟隨者,只能針對當(dāng)前狀況做出反應(yīng);一旦前
    的頭像 發(fā)表于 11-20 10:45 ?739次閱讀
    自動<b class='flag-5'>駕駛</b>為什么要重視軌跡<b class='flag-5'>預(yù)測</b>?

    語言模型是否是自動駕駛的必選項?

    是跟蹤與狀態(tài)估計層,負(fù)責(zé)在時間維度關(guān)聯(lián)感知結(jié)果,推斷目標(biāo)的速度與運動趨勢;預(yù)測層則基于當(dāng)前狀態(tài),估計其他道路使用者的未來可能軌跡;決策與路徑規(guī)劃層綜合所有信息,生成車輛執(zhí)行的行動策略;最后,控制層將規(guī)劃結(jié)果
    的頭像 發(fā)表于 11-14 16:23 ?3699次閱讀
    語言模型是否是自動<b class='flag-5'>駕駛</b>的必選項?

    什么是自動駕駛決策系統(tǒng)?發(fā)展有何挑戰(zhàn)?

    [首發(fā)于智駕最前沿微信公眾號]把自動駕駛汽車想象成一個不斷學(xué)習(xí)并做決定的人,車上的“眼睛”負(fù)責(zé)看(感知)、“記憶/推理”負(fù)責(zé)想(預(yù)測與決策)、“手腳”負(fù)責(zé)做(規(guī)劃與控制),決策系統(tǒng)則處在這個鏈條
    的頭像 發(fā)表于 10-26 09:55 ?1625次閱讀
    什么是自動<b class='flag-5'>駕駛</b>決策系統(tǒng)?發(fā)展有何挑戰(zhàn)?

    SLAM技術(shù)在智能駕駛領(lǐng)域的應(yīng)用

    隨著人工智能和自動駕駛技術(shù)的進(jìn)步,車輛搭載的輔助駕駛系統(tǒng)可以實現(xiàn)越來越強(qiáng)的功能,如自適應(yīng)巡航、高級變道輔助及自動泊車等。為了在復(fù)雜環(huán)境下對這些高階功能實現(xiàn)支持,需要對車輛自身的位置
    的頭像 發(fā)表于 09-09 17:04 ?1350次閱讀
    SLAM技術(shù)在智能<b class='flag-5'>駕駛</b>領(lǐng)域的應(yīng)用

    自動駕駛中常見的主動安全輔助駕駛有哪些?

    隨著車輛自動化程度的提升,人們對行車安全的要求也在不斷攀升。相比于被動安全僅在碰撞發(fā)生后發(fā)揮作用,主動安全輔助駕駛通過對周圍環(huán)境的實時感知、風(fēng)險評估以及必要時的主動干預(yù),能夠在事故醞釀階段就進(jìn)行預(yù)警
    的頭像 發(fā)表于 09-06 10:09 ?2391次閱讀

    百度Apollo向北京工商大學(xué)捐贈自動駕駛車輛

    近日,百度Apollo自動駕駛車輛捐贈儀式在北京工商大學(xué)計算機(jī)與人工智能學(xué)院舉行。捐贈儀式上,百度Apollo正式向北京工商大學(xué)計算機(jī)與人工智能學(xué)院捐贈自動駕駛車輛,并提供完整的全套自
    的頭像 發(fā)表于 06-18 14:43 ?1104次閱讀

    感知融合如何讓自動駕駛汽車“看”世界更清晰?

    ”,更是車輛實現(xiàn)自主決策的基礎(chǔ)。 環(huán)境感知系統(tǒng)需要實時采集、處理和分析車輛周圍的動態(tài)和靜態(tài)信息,包括其他車輛、行人、交通標(biāo)志、道路狀況以及
    的頭像 發(fā)表于 04-27 16:24 ?921次閱讀
    感知融合如何讓自動<b class='flag-5'>駕駛</b>汽車“看”世界更清晰?

    派歌銳無人駕駛車輛線束:智能駕駛的神經(jīng)網(wǎng)絡(luò)

    派歌銳是專業(yè)的新能源線束解決方案提供商,為無人駕駛車輛提供穩(wěn)定可靠的線束解決方案
    的頭像 發(fā)表于 04-25 17:21 ?842次閱讀

    基于RV1126開發(fā)板實現(xiàn)駕駛行為檢測方案

    在RV1126上實現(xiàn)駕駛行為檢測:通過圖像識別出這幾種行為:打電話、抽煙、疲勞駕駛。
    的頭像 發(fā)表于 04-21 11:07 ?1107次閱讀
    基于RV1126開發(fā)板實現(xiàn)<b class='flag-5'>駕駛</b>員<b class='flag-5'>行為</b>檢測方案

    基于RV1126開發(fā)板實現(xiàn)駕駛行為檢測方案

    在RV1126開發(fā)板上實現(xiàn)駕駛行為檢測:通過圖像識別出這幾種行為:打電話、抽煙、疲勞駕駛
    的頭像 發(fā)表于 04-18 17:47 ?354次閱讀
    基于RV1126開發(fā)板實現(xiàn)<b class='flag-5'>駕駛</b>員<b class='flag-5'>行為</b>檢測方案

    基于RV1126開發(fā)板實現(xiàn)駕駛行為檢測方案

    在RV1126上實現(xiàn)駕駛行為檢測方案
    的頭像 發(fā)表于 04-11 10:36 ?1857次閱讀
    基于RV1126開發(fā)板實現(xiàn)<b class='flag-5'>駕駛</b>員<b class='flag-5'>行為</b>檢測方案