chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVDIA提出一種面向場景圖解析任務(wù)的圖對比損失函數(shù)

nlfO_thejiangme ? 來源:lq ? 2019-10-01 16:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

關(guān)系識別(Relationship Detection)是繼物體識別(Object Detection)之后的一個重要方向。使用視覺關(guān)系構(gòu)建的場景圖(Scene Graph)可以為很多下游任務(wù)提供更豐富的語義信息。這篇文章我們討論目前常規(guī)模型遇到的兩個普遍問題,并提出三種loss解決,同時我們也設(shè)計了一個高效的end-to-end網(wǎng)絡(luò)搭配我們的loss來構(gòu)建場景圖。我們的模型在三個數(shù)據(jù)集(OpenImage, Visual Genome, VRD)上都達到了目前最優(yōu)結(jié)果。

張驥,羅格斯大學(xué)在讀博士生,曾在Facebook AI Research (FAIR),Nvidia Research實習(xí)參與計算機視覺領(lǐng)域研究項目,在CVPR,AAAI,ACCV等會議均有論文發(fā)表,并在2018年Kaggle上舉辦的Google OpenImage Visual Relationship Detection Challenge比賽上獲得第一名。這篇文章是參賽模型的一個改進版本。

論文鏈接:https://arxiv.org/abs/1903.02728

代碼鏈接:https://github.com/NVIDIA/ContrastiveLosses4VRD

近兩年來,場景圖解析任務(wù)(Scene Graph Parsing,也稱Scene Graph Generation)開始獲得越來越多的關(guān)注。這個任務(wù)的定義是針對輸入圖片構(gòu)建一個描述該圖片的圖(graph),該圖中的節(jié)點是物體,邊是物體之間的關(guān)系。下圖是一個例子:

圖片來源:J. Zhang, et al., AAAI2019[1]

眾所周知,物體識別是一個相對成熟的領(lǐng)域,目前很多state-of-the-art方法在非常challenging的數(shù)據(jù)集上(MSCOCO, OpenImages)也能得到不錯的結(jié)果。這意味著,在構(gòu)建場景圖的過程中,把節(jié)點(也就是物體)探測出來不是一個難點,真正的難點在于構(gòu)建圖中的邊,也就是物體之間的視覺關(guān)系(visual relationship)。

自2016年ECCV第一篇視覺關(guān)系識別的文章[2]出現(xiàn)以來,已經(jīng)有很多工作關(guān)注于如何通過給物體兩兩配對并且融合物體特征來得到它們之間關(guān)系的特征,進而準確探測出關(guān)系的類別[3, 4, 5, 6, 7, 8, 9]。但這些工作的一個共同問題在于,場景圖中每一條邊的處理都是獨立的,也就是說,模型在預(yù)測一對物體有什么關(guān)系的時候不會考慮另一對物體,但實際情況是,如果有兩條邊共享同一個物體,那么這兩條邊常常會有某種客觀存在的聯(lián)系,這種聯(lián)系會顯著影響預(yù)測的結(jié)果,因而在預(yù)測兩條邊中任何一條的時候應(yīng)該同時考慮兩條邊。

這篇文章正是觀察到了邊之間存在兩種重要的聯(lián)系,進而針對性地提出三種損失函數(shù)來協(xié)同地預(yù)測視覺關(guān)系。更具體地說,這篇文章觀察到了兩個客觀存在的常見問題,這兩個問題在前人的工作中并沒有被顯式地解決:

問題一:客體實例混淆

客體實例混淆的定義是,一個物體只和相鄰的很多同類別的物體中的一個存在關(guān)系時,模型不能正確識別出它和這些同類別物體中的哪一個有關(guān)系。換言之,很多視覺關(guān)系是有排它性的。一個人如果在騎馬,那么即便他周圍有一百匹馬,他也只可能在騎其中一匹。下圖是一個文章中給出的例子。圖中的人面前有若干酒杯,該人只拿著其中一只杯子,但傳統(tǒng)模型由于缺乏顯式的區(qū)分機制,它錯誤地認為桌上那個酒杯在被人拿著。

問題2:鄰近關(guān)系模糊這個現(xiàn)象是說,當(dāng)兩對物體靠的很近,同時它們之間的關(guān)系類別一樣的時候,模型很難作出正確的匹配。下圖是這個現(xiàn)象的一個例子。圖中有兩個“man play guitar”,和一個“man play drum”。由于三個人靠的很近且都在演奏樂器,視覺上很容易把人和他對應(yīng)的樂器混淆,在這張圖片中,傳統(tǒng)的scene graph parsing模型就把右邊人錯誤地認為是在打中間的鼓。

這兩個問題的根本原因都在于,決定物體之間關(guān)系的視覺特征往往非常微妙,而且當(dāng)需要判別出物體之間有無關(guān)聯(lián)時,觀察者往往需要將注意力集中到鄰近的多個物體并進行對比,這樣才能避免混淆,準確區(qū)分出誰和誰是相關(guān)的。這正是本文提出的解決方案的動機。 解決方案

針對這兩個問題,本文提出三種損失函數(shù)來解決??偟膩碚f這三種損失函數(shù)的思想是,訓(xùn)練過程中對于每個節(jié)點(即物體),篩選出當(dāng)前模型認為與之匹配,但置信度最小的那個正樣本,同時選出當(dāng)前模型認為與之不匹配但置信度也最小的那個負樣本,再計算這兩個樣本的置信度的差異,然后把這個差異作為額外的損失值反饋給模型。根據(jù)這種思想,本文進一步設(shè)計了三種類型的損失函數(shù)形式:

1. 類別無關(guān)損失(Class AgnosticLoss)

該函數(shù)的計算分成兩步,第一步計算正負樣本的置信度差異:

其中是當(dāng)物體i作為主語(subject)的時候它所有可能對應(yīng)的賓語中正負樣本置信度差異的最小值。這里“正負”的含義是某物體作為賓語與這個主語是否存在視覺關(guān)系。這里代表物體i當(dāng)前被作為主語考慮,j和k分別用來索引與主語存在關(guān)系的正樣本賓語和不存在關(guān)系的負樣本賓語。分別代表與主語存在關(guān)系的所有賓語(即正樣本)的集合,和與主語不存在關(guān)系的所有賓語(即負樣本)的集合。與之相似地,的定義是物體作為賓語時它所有可能對應(yīng)的主語中正負樣本置信度差異的最小值。公式中符號的含義與之類似,這里不再贅述。

第二步是利用第一步的兩個差異值來計算一個基于邊界的損失:

其中是預(yù)先設(shè)定的邊界值,N是當(dāng)前的batch size。這個損失的作用是使得上述第一步中的差異值大于預(yù)定的,只有滿足這個條件的時候才為0,也就是說我們希望差異值至少是。 熟悉contrastiveloss和triplet loss的朋友應(yīng)該發(fā)現(xiàn),這個loss的形式和它們很類似。的確,這里的對比形式參考了triplet loss,但不同點在于這個loss受限于圖模型的結(jié)構(gòu),即每一個節(jié)點的正負樣本都只來自于和當(dāng)前主語或賓語可能存在關(guān)系的節(jié)點,而不是像一般triplet loss那樣直接在所有節(jié)點中搜索正負樣本。

另一個不同點是triplet loss一般的應(yīng)用場景是用于訓(xùn)練節(jié)點的嵌入(embedding),因此它的輸入通常是正負樣本的嵌入向量,但這個loss的輸入就是原始模型的輸出,即每一個視覺關(guān)系的置信度,它的目的是通過對比正負樣本的置信度把當(dāng)前視覺關(guān)系的最重要的上下文環(huán)境反饋給原始模型,從而讓原始模型去學(xué)習(xí)那些能夠區(qū)分混淆因素的視覺特征。

2. 物體類別相關(guān)損失(Entity Class Aware Loss)

該函數(shù)與類別無關(guān)損失形式類似,唯一的不同在于這個loss在選擇正負樣本時,樣本中物體的類別必須一樣:

這一步與上一個loss的第一步的唯一區(qū)別就是加入了一個額外輸入c,它的作用是規(guī)定在計算正負樣本差異時,所有考慮到的物體必須同屬于類別c。這個額外限制迫使模型去注意那些同一個類別的不同物體實例,比如上圖中的多個酒杯,并在學(xué)習(xí)過程中逐漸區(qū)分存在視覺關(guān)系和不存在視覺關(guān)系的實例的特征,因此這個loss是專門設(shè)計用來解決上文提出的第一個問題的,即客體實例混淆。

3. 謂語類別相關(guān)損失(Predicate Class Aware Loss)

該函數(shù)與類別無關(guān)損失形式也類似,唯一的不同在于這個loss在選擇正負樣本時,樣本中謂語的類別必須一樣:

這里加入了一個額外輸入e,它代表的是目前考慮的謂語類別。它的作用是規(guī)定在計算正負樣本差異時,所有考慮到的樣本的視覺關(guān)系必須都以謂語連接。這個額外限制迫使模型去注意那些具有同樣視覺關(guān)系的物體對,比如上圖中同樣在“play”樂器的三個人,然后在訓(xùn)練過程中學(xué)會識別正確的主客體匹配。很顯然這個loss是專門用來解決上述的第二個問題,即鄰近關(guān)系模糊。

關(guān)系檢測網(wǎng)絡(luò)(RelDN)

本文同時也提出了一個高效的關(guān)系識別網(wǎng)絡(luò),結(jié)構(gòu)圖如下:

該網(wǎng)絡(luò)首先用事先訓(xùn)練好的物體識別器識別出所有物體,然后對每一對物體,從圖片中提取它們的視覺特征,空間特征以及語義特征。其中空間特征是bounding box的相對坐標(biāo),語義特征是兩個物體的類別。這三個特征分別被輸入進三個獨立的分支,并給出三個預(yù)測值,最后網(wǎng)絡(luò)把三個預(yù)測值加總并用softmax歸一化得到謂語的分布。

值得注意的是,中間這個Semantic Module在前人的工作中也叫Frequency Bias或者Language Bias,它意味著當(dāng)我們知道主客體的類別時,我們即便不看圖片也能“猜”出它們之間的謂語是什么。這個現(xiàn)象其實是符合客觀規(guī)律的。試想有一張圖片里有一個人和一匹馬,現(xiàn)在我們不看圖片去猜這個人和這匹馬有什么關(guān)系,我們一般最容易想到“騎”,其次是“拍”或者“牽著”之類的動作,但幾乎不可能是“站在”或者“躺在”,因為這與客觀常識不符。

如果要構(gòu)建符合真實世界分布的場景圖,那么符合客觀規(guī)律的常識就不能忽略,因此這個Language Bias不可或缺。

實驗結(jié)果

1. 成分分析

這張表是ablation study,以一步步添加子模塊的方式證明三個損失函數(shù)都是有效的是傳統(tǒng)方法通用的multi-class cross entropy loss,簡言之就是softmax層后面接的分類loss,分別是類別無關(guān)損失(Class Agnostic Loss),物體類別相關(guān)損失(Entity Class Aware Loss)和謂語類別相關(guān)損失(Predicate ClassAware Loss)。

這張表對應(yīng)的實驗是,人工隨機地挑選出100張圖片,這些圖片里面廣泛地存在著本文開頭提到的兩個問題,然后分別用不帶本文提出的losses的模型和帶這些losses的模型去跑這100張圖片然后對比結(jié)果。很明顯,帶losses的模型幾乎在所有類別上優(yōu)于不帶losses。這個實驗直接證明了添加本文提出的losses能夠很大程度上解決客體實例混淆和鄰近關(guān)系模糊這兩個問題,從而顯著提高模型整體精確度。 除了使用Table2量化地證明losses的有效性,本文同時對模型學(xué)到的中間層特征進行了可視化,示例如下:

上圖是從驗證集(validation set)里挑選的兩張圖,每張圖分別用不帶losses和帶losses的模型跑一下,然后把最后一個CNN層的特征提出來并畫成上圖所示的heatmap。可以發(fā)現(xiàn),在左邊這張圖中不帶losses的模型并沒有把正確的酒杯凸顯出來,而帶losses的模型很清晰地突出了被人握著的那個酒杯;在右邊這張圖中,不帶losses的模型突出的位置所對應(yīng)的物體(鼓)并沒有和任何人存在關(guān)系,而被人握在手里的話筒卻并沒有被突出出來。相比之下,帶losses的模型則學(xué)到了正確的特征。

2. 與最新方法的比較

本文在三個數(shù)據(jù)集上都做到了state-of-the-art,三個數(shù)據(jù)集是OpenImages (OI), VisualGenome (VG), Visual Relation Detection (VRD):

OpenImages(OI)由于數(shù)據(jù)集較新,之前沒有論文做過,所以本文直接和Google在2018年舉辦的OpenImages Visual Relationship Detection Challenge的前8名進行了比較,結(jié)果比冠軍高出兩個百分點。

在VisualGenome(VG)上,使用和前人相同的settings,本文提出的模型也顯著地超過了前人的最好成績。值得注意的是,這里加和不加losses的區(qū)別沒有OpenImages上那么大,很大程度上是因為Visual Genome的標(biāo)注不夠完整,也就是說圖片中很多存在的視覺關(guān)系并沒有被標(biāo)出來,這樣導(dǎo)致模型誤認為沒有標(biāo)注的物體之間不存在視覺關(guān)系,進而把它們認定為負樣本。

在VRD數(shù)據(jù)集上我們看到帶losses和不帶losses的差別相比VG明顯了很多,這是因為VRD的標(biāo)注相對較完整,整體標(biāo)注質(zhì)量也相對較好。

作者有話說。。.

最后是我在這個領(lǐng)域做了兩年多之后的一些關(guān)于視覺關(guān)系識別場景圖構(gòu)建的經(jīng)驗和思考,和本文無直接關(guān)聯(lián),但希望能和大家分享。

1. 前文提到的Language Bias是符合客觀世界分布的。如果你希望在你的任務(wù)中使用場景圖來提取更豐富的信息,而且你的數(shù)據(jù)集是從真實世界中無偏差地采樣出來的自然圖片,那么Language Bias應(yīng)該是有幫助的,但如果你的數(shù)據(jù)集有偏差,或者是合成數(shù)據(jù)集(比如CLEVR),那么Language Bias可能不起作用,或者會起到反作用。

2. 在實際應(yīng)用中,一個可能更好的構(gòu)建場景圖的方式是把所有謂語分成若干大類,然后每個大類分別用一個模型去學(xué),比如可以把謂語分成空間謂語(例如“to the left of, to the right of”),互動謂語(例如“ride,kick, sit on”)和其它謂語(例如“part of”)。

這么做的原因在于不同類型的謂語表達的語義是非常不同的,它們對應(yīng)的視覺特征的分布也很不同,因此使用獨立的若干模型分別去學(xué)習(xí)這些語義一般會比用一個模型去學(xué)習(xí)所有語義要好。

3. 在上述的不同類型的關(guān)系當(dāng)中,空間關(guān)系是最難識別的一類,因為相比而言,同一個空間關(guān)系所對應(yīng)的視覺分布要復(fù)雜很多。

比如,“人騎馬”的圖片可能看上去都十分相似,但“人在馬的右邊”的圖片卻有很多種可能的布局。如果人和馬都是背對鏡頭,那么人會在整個圖片的右側(cè),而如果人和馬是面對鏡頭,那么人會在左側(cè),而如果人和馬是側(cè)對鏡頭,那么人在圖片中會在馬的前方或者后方。歸根結(jié)底,這種空間分布的多元性是由于

1)用2D圖片平面去描述3D世界的真實布局具有局限性;

2)Language Bias在空間關(guān)系中作用相對小很多,因為空間布局的多樣性相對很廣,在不看圖片的情況下更難“猜”出空間關(guān)系是什么。

總而言之,目前空間關(guān)系是關(guān)系識別和場景圖構(gòu)建的短板,我認為后面工作可以在這個子問題上多加關(guān)注。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4406

    瀏覽量

    66859
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1714

    瀏覽量

    47458
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1231

    瀏覽量

    26050

原文標(biāo)題:將門好聲音 | NVDIA提出一種面向場景圖解析任務(wù)的圖對比損失函數(shù)

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    藍牙室內(nèi)定位核心技術(shù)解析:RSSI 與 AOA 的測距原理對比與精度升級邏輯

    本文解析藍牙室內(nèi)定位核心技術(shù),對比RSSI與AOA的測距原理,深入探討從RSSI到AOA在精度、誤差控制和硬件適配方面的升級邏輯,揭示兩者如何互補滿足不同場景需求。
    的頭像 發(fā)表于 11-24 17:47 ?1227次閱讀

    競品數(shù)據(jù)對比接口技術(shù)解析

    與劣勢,優(yōu)化產(chǎn)品策略。本文將逐步解析其設(shè)計原理、實現(xiàn)方案和最佳實踐,確保內(nèi)容真實可靠,基于行業(yè)通用技術(shù)棧(如Python和RESTful架構(gòu))。 1. 核心概念與重要性 競品數(shù)據(jù)對比接口是一種API服務(wù),用于自動化收集、清洗和比
    的頭像 發(fā)表于 10-23 16:16 ?166次閱讀
    競品數(shù)據(jù)<b class='flag-5'>對比</b>接口技術(shù)<b class='flag-5'>解析</b>

    看懂綠電直連的四玩法

    通過 “總覽框架 + 分模式圖解” 的形式,用可視化邏輯拆解綠電直連的四核心模式,涵蓋每種模式的核心特征、適用場景、參與主體三大關(guān)鍵信息,幫你快速區(qū)分不同 “玩法” 的差異與適配性。
    的頭像 發(fā)表于 10-15 10:18 ?759次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>圖</b>看懂綠電直連的四<b class='flag-5'>種</b>玩法

    信號發(fā)生器選型指南:函數(shù)、射頻與任意波形的差異與適用場景

    在現(xiàn)代電子測試與測量領(lǐng)域,信號發(fā)生器是不可或缺的工具。面對市場上函數(shù)發(fā)生器、射頻信號發(fā)生器與任意波形發(fā)生器(AWG)三大類別,如何選擇成為關(guān)鍵問題。本文將從技術(shù)原理、核心參數(shù)及應(yīng)用場景角度,解析三者
    的頭像 發(fā)表于 09-23 18:01 ?683次閱讀
    信號發(fā)生器選型指南:<b class='flag-5'>函數(shù)</b>、射頻與任意波形的差異與適用<b class='flag-5'>場景</b>

    電子能量損失譜(EELS)技術(shù)解析

    電子能量損失譜(EELS)是一種通過分析高能入射電子與材料原子發(fā)生非彈性碰撞后能量損失特征的先進表征技術(shù),可用于獲取材料的成分、化學(xué)態(tài)及電子結(jié)構(gòu)信息。其在芯片工藝研發(fā)和失效分析中具有獨特優(yōu)勢,尤其在
    的頭像 發(fā)表于 08-20 15:37 ?1546次閱讀
    電子能量<b class='flag-5'>損失</b>譜(EELS)技術(shù)<b class='flag-5'>解析</b>

    一種適用于動態(tài)環(huán)境的自適應(yīng)先驗場景-對象SLAM框架

    由于傳統(tǒng)視覺SLAM在動態(tài)場景中容易會出現(xiàn)嚴重的定位漂移,本文提出一種新穎的基于場景-對象的可靠性評估框架,該框架通過當(dāng)前幀質(zhì)量指標(biāo)以及相對于可靠參考幀的
    的頭像 發(fā)表于 08-19 14:17 ?656次閱讀
    <b class='flag-5'>一種</b>適用于動態(tài)環(huán)境的自適應(yīng)先驗<b class='flag-5'>場景</b>-對象SLAM框架

    數(shù)字功放的崛起;技術(shù)優(yōu)勢與產(chǎn)品對比解析

    數(shù)字功放的崛起;技術(shù)優(yōu)勢與產(chǎn)品對比解析
    的頭像 發(fā)表于 07-18 17:59 ?790次閱讀
    數(shù)字功放的崛起;技術(shù)優(yōu)勢與產(chǎn)品<b class='flag-5'>對比</b><b class='flag-5'>解析</b>

    DAC頻率響應(yīng)特性解析:從sinc函數(shù)衰減到補償技術(shù)

    本文介紹了DAC頻率響應(yīng)特性,探討sinc函數(shù)導(dǎo)致的信號衰減規(guī)律,對比數(shù)字濾波與模擬濾波兩補償技術(shù)
    的頭像 發(fā)表于 07-15 14:48 ?591次閱讀
    DAC頻率響應(yīng)特性<b class='flag-5'>解析</b>:從sinc<b class='flag-5'>函數(shù)</b>衰減到補償技術(shù)

    技術(shù)干貨 | DAC頻率響應(yīng)特性解析:從sinc函數(shù)衰減到補償技術(shù)

    本章解析DAC頻率響應(yīng)特性,探討sinc函數(shù)導(dǎo)致的信號衰減規(guī)律,對比數(shù)字濾波與模擬濾波兩補償技術(shù),幫助優(yōu)化AWG模塊輸出信號的頻率平坦度,提升測試測量精度。
    的頭像 發(fā)表于 07-09 16:30 ?659次閱讀
    技術(shù)干貨 | DAC頻率響應(yīng)特性<b class='flag-5'>解析</b>:從sinc<b class='flag-5'>函數(shù)</b>衰減到補償技術(shù)

    TaskPool和Worker的對比分析

    會用于前臺界面的顯示,影響用戶體驗,需要高優(yōu)先級處理,需要使用TaskPool。 需要頻繁取消的任務(wù)。例如圖庫大瀏覽場景,為提升體驗,會同時緩存當(dāng)前圖片左右側(cè)各2張圖片,往側(cè)滑動跳
    發(fā)表于 06-18 06:43

    函數(shù)指針的六個常見應(yīng)用場景

    應(yīng)用場景,并結(jié)合示例代碼進行講解。01、回調(diào)函數(shù):解耦代碼,提高靈活性回調(diào)函數(shù)是嵌入式開發(fā)中最常見的函數(shù)指針應(yīng)用場景
    的頭像 發(fā)表于 04-07 11:58 ?1140次閱讀
    <b class='flag-5'>函數(shù)</b>指針的六個常見應(yīng)用<b class='flag-5'>場景</b>

    一種分段氣隙的CLLC變換器平面變壓器設(shè)計

    一種路徑,采用磁集成方法,對1MHz雙向CLLC變換器的變壓器進行研究、設(shè)計與測試,通過優(yōu)化PCB繞線方法、進行仿真優(yōu)化,提出一種分段氣隙的變壓器結(jié)構(gòu),通過Maxwell瞬態(tài)場、渦流場求解器仿真
    發(fā)表于 03-27 13:57

    一種多模態(tài)駕駛場景生成框架UMGen介紹

    端到端自動駕駛技術(shù)的快速發(fā)展對閉環(huán)仿真器提出了迫切需求,而生成式模型為其提供了一種有效的技術(shù)架構(gòu)。然而,現(xiàn)有的駕駛場景生成方法大多側(cè)重于圖像模態(tài),忽略了其他關(guān)鍵模態(tài)的建模,如地圖信息、智能交通參與者等,從而限制了其在真實駕駛
    的頭像 發(fā)表于 03-24 15:57 ?1517次閱讀
    <b class='flag-5'>一種</b>多模態(tài)駕駛<b class='flag-5'>場景</b>生成框架UMGen介紹

    函數(shù)信號分析儀的原理和應(yīng)用場景

    函數(shù)信號分析儀是一種精密的電子測量儀器,其原理和應(yīng)用場景如下所述:原理函數(shù)信號分析儀的核心原理主要基于信號的頻譜分析和時域分析。它通過采集輸入信號,并利用數(shù)學(xué)算法(如傅里葉變換)將信號
    發(fā)表于 01-20 14:13

    高NA透鏡的脈沖聚焦

    **摘要 ** 雖然對于大多數(shù)其他類型的光源來說,在靜態(tài)工作下通常足夠精確,但超短脈沖需要一種更精確的方法,其中要考慮到不同光譜模式之間的相關(guān)性。我們在此研究了個脈沖通過高數(shù)值孔徑透鏡傳播后對其
    發(fā)表于 12-31 08:57