chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種在視覺語言導(dǎo)航任務(wù)中提出的新方法,來探索未知環(huán)境

電子工程師 ? 來源:lp ? 2019-03-05 09:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

CVPR 2019 接收論文編號公布以來,AI科技大本營開始陸續(xù)為大家介紹一些優(yōu)秀論文。今天推薦的論文,將與大家一起探討一種在視覺語言導(dǎo)航任務(wù)中提出的新方法,來探索未知環(huán)境。

作者

這篇論文是 UC Santa Barbara 大學(xué)(加州大學(xué)圣巴巴拉分校)與微軟研究院、Duke 大學(xué)合作完成,第一作者系 UC Santa Barbara 大學(xué)的王鑫。

據(jù) UC Santa Barbara 計算機科學(xué)系助理教授王威廉在其個人微博上發(fā)表的喜訊,這篇論文的一作是其組內(nèi)的成員,獲得了 3 個 Strong Accept,在 5165 篇投稿文章中審稿得分排名第一,并且這篇論文已經(jīng)確定將在 6 月的 CVPR 會議上進行報告。

這篇論文解決的任務(wù) vision-language navigation(VLN)我們之前介紹的并不多,所以,這次營長會先給大家簡單介紹 VLN,然后從這項任務(wù)存在的難點到解決方法、實驗效果等方面為大家介紹,感興趣的小伙伴們可以從文末的地址下載論文,詳細閱讀。

什么是 VLN?

視覺語言導(dǎo)航(vision-language navigation, VLN)任務(wù)指的是引導(dǎo)智能體或機器人在真實三維場景中能理解自然語言命令并準確執(zhí)行。結(jié)合下面這張圖再形象、通俗一點解釋:假如智能體接收到“向右轉(zhuǎn),徑直走向廚房,然后左轉(zhuǎn),經(jīng)過一張桌子后進入走廊...”等一系列語言命令,它需要分析指令中的物體和動作指令,在只能看到一部分場景內(nèi)容的情況下,腦補整個全局圖,并正確執(zhí)行命令。所以這是一個結(jié)合 NLP 和 CV 兩大領(lǐng)域,一項非常有挑戰(zhàn)性的任務(wù)。

難點

雖然我們理解這項任務(wù)好像不是很難,但是放到 AI 智能體上并不像我們理解起來那么容易。對 AI 智能體來說,這項任務(wù)通常存在三大難點:

難點一:跨模態(tài)的基標對準(cross-modal grounding);簡單解釋就是將NLP 的指令與 CV 場景相對應(yīng)。

難點二:不適定反饋(ill-posed feedback);就是通常一句話里面包含多個指令,但并不是每個指令都會進行反饋,只有最終完成任務(wù)才有反饋,所以難以判斷智能體是否完全按照指令完成任務(wù)。

難點三:泛化能力問題;由于環(huán)境差異大,VLN 的模型難以泛化。

那這篇論文中,作者又做了哪些工作,獲得了評委們的一致青睞,獲得了 3 個 Strong Accept 呢?方法來了~

方法

1、RCM(Reinforced Cross-Modal Matching)模型

針對第一和第二難點,論文提出了一種全新的強化型跨模態(tài)匹配(RCM)方法,用強化學(xué)習(xí)方法將局部和全局的場景聯(lián)系起來。

RCM 模型主要由兩個模塊構(gòu)成:推理導(dǎo)航器和匹配度評估器。如圖所示,通過訓(xùn)練其中綠色的導(dǎo)航器,讓它學(xué)會理解局部的跨模態(tài)場景,推斷潛在的指令,并生成一系列動作序列。另外,論文還設(shè)置了匹配度評估器(Matching Critic)和循環(huán)重建獎勵機制,用于評價原始指令與導(dǎo)航器生成的軌跡之間的對齊情況,幫助智能體理解語言輸入,并且懲罰不符合語言指令的軌跡。

以上的方法僅僅是解決了第一個難點,所以論文還提出了一個由環(huán)境驅(qū)動的外部獎勵函數(shù),用于度量每個動作成功的信合和導(dǎo)航器之間的誤差。

2、SIL(Self-supervised Imitation Learning)方法

為了解決第三個難點,論文提出了一種自監(jiān)督模仿學(xué)習(xí)(Self-supervised Imitation Learning, SIL),其目的是讓智能體能夠自主的探索未知的環(huán)境。其具體做法是,對于一個從未見過的語言指令和目標位置,導(dǎo)航器會得到一組可能的軌跡并將其中最優(yōu)的軌跡(采用匹配度評估器)保存到緩沖區(qū)中,然后匹配度評估器會使用之前介紹的循環(huán)重建獎勵機制來評估軌跡,SIL方法可以與多種學(xué)習(xí)方法想結(jié)合,通過模仿自己之前的最佳表現(xiàn)來得到更優(yōu)的策略。

測試結(jié)果

1、測試集:R2R(Room-to-Room)Dataset;視覺語言導(dǎo)航任務(wù)中一個真實 3D環(huán)境的數(shù)據(jù)集,包含 7189 條路徑,捕捉了大部分的視覺多樣性,21567 條人工注釋指令,其平均長度為 29 個單詞。

2、評價指標

PL:路徑長度(Path Length)

NE:導(dǎo)航誤差(Navigation Error)

OSR:Oracle 成功率(Oracle Success Rate

SR:成功率( Success Rate)

SPL:反向路徑長度的加權(quán)成功率(Success rate weighted by inverse Path Length)

3、實驗對比:與 SOTA 進行對比,此前在 R2R 數(shù)據(jù)集上效果最優(yōu)的方法。

Baseline:Random、seq2seq、RPA 和 Speaker-Follower。

測試結(jié)果顯示,RCM 模型的效果在 SPL 指標上明顯優(yōu)于當(dāng)前的最優(yōu)結(jié)果。

并且在 SIL 方法學(xué)習(xí)后,學(xué)習(xí)效率也有明顯的提高,在見過和未見過的場景驗證集上,并可視化了其內(nèi)部獎勵指標。

論文地址:

https://arxiv.org/pdf/1811.10092.pdf

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    382

    瀏覽量

    11515
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13913
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23182

原文標題:CVPR 2019審稿滿分論文:中國博士提出融合CV與NLP的視覺語言導(dǎo)航新方法

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    AGV視覺導(dǎo)航:智能物流的“智慧之眼”

    獲取移動物體空間中所處的位置、方向和其他環(huán)境信息,并用定的算法對所獲信息進行處理,建立環(huán)境模型,進而尋找條最優(yōu)或近似最優(yōu)的無碰路徑,實
    的頭像 發(fā)表于 11-04 15:54 ?188次閱讀
    AGV<b class='flag-5'>視覺</b><b class='flag-5'>導(dǎo)航</b>:智能物流的“智慧之眼”

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    計算 閃存的新穎方法代表了一種多用途的管理模型權(quán)重的策略,它根據(jù)輸入的性質(zhì)提升性能,從而增強所提出的方案各種大模型場景中的有效性、可用性和實用性。 3、基于GPU的大模型計算 3.
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+內(nèi)容總覽

    ,其中第章是概論,主要介紹大模型浪潮下AI芯片的需求與挑戰(zhàn)。第二章和第三章分別介紹實現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法和架構(gòu)。以及些新型的算法和思路。第四章是全面介紹半導(dǎo)體芯產(chǎn)業(yè)的前沿技術(shù),包括新型晶體管
    發(fā)表于 09-05 15:10

    芯片制造中高精度膜厚測量與校準:基于紅外干涉技術(shù)的新方法

    、環(huán)境光干擾及薄膜傾斜等因素限制,測量精度難以滿足高精度工業(yè)需求。為此,本研究提出一種融合紅外干涉與激光校準的薄膜厚度測量新方法,旨在突破傳統(tǒng)技術(shù)瓶頸,實現(xiàn)更精準、
    的頭像 發(fā)表于 07-21 18:17 ?2514次閱讀
    芯片制造中高精度膜厚測量與校準:基于紅外干涉技術(shù)的<b class='flag-5'>新方法</b>

    無刷直流電機轉(zhuǎn)矩脈動抑制新方法

    轉(zhuǎn)矩脈動是影響無劇直流電機高精度伺服系統(tǒng)中應(yīng)用的主要原因。提出一種基于a-p變換和Lyapunov函數(shù)的轉(zhuǎn)矩脈動抑制直接功率控制方法。該方法
    發(fā)表于 07-09 14:12

    Aux-Think打破視覺語言導(dǎo)航任務(wù)的常規(guī)推理范式

    視覺語言導(dǎo)航(VLN)任務(wù)的核心挑戰(zhàn),是讓機器人在復(fù)雜環(huán)境中聽懂指令、看懂世界,并果斷行動。我們系統(tǒng)性地引入推理
    的頭像 發(fā)表于 07-08 10:00 ?398次閱讀
    Aux-Think打破<b class='flag-5'>視覺</b><b class='flag-5'>語言</b><b class='flag-5'>導(dǎo)航</b><b class='flag-5'>任務(wù)</b>的常規(guī)推理范式

    無刷直流電機反電勢過零檢測新方法

    摘 要:無位置傳感器無刷直流電機高速段時反電勢信號過大,容易造成檢測電路無法正常工作其至損壞,而在較低速段時,反電勢信號又難以有效檢測。針對反電勢過零檢測極端速段的問題,提出一種
    發(fā)表于 06-26 13:50

    ?VLM(視覺語言模型)?詳細解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型,
    的頭像 發(fā)表于 03-17 15:32 ?7498次閱讀
    ?VLM(<b class='flag-5'>視覺</b><b class='flag-5'>語言</b>模型)?詳細解析

    文詳解視覺語言模型

    視覺語言模型(VLM)是一種多模態(tài)、生成式 AI 模型,能夠理解和處理視頻、圖像和文本。
    的頭像 發(fā)表于 02-12 11:13 ?3174次閱讀
    <b class='flag-5'>一</b>文詳解<b class='flag-5'>視覺</b><b class='flag-5'>語言</b>模型

    大華股份榮獲中國創(chuàng)新方法大賽等獎

    ,大華股份憑借其卓越的創(chuàng)新能力和深厚的技術(shù)積累,脫穎而出,斬獲了全國等獎。大華股份的獲獎項目為“不懼強光,分毫必現(xiàn),基于TRIZ的強逆光銳捕技術(shù)”。該項目通過靈活運用創(chuàng)新方法,成功突破了行業(yè)性技術(shù)難題,實現(xiàn)了強逆光
    的頭像 發(fā)表于 12-27 14:50 ?869次閱讀

    工業(yè)5.0打造可持續(xù)發(fā)展的未來

    工業(yè)5.0詞自提出以來就備受關(guān)注。歐盟 (EU) 于2021年正式提出工業(yè)5.0[1] 的概念,這是一種工業(yè)工作場所將技術(shù)與人結(jié)合起來的
    的頭像 發(fā)表于 12-18 16:07 ?1849次閱讀

    基于遺傳算法的QD-SOA設(shè)計新方法

    了QD-SOA的設(shè)計,提出一種基于遺傳算法的QD-SOA設(shè)計新方法。由于具有用于設(shè)計的模型是必不可少的,因此步中獲得數(shù)值模型。然后,
    的頭像 發(fā)表于 12-17 09:58 ?687次閱讀
    基于遺傳算法的QD-SOA設(shè)計<b class='flag-5'>新方法</b>

    一種降低VIO/VSLAM系統(tǒng)漂移的新方法

    本文提出一種新方法,通過使用點到平面匹配將VIO/VSLAM系統(tǒng)生成的稀疏3D點云與數(shù)字孿生體進行對齊,從而實現(xiàn)精確且全球致的定位,無需視覺
    的頭像 發(fā)表于 12-13 11:18 ?1171次閱讀
    <b class='flag-5'>一種</b>降低VIO/VSLAM系統(tǒng)漂移的<b class='flag-5'>新方法</b>

    NaVILA:加州大學(xué)與英偉達聯(lián)合發(fā)布新型視覺語言模型

    日前,加州大學(xué)的研究人員攜手英偉達,共同推出了款創(chuàng)新的視覺語言模型——NaVILA。該模型機器人導(dǎo)航領(lǐng)域展現(xiàn)出了獨特的應(yīng)用潛力,為智能機
    的頭像 發(fā)表于 12-13 10:51 ?949次閱讀

    大華股份榮獲2024年中國創(chuàng)新方法大賽等獎

    近日,由中國科協(xié)、重慶市人民政府舉辦的2024年中國創(chuàng)新方法大賽全國總決賽重慶落下帷幕。大華股份靈活運用創(chuàng)新方法、突破行業(yè)性技術(shù)難題,憑借“不懼強光,分毫必現(xiàn),基于TRIZ的強逆光銳捕技術(shù)”項目,斬獲全國
    的頭像 發(fā)表于 12-04 17:19 ?1072次閱讀