chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ICCV 2023 | 面向視覺(jué)-語(yǔ)言導(dǎo)航的實(shí)體-標(biāo)志物對(duì)齊自適應(yīng)預(yù)訓(xùn)練方法

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來(lái)源:未知 ? 2023-10-23 09:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文是 ICCV 2023 入選 Oral 論文 Grounded Entity-Landmark Adaptive Pre-training for Vision-and-Language Navigation 的解讀。本論文是某智能人機(jī)交互團(tuán)隊(duì)在視覺(jué)-語(yǔ)言導(dǎo)航(Vision-and-Language Navigation, VLN)領(lǐng)域的最新工作。該工作構(gòu)建了 VLN 中首個(gè)帶有高質(zhì)量實(shí)體-標(biāo)志物對(duì)齊標(biāo)注的數(shù)據(jù)集,并提出實(shí)體-標(biāo)志物對(duì)齊的自適應(yīng)預(yù)訓(xùn)練方法,從而顯著提高了智能體的導(dǎo)航性能。

ICCV 是“計(jì)算機(jī)視覺(jué)三大頂級(jí)會(huì)議”之一,ICCV 2023 于今年 10 月 2 日至 6 日在法國(guó)巴黎舉行,本屆會(huì)議共收到全球 8260 篇論文投稿,2161 篇被接收,接收率為 26.16%,其中 152 篇論文被選為口頭報(bào)告展示(Oral Presentation),Oral 接收率僅為 1.8%。

wKgZomU10DKADan6AAHijJ9FR38163.png

論文題目:

Grounded Entity-Landmark Adaptive Pre-training for Vision-and-Language Navigation

論文地址:

https://arxiv.org/abs/2308.12587

開(kāi)源數(shù)據(jù)集:

https://pan.baidu.com/s/12WTzZ05T8Uxy85znn28dfQ?pwd=64t7

代碼地址:

https://github.com/csir1996/vln-gela

wKgZomU10DKAfgAhAAAl6LOgh3c680.png

引言

視覺(jué)-語(yǔ)言導(dǎo)航(Vision-and-Language Navigation, VLN)任務(wù)旨在構(gòu)建一種能夠用自然語(yǔ)言與人類交流并在真實(shí) 3D 環(huán)境中自主導(dǎo)航的具身智能體。自提出以來(lái),VLN 越來(lái)越受到計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理和機(jī)器人等領(lǐng)域的廣泛關(guān)注。 如圖 1 所示,將自然語(yǔ)言指令中提過(guò)的標(biāo)志物(物體或者場(chǎng)景)對(duì)應(yīng)到環(huán)境中能夠極大的幫助智能體理解環(huán)境和指令,由此跨模態(tài)對(duì)齊是 VLN 中的關(guān)鍵步驟。然而,大多數(shù)可用的數(shù)據(jù)集只能提供粗粒度的文本-圖像對(duì)齊信號(hào),比如整條指令與整條軌跡的對(duì)應(yīng)或者子指令與子路徑之間的對(duì)應(yīng),而跨模態(tài)對(duì)齊監(jiān)督也都停留在句子級(jí)別(sentence-level)。因此,VLN 需要更細(xì)粒度(entity-level)的跨模態(tài)對(duì)齊數(shù)據(jù)和監(jiān)督方法以促進(jìn)智能體更準(zhǔn)確地導(dǎo)航。

為解決以上問(wèn)題,我們提出了一種面向 VLN 的實(shí)體-標(biāo)志物自適應(yīng)預(yù)訓(xùn)練方法,主要工作與貢獻(xiàn)如下:

1. 我們基于 Room-to-Room(R2R)數(shù)據(jù)集 [1] 標(biāo)注實(shí)體-標(biāo)志物對(duì)齊,構(gòu)建了第一個(gè)帶有高質(zhì)量實(shí)體-標(biāo)志物對(duì)齊標(biāo)注的 VLN 數(shù)據(jù)集,命名為 GEL-R2R;

2. 我們提出一種實(shí)體-標(biāo)志物自適應(yīng)預(yù)訓(xùn)練 (Grounded Entity-Landmark Adaptive,GELA) 方法,利用 GEL-R2R 數(shù)據(jù)集顯式監(jiān)督 VLN 模型學(xué)習(xí)實(shí)體名詞和環(huán)境標(biāo)志物之間的細(xì)粒度跨模態(tài)對(duì)齊;

3. 我們構(gòu)建的 GELA 模型在兩個(gè) VLN 下游任務(wù)上取得了最佳的導(dǎo)航性能,證明了我們數(shù)據(jù)集和方法的有效性和泛化性。 wKgZomU10DKAHMgwAAy1Xi4UNy4383.png▲圖1. 具身智能體在3D真實(shí)環(huán)境中的導(dǎo)航示例 wKgZomU10DOARN_dAAAuhh9-KLM163.png

GEL-R2R數(shù)據(jù)集

為了建立指令中實(shí)體短語(yǔ)與其周圍環(huán)境中相應(yīng)標(biāo)志物之間的對(duì)齊,我們?cè)?R2R 數(shù)據(jù)集的基礎(chǔ)上進(jìn)行了實(shí)體-標(biāo)志物對(duì)齊的人工標(biāo)注,整個(gè)流程包括五個(gè)階段:

1. 原始數(shù)據(jù)準(zhǔn)備。我們從 Matterport3D 模擬器中采集每個(gè)可導(dǎo)航點(diǎn)的全景圖。為了提高標(biāo)注的效率和準(zhǔn)確性,我們?cè)谌皥D中標(biāo)注下一個(gè)動(dòng)作方向,并根據(jù) FG-R2R 數(shù)據(jù)集 [2] 將每個(gè)全景圖與相應(yīng)的子指令進(jìn)行對(duì)應(yīng);

2. 標(biāo)注工具開(kāi)發(fā)。我們基于 Label-Studio 開(kāi)發(fā)了一個(gè)跨模態(tài)標(biāo)注平臺(tái),如圖 2 所示;

3. 標(biāo)注指南建立。為確保標(biāo)注的一致性,我們經(jīng)過(guò)預(yù)標(biāo)注之后建立了四個(gè)準(zhǔn)則來(lái)標(biāo)準(zhǔn)化標(biāo)注指南:

  • 對(duì)齊準(zhǔn)則:指令中的實(shí)體短語(yǔ)應(yīng)與全景圖中的標(biāo)志物準(zhǔn)確匹配

  • 自由文本準(zhǔn)則:標(biāo)注自由文本而不是類別

  • 文本共指準(zhǔn)則:指代相同標(biāo)志物的實(shí)體短語(yǔ)用相同的標(biāo)簽標(biāo)注

  • 唯一標(biāo)志物準(zhǔn)則:對(duì)于一個(gè)實(shí)體短語(yǔ),在全景圖中只應(yīng)標(biāo)注一個(gè)對(duì)應(yīng)的標(biāo)志物

4. 數(shù)據(jù)標(biāo)注與修訂;

5. 數(shù)據(jù)整合與處理。

wKgZomU10DOAbfPKAAh8T1fXP9Q036.png

▲圖2. GEL-R2R數(shù)據(jù)集標(biāo)注界面如圖 3 所示,GEL-R2R 數(shù)據(jù)集共包含:71467 個(gè)實(shí)體短語(yǔ),其中訓(xùn)練集 57788 個(gè),已見(jiàn)環(huán)境驗(yàn)證集 4196 個(gè),未見(jiàn)環(huán)境驗(yàn)證集 9483 個(gè);150183 個(gè)標(biāo)志物,其中訓(xùn)練集 121146 個(gè),已見(jiàn)環(huán)境驗(yàn)證集 8741 個(gè),未見(jiàn)環(huán)境驗(yàn)證集 20296 個(gè)。

wKgZomU10DOAaVXnAAIx1uvi4R8766.png▲圖3. GEL-R2R數(shù)據(jù)集統(tǒng)計(jì)分析 wKgZomU10DOAdwO2AAAtJ0fTuoM459.png

GELA方法

wKgZomU10DOADXdrAARjJLZ30i8478.png圖4. GELA方法概覽

如圖 4 所示,方法流程分為三個(gè)階段:預(yù)訓(xùn)練(pre-training)、自適應(yīng)預(yù)訓(xùn)練(adaptive pre-training)和微調(diào)(fine-tuning)。我們直接在預(yù)訓(xùn)練模型 HAMT [3] 的基礎(chǔ)上進(jìn)行自適應(yīng)預(yù)訓(xùn)練,HAMT 模型由文本編碼器、圖像編碼器、歷史編碼器和跨模態(tài)編碼器構(gòu)成。我們將跨模態(tài)編碼器輸出的文本向量、歷史向量和圖像向量分別記為 Z、Y 和 S。我們?cè)O(shè)計(jì)了三種自適應(yīng)預(yù)訓(xùn)練任務(wù):

1. 實(shí)體短語(yǔ)預(yù)測(cè)。在這個(gè)任務(wù)中,我們通過(guò)標(biāo)注的環(huán)境標(biāo)志物預(yù)測(cè)其對(duì)應(yīng)的實(shí)體短語(yǔ)在指令中的位置。首先將人工標(biāo)注的實(shí)體位置轉(zhuǎn)化為 L+1 維的掩碼向量 (與 維度相同),并將人工標(biāo)注的標(biāo)志物邊界框轉(zhuǎn)化為 37 維的掩碼向量 (與 維度相同)。然后,我們將標(biāo)志物圖像 patch 的特征平均化,并將其輸入一個(gè)兩層前饋網(wǎng)絡(luò)(Feedforward Network, FFN)中,預(yù)測(cè)指令序列中 token 位置的概率分布,用掩碼向量 作監(jiān)督,具體損失函數(shù)為:

wKgZomU10DOAJKS2AAAX-lg11Os006.png

wKgZomU10DSAezOmAAAX-6i6ifg222.png

2. 標(biāo)志物邊界框預(yù)測(cè)。在這個(gè)任務(wù)中,我們通過(guò)標(biāo)注的實(shí)體名詞預(yù)測(cè)其對(duì)應(yīng)的標(biāo)志物邊界框坐標(biāo)。首先平均實(shí)體短語(yǔ) token 的特征向量,然后將其輸入兩層 FFN 和 Sigmoid 函數(shù)預(yù)測(cè)坐標(biāo) :

wKgZomU10DSAEijaAAAVifzwXqI883.png

最后,將人工標(biāo)注的 box=(x,y,w,h) 和 box’ 作 smooth-l1 損失和 GIoU 損失:

wKgZomU10DSAahFTAAAUW23ODXc548.png

3. 實(shí)體-標(biāo)志物語(yǔ)義對(duì)齊。上述兩個(gè)單向預(yù)測(cè)任務(wù)使用位置信息來(lái)匹配實(shí)體和標(biāo)志物,而此任務(wù)在跨模態(tài)編碼器輸出端強(qiáng)制對(duì)齊相對(duì)應(yīng)的標(biāo)志物和實(shí)體的特征向量。這個(gè)任務(wù)的約束比上面兩個(gè)單向預(yù)測(cè)任務(wù)更強(qiáng),因?yàn)樗苯幼饔糜诒硎?,而不是僅僅基于位置信息。具體損失函數(shù)如下:

wKgZomU10DSANVDoAAB0Xlwcdgw449.png自適應(yīng)預(yù)訓(xùn)練最終的損失函數(shù)為:

wKgZomU10DSABFrEAAAP7deVISE239.png

經(jīng)過(guò)自適應(yīng)預(yù)訓(xùn)練后,我們利用模仿學(xué)習(xí) (Imitation Learning,IL) 和強(qiáng)化學(xué)習(xí) (Reinforcement Learning,RL) 訓(xùn)練策略對(duì) GELA 模型在兩個(gè) VLN 下游任務(wù)(R2R 和 CVDN)上進(jìn)行微調(diào)。IL 監(jiān)督智能體克隆專家的行為,RL 鼓勵(lì)智能體根據(jù)學(xué)習(xí)策略探索軌跡。 wKgZomU10DWAZwyjAAAr2pbNr48702.png ?

實(shí)驗(yàn)結(jié)果

如圖 5 所示,GELA 模型在 R2R 數(shù)據(jù)集上與先前 SOTA 模型的性能進(jìn)行比較。GELA 模型在所有子集上的主要指標(biāo)(SR 和 SPL)均優(yōu)于所有其他模型。具體地,在已知驗(yàn)證集上,GELA 的性能與 HAMT 模型相當(dāng),而在未知驗(yàn)證集和測(cè)試集上,GELA 模型分別取得了 5% 、2% (SR) 和 4% 、2% (SPL) 的提高。因此,GELA 模型具有更好的未知環(huán)境泛化能力,這主要是由于 GELA 模型在學(xué)習(xí)實(shí)體-標(biāo)志物對(duì)齊后,具有較強(qiáng)的語(yǔ)義特征捕捉能力。 wKgZomU10DWAfcr3AAMjz4D3vq4782.png 圖5. R2R數(shù)據(jù)集上的性能對(duì)比 我們同樣在 CVDN 數(shù)據(jù)集上對(duì)比了 GELA 模型與先前 SOTA 模型的性能,如圖 6 所示,該數(shù)據(jù)集使用以米為單位的目標(biāo)進(jìn)度 (Goal Progress,GP) 作為關(guān)鍵性能指標(biāo)。結(jié)果表明,GELA 模型在驗(yàn)證集和測(cè)試集上的性能都明顯優(yōu)于其他模型。因此,GELA 模型對(duì)不同的 VLN 下游任務(wù)具有良好的泛化能力。

wKgZomU10DWAPX-AAADJrBWOOD4487.png圖6. CVDN數(shù)據(jù)集上的性能對(duì)比

wKgZomU10DWANcWFAAAC0jQz1zo582.jpg

參考文獻(xiàn)

wKgZomU10DWANcWFAAAC0jQz1zo582.jpg ?

[1] Peter Anderson, Qi Wu, Damien Teney, Jake Bruce, Mark Johnson, Niko S ? underhauf, Ian D. Reid, Stephen Gould, and Anton van den Hengel. Vision-and-language navigation: Interpreting visually-grounded navigation instructions in real environments. In CVPR, pages 3674–3683, 2018.

[2] Yicong Hong, Cristian Rodriguez Opazo, Qi Wu, and Stephen Gould. Sub-instruction aware vision-and-language navigation. In EMNLP, pages 3360–3376, 2020.

[3] Shizhe Chen, Pierre-Louis Guhur, Cordelia Schmid, and Ivan Laptev. History aware multimodal transformer for vision-and-language navigation. In NeurIPS, pages 58345847, 2021.

·


原文標(biāo)題:ICCV 2023 | 面向視覺(jué)-語(yǔ)言導(dǎo)航的實(shí)體-標(biāo)志物對(duì)齊自適應(yīng)預(yù)訓(xùn)練方法

文章出處:【微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:ICCV 2023 | 面向視覺(jué)-語(yǔ)言導(dǎo)航的實(shí)體-標(biāo)志物對(duì)齊自適應(yīng)預(yù)訓(xùn)練方法

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于FPGA LMS算法的自適應(yīng)濾波器設(shè)計(jì)

    自適應(yīng)濾波是近幾十年發(fā)展起來(lái)的信號(hào)處理理論的的新分支。隨著人們?cè)谠擃I(lǐng)域研究的不斷深入,自適應(yīng)處理的理論和技術(shù)日趨完善,其應(yīng)用領(lǐng)域也越來(lái)越廣泛。自適應(yīng)濾波在通信、控制、語(yǔ)言分析和綜合、地
    的頭像 發(fā)表于 07-10 11:25 ?797次閱讀
    基于FPGA LMS算法的<b class='flag-5'>自適應(yīng)</b>濾波器設(shè)計(jì)

    無(wú)刷直流電機(jī)雙閉環(huán)模糊自適應(yīng)控制方法研究

    純分享帖,點(diǎn)擊下方附件免費(fèi)獲取完整資料~~~ *附件:無(wú)刷直流電機(jī)雙閉環(huán)模糊自適應(yīng)控制方法研究.pdf 【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問(wèn)題,請(qǐng)第一時(shí)間告知,刪除內(nèi)容,謝謝!
    發(fā)表于 07-08 18:35

    暨南大學(xué):鐵電極化調(diào)控的自供電、高靈敏PEC型腫瘤標(biāo)志物傳感技術(shù)

    ? 惡性腫瘤的早期診斷與精準(zhǔn)監(jiān)測(cè)是臨床醫(yī)學(xué)與基礎(chǔ)研究的核心挑戰(zhàn)。癌胚抗原(CEA)作為結(jié)直腸癌、胃癌及乳腺癌等多種實(shí)體瘤的關(guān)鍵腫瘤標(biāo)志物,其濃度異常升高與腫瘤負(fù)荷及進(jìn)展顯著相關(guān)。實(shí)現(xiàn)CEA的超靈敏
    的頭像 發(fā)表于 07-08 17:27 ?824次閱讀
    暨南大學(xué):鐵電極化調(diào)控的自供電、高靈敏PEC型腫瘤<b class='flag-5'>標(biāo)志物</b>傳感技術(shù)

    格靈深瞳六篇論文入選ICCV 2025

    近日,國(guó)際頂級(jí)會(huì)議ICCV 2025(計(jì)算機(jī)視覺(jué)國(guó)際大會(huì))公布論文錄用結(jié)果,格靈深瞳團(tuán)隊(duì)共有6篇論文入選。
    的頭像 發(fā)表于 07-07 18:23 ?420次閱讀

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進(jìn)一步講解更多的技術(shù)細(xì)節(jié)。本文主要針對(duì)大語(yǔ)言模型的預(yù)
    的頭像 發(fā)表于 03-21 18:24 ?1636次閱讀
    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集

    GLAD應(yīng)用:大氣像差與自適應(yīng)光學(xué)

    概述 激光在大氣湍流中傳輸時(shí)會(huì)拾取大氣湍流導(dǎo)致的相位畸變,特別是在長(zhǎng)距離傳輸?shù)募す馔ㄐ畔到y(tǒng)中。這種畸變會(huì)使傳輸激光的波前劣化。通過(guò)在系統(tǒng)中引入自適應(yīng)光學(xué)系統(tǒng),可以對(duì)激光傳輸時(shí)拾取的低頻畸變進(jìn)行校正
    發(fā)表于 03-10 08:55

    用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 之前我們分享了《從零開(kāi)始訓(xùn)練一個(gè)大語(yǔ)言模型需要投資多少錢》,其中高昂的預(yù)訓(xùn)練費(fèi)用讓許多對(duì)大模型預(yù)
    的頭像 發(fā)表于 02-19 16:10 ?989次閱讀
    用PaddleNLP在4060單卡上實(shí)踐大模型<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>技術(shù)

    騰訊公布大語(yǔ)言模型訓(xùn)練新專利

    近日,騰訊科技(深圳)有限公司公布了一項(xiàng)名為“大語(yǔ)言模型的訓(xùn)練方法、裝置、計(jì)算機(jī)設(shè)備及存儲(chǔ)介質(zhì)”的新專利。該專利的公布,標(biāo)志著騰訊在大語(yǔ)言模型訓(xùn)練
    的頭像 發(fā)表于 02-10 09:37 ?397次閱讀

    基于自適應(yīng)優(yōu)化的高速交叉矩陣設(shè)計(jì)

    提出了一種基于自適應(yīng)優(yōu)化的交叉矩陣傳輸設(shè)計(jì),采用AHB協(xié)議并引入自適應(yīng)突發(fā)傳輸調(diào)整和自適應(yīng)優(yōu)先級(jí)調(diào)整的創(chuàng)新機(jī)制。通過(guò)動(dòng)態(tài)調(diào)整突發(fā)傳輸?shù)拈L(zhǎng)度和優(yōu)先級(jí)分配,實(shí)現(xiàn)了對(duì)數(shù)據(jù)流的有效管理,提升了系統(tǒng)的帶寬
    的頭像 發(fā)表于 01-18 10:24 ?397次閱讀

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    模型展示了強(qiáng)大的泛化能力,能夠?qū)⒃谀M環(huán)境學(xué)到的技能遷移到真實(shí)場(chǎng)景。RT-2的改進(jìn)版本更是引入了視覺(jué)-語(yǔ)言預(yù)訓(xùn)練技術(shù),使模型能夠理解更抽象的任務(wù)描述。 第8章通過(guò)具體應(yīng)用案例展現(xiàn)了具身
    發(fā)表于 12-24 15:03

    基于視覺(jué)語(yǔ)言模型的導(dǎo)航框架VLMnav

    本文提出了一種將視覺(jué)語(yǔ)言模型(VLM)轉(zhuǎn)換為端到端導(dǎo)航策略的具體框架。不依賴于感知、規(guī)劃和控制之間的分離,而是使用VLM在一步中直接選擇動(dòng)作。驚訝的是,我們發(fā)現(xiàn)VLM可以作為一種無(wú)需任何微調(diào)或
    的頭像 發(fā)表于 11-22 09:42 ?789次閱讀

    LLM和傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    訓(xùn)練方法 LLM: 預(yù)訓(xùn)練和微調(diào): LLM通常采用預(yù)訓(xùn)練(Pre-training)和微調(diào)(Fine-tuning)的
    的頭像 發(fā)表于 11-08 09:25 ?1866次閱讀

    AGV激光導(dǎo)航定位技術(shù)與構(gòu)建地圖

    AGV是制造物流重要設(shè)備,激光導(dǎo)航AGV高可靠靈活,SLAM技術(shù)關(guān)鍵,激光SLAM成熟且落地豐富,無(wú)需人工標(biāo)志物,復(fù)合式激光導(dǎo)航兼顧可靠性與靈活性,激光導(dǎo)航結(jié)合內(nèi)部傳感器提升
    的頭像 發(fā)表于 11-06 11:51 ?801次閱讀
    AGV激光<b class='flag-5'>導(dǎo)航</b>定位技術(shù)與構(gòu)建地圖

    步進(jìn)電機(jī)如何自適應(yīng)控制?步進(jìn)電機(jī)如何細(xì)分驅(qū)動(dòng)控制?

    是一種智能控制方法,它可以根據(jù)系統(tǒng)參數(shù)的變化和外部干擾自動(dòng)調(diào)整控制策略,以實(shí)現(xiàn)對(duì)系統(tǒng)的穩(wěn)定和精確控制。在步進(jìn)電機(jī)的自適應(yīng)控制中,主要涉及到以下幾個(gè)方面: 系統(tǒng)建模:首先需要對(duì)步進(jìn)電機(jī)的動(dòng)態(tài)特性進(jìn)行建模,包括電機(jī)的
    的頭像 發(fā)表于 10-23 10:04 ?1619次閱讀

    ai大模型訓(xùn)練方法有哪些?

    AI大模型訓(xùn)練方法是一個(gè)復(fù)雜且不斷發(fā)展的領(lǐng)域。以下是ai大模型訓(xùn)練方法: 數(shù)據(jù)預(yù)處理和增強(qiáng) 數(shù)據(jù)清洗:去除噪聲和不完整的數(shù)據(jù)。 數(shù)據(jù)標(biāo)準(zhǔn)化:將數(shù)據(jù)縮放到統(tǒng)一的范圍。 數(shù)據(jù)增強(qiáng):通過(guò)旋轉(zhuǎn)、縮放、裁剪等
    的頭像 發(fā)表于 07-16 10:11 ?3148次閱讀