chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用自監(jiān)督學(xué)習(xí)重建動(dòng)態(tài)駕駛場(chǎng)景

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:未知 ? 2023-12-16 16:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgaomV9W2eACTqvAI2RUKtEaQ8569.gif

無(wú)論是單調(diào)的高速行車(chē),還是平日的短途出行,駕駛過(guò)程往往平淡無(wú)奇。因此,在現(xiàn)實(shí)世界中采集的用于開(kāi)發(fā)自動(dòng)駕駛汽車(chē)(AV)的大部分訓(xùn)練數(shù)據(jù)都明顯偏向于簡(jiǎn)單場(chǎng)景。

這給部署魯棒的感知模型帶來(lái)了挑戰(zhàn)。自動(dòng)駕駛汽車(chē)必須接受全面的訓(xùn)練、測(cè)試和驗(yàn)證,以便能夠應(yīng)對(duì)復(fù)雜的場(chǎng)景,而這需要大量涵蓋此類(lèi)場(chǎng)景的數(shù)據(jù)。

在現(xiàn)實(shí)世界中,收集此類(lèi)場(chǎng)景數(shù)據(jù)要耗費(fèi)大量時(shí)間和成本。而現(xiàn)在,仿真提供了另一個(gè)可選方案。但要大規(guī)模生成復(fù)雜動(dòng)態(tài)場(chǎng)景仍然困難重重。

在近期發(fā)布的一篇論文中,NVIDIA Research 展示了一種基于神經(jīng)輻射場(chǎng)(NeRF)的新方法——EmerNeRF 及其如何使用自監(jiān)督學(xué)習(xí)準(zhǔn)確生成動(dòng)態(tài)場(chǎng)景。通過(guò)自監(jiān)督方法訓(xùn)練,EmerNeRF 在動(dòng)靜態(tài)場(chǎng)景重建上的表現(xiàn)超越了之前其他 NeRF 方法。詳細(xì)情況請(qǐng)參見(jiàn) EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision

wKgaomV9W2iAWIQRAIG3gjsjUmk047.gif

wKgaomV9W2qAEBhsAHW-H-Nc2wI223.gif

wKgaomV9W2uADx4ZAGFS9lTdEQ0746.gif

圖 1. EmerNeRF 重建動(dòng)態(tài)駕駛場(chǎng)景的示例

相比其他 NeRF 重建方法,EmerNeRF 的動(dòng)態(tài)場(chǎng)景重建準(zhǔn)確率高出 15%,靜態(tài)場(chǎng)景高出 11%。新視角合成的準(zhǔn)確率也高出 12%。

打破 NeRF 方法的局限性

NeRF 將一組靜態(tài)圖像重建成逼真的 3D 場(chǎng)景。這使得依據(jù)駕駛?cè)罩局亟ㄓ糜?DNN 訓(xùn)練、測(cè)試驗(yàn)證的高保真仿真環(huán)境成為可能。

然而,目前基于 NeRF 的重建方法在處理動(dòng)態(tài)物體時(shí)十分困難,而且實(shí)踐證明難以擴(kuò)展。例如有些方法可以生成靜態(tài)和動(dòng)態(tài)場(chǎng)景,但它們依賴(lài)真值(GT)標(biāo)簽。這就意味著必須使用自動(dòng)標(biāo)注或人工標(biāo)注員先來(lái)準(zhǔn)確標(biāo)注出駕駛?cè)罩局械拿總€(gè)物體。

其他 NeRF 方法則依賴(lài)于額外的模型來(lái)獲得完整的場(chǎng)景信息,例如光流。

為了打破這些局限性,EmerNeRF 使用自監(jiān)督學(xué)習(xí)將場(chǎng)景分解為靜態(tài)、動(dòng)態(tài)和流場(chǎng)(flow fields)。該模型從原始數(shù)據(jù)中學(xué)習(xí)前景、背景之間的關(guān)聯(lián)和結(jié)構(gòu),而不依賴(lài)人工標(biāo)注的 GT 標(biāo)簽。然后,對(duì)場(chǎng)景做時(shí)空渲染,并不依賴(lài)外部模型來(lái)彌補(bǔ)時(shí)空中的不完整區(qū)域,而且準(zhǔn)確性更高。

wKgaomV9W22ANZJBAIreJrPM29Q814.gif

圖 2. EmerNeRF 將圖 1 第一段視頻中的場(chǎng)景分解為動(dòng)態(tài)場(chǎng)、靜態(tài)場(chǎng)和流場(chǎng)

因此,其他模型往往會(huì)產(chǎn)生過(guò)于平滑的背景和精度較低的動(dòng)態(tài)物體(前景),而 EmerNeRF 則能重建高保真的背景及動(dòng)態(tài)物體(前景),同時(shí)保留場(chǎng)景的細(xì)節(jié)。

wKgaomV9W22AEIs2AAHQ9VA5HZs560.png

表 1. 將 EmerNeRF 與其他基于 NeRF 的動(dòng)態(tài)場(chǎng)景重建方法進(jìn)行比較后的評(píng)估結(jié)果,分為場(chǎng)景重建性能和新視角合成性能兩個(gè)類(lèi)別

wKgaomV9W22AfcY9AAA2G6E-KP4237.png

表 2. 將 EmerNeRF 與其他基于 NeRF 的靜態(tài)場(chǎng)景重建方法進(jìn)行比較后的評(píng)估結(jié)果

EmerNeRF 方法

EmerNeRF 使用的是自監(jiān)督學(xué)習(xí),而非人工注釋或外部模型,這使得它能夠避開(kāi)之前方法所遇到的難題。

wKgaomV9W26AEUZHAAIDIitNPLA183.png

圖 3.EmerNeRF 分解和重建管線(xiàn)

EmerNeRF 將場(chǎng)景分解成動(dòng)態(tài)和靜態(tài)元素。在場(chǎng)景分解的同時(shí),EmerNeRF 還能估算出動(dòng)態(tài)物體(如汽車(chē)和行人)的流場(chǎng),并通過(guò)聚合流場(chǎng)在不同時(shí)間的特征以進(jìn)一步提高重建質(zhì)量。其他方法會(huì)使用外部模型提供此類(lèi)光流數(shù)據(jù),但通常會(huì)引入偏差。

通過(guò)將靜態(tài)場(chǎng)、動(dòng)態(tài)場(chǎng)和流場(chǎng)結(jié)合在一起,EmerNeRF 能夠充分表達(dá)高密度動(dòng)態(tài)場(chǎng)景,這不僅提高了重建精度,也方便擴(kuò)展到其他數(shù)據(jù)源。

使用基礎(chǔ)模型加強(qiáng)語(yǔ)義理解

EmerNeRF 對(duì)場(chǎng)景的語(yǔ)義理解,可通過(guò)(視覺(jué))基礎(chǔ)大模型監(jiān)督進(jìn)一步增強(qiáng)?;A(chǔ)大模型具有更通用的知識(shí)(例如特定類(lèi)型的車(chē)輛或動(dòng)物)。EmerNeRF 使用視覺(jué) Transformer(ViT)模型,例如 DINO, DINOv2,將語(yǔ)義特征整合到場(chǎng)景重建中。

這使 EmerNeRF 能夠更好地預(yù)測(cè)場(chǎng)景中的物體,并執(zhí)行自動(dòng)標(biāo)注等下游任務(wù)。

wKgaomV9W2-AXLGcAEMAJKXvMk4609.gif

圖 4. EmerNeRF 使用 DINO 和 DINOv2 等基礎(chǔ)模型加強(qiáng)對(duì)場(chǎng)景的語(yǔ)義理解

不過(guò),基于 Transformer 的基礎(chǔ)模型也帶來(lái)了新的挑戰(zhàn):語(yǔ)義特征可能會(huì)表現(xiàn)出與位置相關(guān)的噪聲,從而大大限制下游任務(wù)的性能。

wKgaomV9W3CAHehyAD0gOpmySM4007.gif

圖 5. EmerNeRF 使用位置嵌入消除基于 Transformer 的基礎(chǔ)模型所產(chǎn)生的噪聲

為了解決噪聲問(wèn)題,EmerNeRF 通過(guò)位置編碼分解來(lái)恢復(fù)無(wú)噪聲的特征圖。如圖 5 所示,這樣就解鎖了基礎(chǔ)大模型在語(yǔ)義特征上全面、準(zhǔn)確的表征能力。

評(píng)估 EmerNeRF

正如 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision 中所述,研究人員整理出了一個(gè)包含 120 個(gè)獨(dú)特場(chǎng)景的數(shù)據(jù)集來(lái)評(píng)估 EmerNeRF 的性能,這些場(chǎng)景分為 32 個(gè)靜態(tài)場(chǎng)景、32 個(gè)動(dòng)態(tài)場(chǎng)景和 56 個(gè)多樣化場(chǎng)景,覆蓋了高速、低光照等具有挑戰(zhàn)性的場(chǎng)景。

然后根據(jù)數(shù)據(jù)集的不同子集,評(píng)估每個(gè) NeRF 模型重建場(chǎng)景和合成新視角的能力。

如表 1 所示,據(jù)此,EmerNeRF 在場(chǎng)景重建和新視角合成方面的表現(xiàn)始終明顯優(yōu)于其他方法。

EmerNeRF 的表現(xiàn)還優(yōu)于專(zhuān)門(mén)用于靜態(tài)場(chǎng)景的方法,這表明將場(chǎng)景分解為靜態(tài)和動(dòng)態(tài)元素的自監(jiān)督分解既能夠改善靜態(tài)重建,還能夠改善動(dòng)態(tài)重建。

總結(jié)

自動(dòng)駕駛仿真只有在能夠準(zhǔn)確重建現(xiàn)實(shí)世界的情況下才會(huì)有效。隨著場(chǎng)景的日益動(dòng)態(tài)化和復(fù)雜化,對(duì)保真度的要求也越來(lái)越高,而且更難實(shí)現(xiàn)。

與以前的方法相比,EmerNeRF 能夠更準(zhǔn)確地表現(xiàn)和重建動(dòng)態(tài)場(chǎng)景,而且無(wú)需人工監(jiān)督或外部模型。這樣就能大規(guī)模地重建和編輯復(fù)雜的駕駛數(shù)據(jù),解決目前自動(dòng)駕駛汽車(chē)訓(xùn)練數(shù)據(jù)集的不平衡問(wèn)題。

NVIDIA 正迫切希望研究 EmerNeRF 帶來(lái)的新功能,如端到端駕駛、自動(dòng)標(biāo)注和仿真等。

如要了解更多信息,請(qǐng)?jiān)L問(wèn) EmerNeRF 項(xiàng)目頁(yè)面并閱讀 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision。

了解更多

  • 適用于自動(dòng)駕駛汽車(chē)的解決方案

    https://www.nvidia.cn/self-driving-cars/

  • EmerNeRF 項(xiàng)目頁(yè)面

    https://emernerf.github.io/

  • 閱讀 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision.

    https://arxiv.org/abs/2311.02077

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國(guó)加州圣何塞會(huì)議中心舉行,線(xiàn)上大會(huì)也將同期開(kāi)放。點(diǎn)擊“閱讀原文”掃描下方海報(bào)二維碼,立即注冊(cè) GTC 大會(huì)。


原文標(biāo)題:使用自監(jiān)督學(xué)習(xí)重建動(dòng)態(tài)駕駛場(chǎng)景

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4068

    瀏覽量

    98580

原文標(biāo)題:使用自監(jiān)督學(xué)習(xí)重建動(dòng)態(tài)駕駛場(chǎng)景

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    趨勢(shì): 無(wú)監(jiān)督學(xué)習(xí)普及 當(dāng)前工業(yè)場(chǎng)景中80%的缺陷檢測(cè)項(xiàng)目面臨\"OK樣本充足而NG樣本稀缺\"的困境,傳統(tǒng)監(jiān)督學(xué)習(xí)方案難以落地。課程第11系列(無(wú)監(jiān)督缺陷檢測(cè)篇)提供無(wú)需標(biāo)注即可
    發(fā)表于 12-04 09:28

    自動(dòng)駕駛數(shù)據(jù)標(biāo)注是所有信息都要標(biāo)注嗎?

    本身只是像素和點(diǎn)云。標(biāo)注的工作就是人為地給這些信號(hào)貼上語(yǔ)義標(biāo)簽,告訴模型這是一輛車(chē)、這是行人、這是車(chē)道線(xiàn)、這個(gè)區(qū)域不能通行之類(lèi)的明確信息。沒(méi)有這些標(biāo)簽,監(jiān)督學(xué)習(xí)、驗(yàn)證和評(píng)估都無(wú)法進(jìn)行,模型不知道哪些輸入與哪些輸出應(yīng)該
    的頭像 發(fā)表于 12-04 09:05 ?737次閱讀
    自動(dòng)<b class='flag-5'>駕駛</b>數(shù)據(jù)標(biāo)注是所有信息都要標(biāo)注嗎?

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    趨勢(shì): 無(wú)監(jiān)督學(xué)習(xí)普及 當(dāng)前工業(yè)場(chǎng)景中80%的缺陷檢測(cè)項(xiàng)目面臨\"OK樣本充足而NG樣本稀缺\"的困境,傳統(tǒng)監(jiān)督學(xué)習(xí)方案難以落地。課程第11系列(無(wú)監(jiān)督缺陷檢測(cè)篇)提供無(wú)需標(biāo)注即可
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類(lèi):對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類(lèi) 外觀(guān)質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀(guān)質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?172次閱讀

    如何選擇適合的智駕仿真工具進(jìn)行場(chǎng)景生成和測(cè)試?

    在自動(dòng)駕駛技術(shù)日益發(fā)展的背景下,選擇合適的智駕仿真工具進(jìn)行場(chǎng)景生成和測(cè)試顯得尤為重要。該工具不僅需要支持高精度的場(chǎng)景重建,還需滿(mǎn)足多種環(huán)境條件和傳感器模型的兼容性。本文將深入探討如何評(píng)
    的頭像 發(fā)表于 11-25 10:32 ?305次閱讀
    如何選擇適合的智駕仿真工具進(jìn)行<b class='flag-5'>場(chǎng)景</b>生成和測(cè)試?

    僅使用智能手機(jī)在NVIDIA Isaac Sim中重建場(chǎng)景

    使用 iPhone 拍攝照片,到利用 3DGUT 進(jìn)行 3D 場(chǎng)景重建,再到將重建場(chǎng)景導(dǎo)入 NVIDIA Isaac Sim 并添加機(jī)器人。若要跳過(guò)
    的頭像 發(fā)表于 11-10 14:03 ?701次閱讀

    講講如何閉環(huán)自動(dòng)駕駛仿真場(chǎng)景,從重建到可用?

    靜態(tài)3D場(chǎng)景無(wú)法滿(mǎn)足仿真測(cè)試?缺乏動(dòng)態(tài)交通流、難以模擬極端天氣、傳感器模型不逼真!本文帶您看aiSim場(chǎng)景編輯與GGSR渲染器如何破局!自由配置暴雨黑夜與虛擬車(chē)流,使用通用高斯?jié)姙R實(shí)現(xiàn)廣角無(wú)畸變的高保真渲染,為自動(dòng)
    的頭像 發(fā)表于 10-27 11:10 ?7210次閱讀
    講講如何閉環(huán)自動(dòng)<b class='flag-5'>駕駛</b>仿真<b class='flag-5'>場(chǎng)景</b>,從<b class='flag-5'>重建</b>到可用?

    從“重建”到“可用”:aiSim3DGS方案如何閉環(huán)自動(dòng)駕駛仿真場(chǎng)景?

    3DGaussianSplatting(3DGS)憑借高效渲染與逼真場(chǎng)景還原能力,逐漸成為三維重建與仿真領(lǐng)域的焦點(diǎn)。然而,實(shí)際應(yīng)用中,如何將多源異構(gòu)數(shù)據(jù)高效轉(zhuǎn)化為可用的3DGS場(chǎng)景,如
    的頭像 發(fā)表于 10-24 17:33 ?28次閱讀
    從“<b class='flag-5'>重建</b>”到“可用”:aiSim3DGS方案如何閉環(huán)自動(dòng)<b class='flag-5'>駕駛</b>仿真<b class='flag-5'>場(chǎng)景</b>?

    自動(dòng)駕駛中常提的“強(qiáng)化學(xué)習(xí)”是個(gè)啥?

    下,就是一個(gè)智能體在環(huán)境里行動(dòng),它能觀(guān)察到環(huán)境的一些信息,并做出一個(gè)動(dòng)作,然后環(huán)境會(huì)給出一個(gè)反饋(獎(jiǎng)勵(lì)或懲罰),智能體的目標(biāo)是把長(zhǎng)期得到的獎(jiǎng)勵(lì)累積到最大。和監(jiān)督學(xué)習(xí)不同,強(qiáng)化學(xué)習(xí)沒(méi)有一一對(duì)應(yīng)的“正確答案”給它看,而是靠與環(huán)境交互、自我探索來(lái)發(fā)現(xiàn)
    的頭像 發(fā)表于 10-23 09:00 ?548次閱讀
    自動(dòng)<b class='flag-5'>駕駛</b>中常提的“強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>”是個(gè)啥?

    一種基于多次觀(guān)測(cè)融合的可交互三維高斯場(chǎng)景重建框架

    在計(jì)算機(jī)視覺(jué)和機(jī)器人領(lǐng)域,如何完整、真實(shí)地重建一個(gè)可交互的三維場(chǎng)景,一直是一個(gè)難題。傳統(tǒng)方法往往依賴(lài)復(fù)雜的多階段流程,比如先做分割,再進(jìn)行背景補(bǔ)全或修復(fù),或者需要對(duì)每個(gè)物體進(jìn)行密集掃描。這些方式不僅成本高、容易出錯(cuò),而且很難擴(kuò)展到大規(guī)模的應(yīng)用
    的頭像 發(fā)表于 09-29 11:12 ?598次閱讀
    一種基于多次觀(guān)測(cè)融合的可交互三維高斯<b class='flag-5'>場(chǎng)景</b><b class='flag-5'>重建</b>框架

    生成式 AI 重塑自動(dòng)駕駛仿真:4D 場(chǎng)景生成技術(shù)的突破與實(shí)踐

    生成式AI驅(qū)動(dòng)的4D場(chǎng)景技術(shù)正解決傳統(tǒng)方法效率低、覆蓋不足等痛點(diǎn),如何通過(guò)NeRF、3D高斯?jié)姙R等技術(shù)實(shí)現(xiàn)高保真動(dòng)態(tài)建模?高效生成極端天氣等長(zhǎng)尾場(chǎng)景?本文為您系統(tǒng)梳理AI驅(qū)動(dòng)的4D場(chǎng)景
    的頭像 發(fā)表于 08-06 11:20 ?5042次閱讀
    生成式 AI 重塑自動(dòng)<b class='flag-5'>駕駛</b>仿真:4D <b class='flag-5'>場(chǎng)景</b>生成技術(shù)的突破與實(shí)踐

    一種適用于動(dòng)態(tài)環(huán)境的3DGS-SLAM系統(tǒng)

    當(dāng)前基于神經(jīng)輻射場(chǎng)(NeRF)或3D高斯?jié)姙R(3DGS)的SLAM方法在重建靜態(tài)3D場(chǎng)景方面表現(xiàn)出色,但在動(dòng)態(tài)環(huán)境中的跟蹤和重建方面卻面臨著挑戰(zhàn)。
    的頭像 發(fā)表于 06-13 10:10 ?1254次閱讀
    一種適用于<b class='flag-5'>動(dòng)態(tài)</b>環(huán)境的3DGS-SLAM系統(tǒng)

    使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無(wú)監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無(wú)需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1334次閱讀
    使用MATLAB進(jìn)行無(wú)<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>

    康謀分享 | 3DGS:革新自動(dòng)駕駛仿真場(chǎng)景重建的關(guān)鍵技術(shù)

    3DGS技術(shù)為自動(dòng)駕駛仿真場(chǎng)景重建帶來(lái)突破,通過(guò)3D高斯點(diǎn)精確表達(dá)復(fù)雜場(chǎng)景的幾何和光照特性,顯著提升渲染速度與圖像質(zhì)量。康謀aiSim平臺(tái)結(jié)合3DGS,提供高保真虛擬環(huán)境與
    的頭像 發(fā)表于 03-05 09:45 ?5334次閱讀
    康謀分享 | 3DGS:革新自動(dòng)<b class='flag-5'>駕駛</b>仿真<b class='flag-5'>場(chǎng)景</b><b class='flag-5'>重建</b>的關(guān)鍵技術(shù)