chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于DNN模型的ADS深度學(xué)習(xí)算法選型探討

sakobpqhz ? 來源:Dr. Luo ? 2023-01-31 14:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

對于自動駕駛ADS行業(yè)而言,其核心演進趨勢可以定義為群體智能的社會計算,簡單表述為,用NPU大算力和去中心化計算來虛擬化駕駛環(huán)境,通過數(shù)字化智能體即自動駕駛車輛AV的多模感知交互決策,以及車車協(xié)同,車路協(xié)同,車云協(xié)同,通過跨模數(shù)據(jù)融合、高清地圖重建、云端遠程智駕等可信計算來構(gòu)建元宇宙中ADS的社會計算能力。

ADS算法的典型系統(tǒng)分層架構(gòu)一般包括傳感層,感知層,定位層,決策層(預(yù)測+規(guī)劃)和控制層。每個層面會采用傳統(tǒng)算法模型或者是與深度學(xué)習(xí)DNN模型相結(jié)合,從而在ADS全程駕駛中提供人類可以認可的高可靠和高安全性,以及在這個基礎(chǔ)上提供最佳能耗比、最佳用車體驗、和用戶社交娛樂等基本功能。

01基于DNN模型的感知算法

ADS部署的傳感器在極端惡劣場景(雨雪霧、低照度、高度遮擋、傳感器部分失效、主動或被動場景攻擊等)的影響程度是不一樣的。所以傳感器組合應(yīng)用可以來解決單傳感器的感知能力不足問題,常用的多模傳感器包括Camera(Front-View or Multiview orSurround-View; Mono or Stereo;LD or HD),毫米波Radar(3Dor4D)和激光雷達LIDAR(LDorHD)。ADS的一個主要挑戰(zhàn)是多模融合感知,即如何在感知層能夠有效融合這些多模態(tài)傳感器的輸出,配合高清HD地圖或其它方式定位信息,對應(yīng)用場景中的交通標(biāo)識,動態(tài)目標(biāo)屬性(位置、速度、方向、高度、行為),紅綠燈狀態(tài),車道線,可駕駛區(qū)域,進行特征提取共享和多任務(wù)的2D/3D目標(biāo)檢測、語義分割、在線地圖構(gòu)建、Occupancy特征和語義提取(Volume/Flow/Surface)等等?;贒NN模型的感知算法,在實際工程部署中的一個挑戰(zhàn),還需要解決圖 1所示的三個方向關(guān)鍵難題:數(shù)據(jù)挑戰(zhàn)、模型挑戰(zhàn)、和復(fù)雜場景挑戰(zhàn)。

c25bf032-96d4-11ed-bfe3-dac502259ad0.png ?

圖 1DL算法在智能交通ITS和自動駕駛領(lǐng)域ADS的部署挑戰(zhàn)(Azfar 2022) 目前大多數(shù)AI視覺感知任務(wù),包括目標(biāo)檢測跟蹤分類識別,場景語義分割和目標(biāo)結(jié)構(gòu)化,其算法流程都可以簡單總結(jié)為特征抽取,特征增強和特征融合,然后在特征空間進行(采樣)重建,最后進行多任務(wù)的各類檢測識別與語義理解。以目標(biāo)檢測任務(wù)為例,一個主要的發(fā)展趨勢,是從CNN (Compute-bound)向 Transformer (memory-bound)演進。CNN目標(biāo)檢測方法包括常用的Two-Stage Candidate-based常規(guī)檢測方法(Faster-RCNN)和One-Stage Regression-based 快速檢測方法(YOLO, SSD, RetinaNet, CentreNet)。

Transformer目標(biāo)檢測方法包括DETR, Vision Transformer, Swin Transformer, DTR3D, BEVFormer, BEVFusion等等。兩者之間的主要差別是目標(biāo)感知場的尺寸,前者是局部視野,側(cè)重目標(biāo)紋理,后者是全局視野,從全局特征中進行學(xué)習(xí),側(cè)重目標(biāo)形狀??梢钥闯鲠槍Ω黝惸P桶ɑ旌夏P秃屯ㄟ^NAS架構(gòu)搜索生成的模型,學(xué)術(shù)界和工業(yè)界在持續(xù)推陳出新,高速迭代,依舊呈現(xiàn)出多元多樣化態(tài)勢,但如何有效進行模型選型,以及模型小型化和工程化加速,一直是ADS產(chǎn)業(yè)算法能否成功落地的核心難題。

02基于DNN模型的決策算法

基于DNN模型的決策算法,是一種在數(shù)據(jù)充分的條件下,通過少量的人力投入就可以提供非常有力的設(shè)計表達。尤其是針對社交關(guān)系建模與推理來解決ADS中預(yù)測與規(guī)劃問題,通過監(jiān)督和自監(jiān)督學(xué)習(xí)的方式,單獨或者聯(lián)合建模的方式,以及模仿學(xué)習(xí)IL和強化學(xué)習(xí)RL的學(xué)習(xí)流程。交互建模的輸入來自車輛狀態(tài),包括定位信息,速度,加速度,角速度,車輛朝向等。端到端的DL-based方法通常直接通過卷積處理原始傳感數(shù)據(jù)(RGB圖像和點云),計算簡潔但會損失弱的或者隱含的交互推理的內(nèi)容表達。如圖 2所示,深度學(xué)習(xí)模型中的不同構(gòu)建模塊,是可以對多智能體的交互推理進行有效建模和表達的,其中

(a)全連接FC層:又稱多層感知器MLP,其中所有輸入通過連接可以與輸出交互并對輸出做出貢獻。 (b)卷積CONV層:卷積層采用局部感知場,所以每層的連接會比較稀疏,通常假定合適用來捕獲空間關(guān)系,最初的底層卷積層一般提取類似邊緣紋理類的信息,越接近頂層也偏語義特征。 (c)遞歸Recurrent層 :通常用來處理時間維度的數(shù)據(jù)序列,多用來捕獲時間關(guān)系。 (d)圖Graph層:典型的圖包括節(jié)點、邊(用來描述節(jié)點間關(guān)系)、和上下文全局屬性,通常用來捕獲圖結(jié)構(gòu)表征中顯性關(guān)系推理,與FC層和RNN層一個不同之處是輸入的先后次序不會影響結(jié)構(gòu),圖結(jié)構(gòu)還可以處理不同數(shù)目的個體,比較適合多個體的ADS環(huán)境。

c2b26cd2-96d4-11ed-bfe3-dac502259ad0.png ?

圖 2DNN模塊對多智能體交互的建模案例(Wang 2022) 對于ADS中社交特征表征,常用的有空間時間狀態(tài)特征矢量,空間占用方格和圖區(qū)域動態(tài)插入等方式??諘r狀態(tài)特征矢量比較難以定義,尤其是個體數(shù)量變化和有效時間步長的不同,另外一個限制是依賴于個體插入的次序。所以一個常用的設(shè)計思路是采用占用方格地圖Occupancy Grid Map (OGM)來解決上述的兩個問題。OGM是以本體ego agent為中心來構(gòu)建空間方格圖,可以處理ROI區(qū)域不同數(shù)目的智能體。OGM通常采用原始狀態(tài)(定位,速度,加速度)或者采用FC層來進行狀態(tài)編碼,如果FC層隱層包括個體的歷史軌跡信息,可以同時捕獲空間時間信息。

OGM的分辨率對計算性能影響比較大。 相對而言,圖網(wǎng)絡(luò)GNN可以通過動態(tài)插入?yún)^(qū)域DIA抽取來更好地構(gòu)建空間時間交互圖關(guān)系,圖的類型可以基于個體(車輛,行人,機動車等),也可以基于區(qū)域area,后者主要聚焦對車輛意圖(車道保持,換道并道,左拐右拐)的表征,這里DIA指的是可駕駛場景中空閑空隔。如圖 3所示,DIA的優(yōu)勢在于對環(huán)境中靜態(tài)元素(道路拓撲,類似stop道路標(biāo)志牌等)和動態(tài)元素(行駛車輛)非常靈活,可以認為是動態(tài)環(huán)境的統(tǒng)一表征或者也可以叫做環(huán)境的虛擬化。所有時間地平線的DIAs可以用來構(gòu)建空間時間語義圖。

c2edc52a-96d4-11ed-bfe3-dac502259ad0.png ?

圖 3動態(tài)插入?yún)^(qū)域抽取和場景語義圖構(gòu)建案例(Wang 2022) 如圖 2所示,群體智能的社會計算,其中的社交關(guān)系,可以采用不同的深度學(xué)習(xí)層來進行交互建模和編碼:

FC層交互編碼:采用將不同個體的特征進行拉平,拼接成一個向量。多用來對單體single agent進行運動和意圖建模,很少用于multiple agent。

CONV層交互編碼:將空間時間特征(狀態(tài)特征張量)或占用方格地圖做為CNN輸入來進行交互編碼。

Recurrent層交互編碼:多采用LSTM來進行時間維度推理,編碼產(chǎn)生的embedding張量可以捕獲時間空間的交互信息。

Graph層交互編碼:對多智能體之間的關(guān)系采用節(jié)點之間的無向或者有向邊來表征,可以用消息傳遞機制來進行交互學(xué)習(xí),每個節(jié)點通過聚集鄰近節(jié)點的特征來更新自身的屬性特征。

在實際設(shè)計中,多將Recurrent層和Graph層相結(jié)合,可以很好地處理時間信息。而注意力attention機制編碼可以更好地量化一個特征如何影響其它特征。人類司機會在交互場景中有選擇地選取其它個體來進行關(guān)注,包括其過去現(xiàn)在的信息和未來的預(yù)判。所以注意力機制編碼可以基于時間域(短期的和長期的)和空間域(本地的和偏遠的),在上述方法中通過加權(quán)方案分別進行應(yīng)用。對個體的注意力建模,可以采用基于距離的方法,這意味著其它個體越近,關(guān)注度也越高。 綜上所述,DL-based方法由于模塊化的設(shè)計和海量數(shù)據(jù)貢獻,性能占優(yōu),但如何能夠提供模型的安全能力和大規(guī)模部署,需要解決幾個挑戰(zhàn):在保證性能基礎(chǔ)上改善可解釋性;在不同的駕駛個體,場景和態(tài)勢下繼續(xù)增強模型的推廣能力;模型選型和工程實現(xiàn)如何有效加速落地問題。

03CNN與Transformer選型對比探討

Transformer或Transformer + CNN + RNN混合模型選型呈現(xiàn)出了高效的算法性能,對應(yīng)在工程實現(xiàn)上也開始主導(dǎo)整個ADS行業(yè)市場。Transformer采用Attention機制的主干網(wǎng)絡(luò),而CNN在特征提取和變換上由Convolution來主導(dǎo),深度理解兩種模型的主要收益到底來自什么樣的算法模塊或者算子,對ADS主流算法的未來演進,可能會有一種積極的推動作用。

一種看法(Dai 2022)認為,這主要的差別來自特征變換模塊(Attention vs Convolution)對空間特征聚類的處理方式,即所謂的Spatial Token Mixer(STM)問題。當(dāng)前常用構(gòu)建DNN網(wǎng)絡(luò)模型包括Attention, Convolution, Hybrid等模塊的多種變形,以分類算法為例,先后有HaloNet(Halo Attention), PVT(Spatial Reduction Attention, 2021), Swin Transformer(Shifted Window Attention, 2021), ConvNeXt(7x7 Depth-Wise Convolution, 2022), InternImage (Deformable Convolution v3, 2022)等SOTA模型出世。

c327a484-96d4-11ed-bfe3-dac502259ad0.png ? c334f422-96d4-11ed-bfe3-dac502259ad0.png ?

圖 4特征變換模塊的實現(xiàn)案例(Dai 2022) 如圖 4所示,CNN和Transformer模型中最常用的四種STM算子類型包括:Local Attention, Global Attention, Depth-Wise Convolution, Dynamic Convolution。采用固定感知場的Static Convolution只在小容量模型(~5MB參數(shù))中表現(xiàn)不錯,而Local-Attention STM模型結(jié)合跨窗間信息轉(zhuǎn)移策略可以顯著提升性能。

STM的設(shè)計也反映了假定空間即歸納偏置中采用的先驗知識和約束條件對模型學(xué)習(xí)的影響,包括局部特性Locality、平移不變性,旋轉(zhuǎn)不變性和尺寸不變性等模型特性,這可以從有效感知場ERF與下游多任務(wù)學(xué)習(xí)的關(guān)聯(lián)關(guān)系來體現(xiàn),有趣的是,當(dāng)上調(diào)模型參數(shù)時,擴大ERF反而會導(dǎo)致模型飽和,同樣我們工程實現(xiàn)中也觀察到,對特征提取backbone而言用CNN來替代Transformer Encoder進行推理加速,也有類似模型飽和問題和上下游任務(wù)匹配不齊的問題。

至于對于各類目標(biāo)不變性的性能對比,性能高的模型,對不同場景變化的魯棒性會好一些,Static Convolution采用權(quán)值共享和局部感知場有利于提升平移不變性,而靈活的采樣策略可以動態(tài)地進行特征聚類,在動態(tài)卷積(例如DCNv3)中表現(xiàn)出更好的旋轉(zhuǎn)和尺寸縮放不變性。 Convolution-based STM模型多采用如下架構(gòu):Residual Learning, Dense Connection, Grouping, Spatial Attention,Channel Attention。其中Spatial Attention采用Deformable Convolution和Non-Local算子采用靈活可變的點采樣來構(gòu)建長范圍的依賴語義依賴關(guān)系。

Vision Transformer的出世也給這類設(shè)計帶來了新的架構(gòu)設(shè)計和探索思路。 對于Attention-based STM模型,比較而言,Transformer采用的全局感知場和動態(tài)的空間聚類,也帶來了海量的計算復(fù)雜度,尤其是ADS 應(yīng)用中需要場景覆蓋的計算區(qū)域越來越大時,這對ADS NPU的加速設(shè)計引入了一個全新課題。

從算法角度而言,圖 4所示的幾個算法,也采用了類似CNN的Local Attention機制,例如采用非重疊的局部計算窗和金字塔結(jié)構(gòu),以及跨窗間信息遷移的機制,例如Haloing,Shifted Windows等等,當(dāng)前還有一種新的設(shè)計思路采用CNN和Transformer算子塊的交織實現(xiàn)方式,也可以稱作為聯(lián)合或者混合架構(gòu),可以很好的融合CNN和Transformer的各自優(yōu)勢,適當(dāng)降低總體計算復(fù)雜度。而NAS網(wǎng)絡(luò)架構(gòu)檢索可以采用更加靈活的算子組合的策略,當(dāng)然這顯然增加了硬件計算架構(gòu)和數(shù)據(jù)流優(yōu)化的設(shè)計難度。







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    836

    瀏覽量

    62251
  • ADS仿真
    +關(guān)注

    關(guān)注

    2

    文章

    71

    瀏覽量

    11151
  • dnn
    dnn
    +關(guān)注

    關(guān)注

    0

    文章

    61

    瀏覽量

    9547
  • MLP
    MLP
    +關(guān)注

    關(guān)注

    0

    文章

    57

    瀏覽量

    5033

原文標(biāo)題:ADS深度學(xué)習(xí)算法選型探討

文章出處:【微信號:算力基建,微信公眾號:算力基建】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    深度學(xué)習(xí)為什么還是無法處理邊緣場景?

    選擇視而不見甚至直接加速。 之所以出現(xiàn)這個問題,是因為深度學(xué)習(xí)模型大多建立在統(tǒng)計學(xué)基礎(chǔ)之上,它們通過觀察數(shù)以千萬計的圖像學(xué)習(xí)識別物體的特征。然而,真實世界的道路場景是無限多樣的,這種基
    的頭像 發(fā)表于 05-04 10:16 ?69次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>為什么還是無法處理邊緣場景?

    AI算法核心知識清單(深度實戰(zhàn)版3)

    四、深度學(xué)習(xí)核心知識(進階必備)1.模型訓(xùn)練關(guān)鍵技術(shù)(深度學(xué)習(xí)實戰(zhàn)核心)損失函數(shù)(模型優(yōu)化目標(biāo))
    的頭像 發(fā)表于 04-29 17:18 ?637次閱讀
    AI<b class='flag-5'>算法</b>核心知識清單(<b class='flag-5'>深度</b>實戰(zhàn)版3)

    AI 算法核心知識清單(深度實戰(zhàn)版2)

    三、機器學(xué)習(xí)核心算法(入門到實戰(zhàn))?1.監(jiān)督學(xué)習(xí)算法(已知標(biāo)簽的模型訓(xùn)練)?線性模型?線性回歸(
    的頭像 發(fā)表于 04-24 11:58 ?216次閱讀
    AI <b class='flag-5'>算法</b>核心知識清單(<b class='flag-5'>深度</b>實戰(zhàn)版2)

    算法工程師需要具備哪些技能?

    算法工程師需要掌握一系列跨學(xué)科的技能,涵蓋數(shù)學(xué)基礎(chǔ)、編程能力、算法理論、工程實踐以及業(yè)務(wù)理解等多個方面。 以下是具體技能及學(xué)習(xí)建議: 線性代數(shù)核心內(nèi)容:矩陣運算、特征值分解、向量空間等。應(yīng)用場
    發(fā)表于 02-27 10:53

    機器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注
    的頭像 發(fā)表于 01-07 15:37 ?365次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個常見錯誤與局限性

    穿孔機頂頭檢測儀 機器視覺深度學(xué)習(xí)

    頂頭狀態(tài)。 檢測頂頭算法 引入人工智深度學(xué)習(xí)技術(shù),通過Keras實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)(CNN),用Numpy實現(xiàn)采集數(shù)據(jù)的訓(xùn)練,得到符合現(xiàn)場需求的模型,進一步提升檢測的準(zhǔn)確性和現(xiàn)場的適應(yīng)性
    發(fā)表于 12-22 14:33

    深度剖析ADS1242和ADS1243:高精度ADC的卓越之選

    深度剖析ADS1242和ADS1243:高精度ADC的卓越之選 在電子工程師的日常工作中,高精度模擬 - 數(shù)字轉(zhuǎn)換器(ADC)的選擇至關(guān)重要,它直接影響到系統(tǒng)的性能和精度。今天,我們就來深入
    的頭像 發(fā)表于 12-10 10:00 ?754次閱讀

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課(11大系列課程,共5000+分鐘)

    、GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無監(jiān)督學(xué)習(xí):無
    發(fā)表于 12-04 09:28

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課程(11大系列課程,共5000+分鐘)

    、GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無監(jiān)督學(xué)習(xí):無
    發(fā)表于 12-03 13:50

    ADS1274/ADS1278:高性能多通道ADC的深度剖析與應(yīng)用指南

    - Sigma ADC,它們?yōu)楣こ處焸兲峁┝藦姶蠖`活的解決方案。今天,我們就來深入探討一下這兩款A(yù)DC的特點、功能以及應(yīng)用中的注意事項。 文件下載: ads1274.pdf 一、產(chǎn)品概述
    的頭像 發(fā)表于 11-27 15:54 ?1143次閱讀
    <b class='flag-5'>ADS</b>1274/<b class='flag-5'>ADS</b>1278:高性能多通道ADC的<b class='flag-5'>深度</b>剖析與應(yīng)用指南

    如何深度學(xué)習(xí)機器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)
    的頭像 發(fā)表于 11-27 10:19 ?351次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    矩陣乘法的算法 ①矩陣乘法的各種算法 ②優(yōu)化矩陣乘法過程的新方法 ③加速矩陣乘法的新算法 1)用學(xué)習(xí)替代乘法 2)用加法代替矩陣乘法 3)只用加法的大
    發(fā)表于 09-12 17:30

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4392次閱讀
    自動駕駛中Transformer大<b class='flag-5'>模型</b>會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    移遠通信飛鳶AIoT大模型應(yīng)用算法成功通過備案

    近日,第十二批境內(nèi)深度合成服務(wù)算法備案信息發(fā)布,移遠通信"飛鳶AIoT大模型應(yīng)用算法"榜上有名。這標(biāo)志著該算法在技術(shù)合規(guī)性、安全可控性及社會
    的頭像 發(fā)表于 08-06 08:48 ?1059次閱讀
    移遠通信飛鳶AIoT大<b class='flag-5'>模型</b>應(yīng)用<b class='flag-5'>算法</b>成功通過備案

    模型推理顯存和計算量估計方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)模型在各個領(lǐng)域得到了廣泛應(yīng)用。然而,大模型的推理過程對顯存和計算資源的需求較高,給實際應(yīng)用帶來了挑戰(zhàn)。為了解決這一問題,本文將
    發(fā)表于 07-03 19:43