chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從ChatGPT等大模型的興起,看未來計算芯片的發(fā)展趨勢

sakobpqhz ? 來源:算力基建 ? 2023-05-30 11:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ChatGPT的火爆,直接引爆了大模型的繁榮,也使得NVIDIA GPU供不應(yīng)求。

從發(fā)展的角度看,GPU并不是大模型最高效的計算平臺。

GPT等大模型為什么沒有突破萬億參數(shù)?核心原因在于在現(xiàn)在的GPU平臺上,性能和成本都達到了一個極限。想持續(xù)支撐萬億以上參數(shù)的更大的模型,需要讓性能數(shù)量級提升,以及單位算力成本數(shù)量級的下降。這必然需要全新架構(gòu)的AI計算平臺。

本文拋磚引玉,期待行業(yè)更多的探討。

01.綜述

大模型為什么“不約而同”的停留在上千億的參數(shù)規(guī)模,沒有突破萬億參數(shù)?原因主要在于,在目前的架構(gòu)體系下:

單個GPU性能增長(Scale up)有限,想要增加性能,只有通過增加計算集群規(guī)模(Scale out)的方式;

上萬GPU的計算集群,其東西向的流量交互指數(shù)級提升,受限于集群的網(wǎng)絡(luò)帶寬,約束了集群節(jié)點計算性能的發(fā)揮;

受阿姆達爾定律的約束,并行度無法無限擴展,增加集群規(guī)模的方式也到了瓶頸;

并且,如此大的集群規(guī)模,成本也變得不可承受。

總的來說,為了數(shù)量級的突破算力上限,需要從如下幾個方面入手:

首先,性能提升不單單是單個芯片的事情,而是一個系統(tǒng)工程。因此,需要從芯片軟硬件到整機再到數(shù)據(jù)中心全體系進行協(xié)同優(yōu)化。

其次,擴大集群規(guī)模,也即大家熟知的Scale Out。要想Scale out,就需要增強集群的內(nèi)聯(lián)交互,也就是要更高的帶寬,更高效的高性能網(wǎng)絡(luò)。同時,還需要降低單個計算節(jié)點的成本。

最后,最本質(zhì)的,Scale Up,增加單個節(jié)點的性能。這個是最本質(zhì)的能夠提升算力的方法。在功耗、工藝、成本等因素的約束下,要想提升性能,只能從軟硬件架構(gòu)和微架構(gòu)實現(xiàn)方面去挖潛。

02.全體系協(xié)同優(yōu)化

0a7eb25a-fe81-11ed-90ce-dac502259ad0.png

算力,不僅僅是微觀芯片性能的事情,而是宏觀上復(fù)雜而龐大的系統(tǒng)工程。整個體系中,從工藝到軟件,從芯片到數(shù)據(jù)中心,整個算力體系中的各個領(lǐng)域的發(fā)展都已經(jīng)達到一個相對穩(wěn)定而成熟的階段。而AI大模型的發(fā)展,仍然需要算力大踏步的提升,這不僅僅需要各領(lǐng)域按部就班的持續(xù)優(yōu)化,更需要各個領(lǐng)域間的跨域協(xié)同優(yōu)化創(chuàng)新:

半導(dǎo)體工藝和封裝:更先進的工藝、3D集成,以及Chiplet封裝等。

芯片實現(xiàn)(微架構(gòu)):通過一些創(chuàng)新的設(shè)計實現(xiàn),如存算一體、DSA架構(gòu)設(shè)計以及各類新型存儲等。

系統(tǒng)架構(gòu):比如開放精簡的RISC-v,異構(gòu)計算逐漸走向超異構(gòu)計算,以及駕馭復(fù)雜計算的軟硬件融合等。

系統(tǒng)軟件、框架、庫:基礎(chǔ)的如OS、Hypervisor、容器,以及需要持續(xù)優(yōu)化和開源開放的各類計算框架和庫等。

業(yè)務(wù)應(yīng)用(算法):業(yè)務(wù)場景算法優(yōu)化、算法的并行性優(yōu)化等;以及系統(tǒng)的靈活性和可編程性設(shè)計;系統(tǒng)的控制和管理、系統(tǒng)的擴展性等。

硬件,包括服務(wù)器、交換機等:多個功能芯片的板卡集成,定制板卡和服務(wù)器,服務(wù)器電源和散熱優(yōu)化;

數(shù)據(jù)中心基礎(chǔ)設(shè)施:如綠色數(shù)據(jù)中心,液冷、PUE優(yōu)化等;

數(shù)據(jù)中心運營和管理:如超大規(guī)模數(shù)據(jù)中心運營管理,跨數(shù)據(jù)中心運營和管理調(diào)度等。

03.Scale out:增加集群規(guī)模

0aa88562-fe81-11ed-90ce-dac502259ad0.png

N個節(jié)點通過連線兩兩相連,總共的連線數(shù)據(jù)需要N*(N-1)/2。據(jù)此公式,集群如果只有一個節(jié)點,那就沒有東西向的內(nèi)部流量;隨著集群中節(jié)點數(shù)量的增多,內(nèi)部交互數(shù)量會飛速的增長,隨之而來的,也就是集群內(nèi)部的交互流量猛增。 據(jù)統(tǒng)計,目前在大型數(shù)據(jù)中心中的東西向網(wǎng)絡(luò)流量占比超過85%;AI大模型訓(xùn)練集群,其節(jié)點數(shù)量基本上超過1000,其東西向流量估計超過90%。理論上,在各個連接流量均等的情況下,目前主流網(wǎng)卡200Gbps的帶寬,即使所有都是東西向流量,每兩個節(jié)點之間的流量也僅僅只能有200/1000 = 0.2 Gbps。一方面,南北向的流量被極限壓縮,單個連接的東西向流量又隨著集群數(shù)量的增長反而持續(xù)下降,這進一步凸顯了網(wǎng)絡(luò)帶寬瓶頸的問題。 與此同時,受阿姆達爾定律的影響,整體算力并不是跟節(jié)點數(shù)量呈理想的線性關(guān)系,而是隨著集群規(guī)模的增加,整體算力的增加會逐漸趨緩。 要想通過Scale Out方式提升集群的算力:

首先就是要快速的提升網(wǎng)絡(luò)帶寬。

0ad3e090-fe81-11ed-90ce-dac502259ad0.png

其次,要有更優(yōu)的高性能網(wǎng)絡(luò)支持。通過高性能網(wǎng)絡(luò)功能優(yōu)化,如在擁塞控制、多路徑負載均衡ECMP、亂序交付、高可擴展性、故障快速恢復(fù)、Incast優(yōu)化等方面進行調(diào)優(yōu),實現(xiàn)更優(yōu)的高性能網(wǎng)絡(luò)能力。

0b0b403a-fe81-11ed-90ce-dac502259ad0.png

再次,AI計算數(shù)據(jù)到網(wǎng)絡(luò)的更快速的路徑。傳統(tǒng)架構(gòu),GPU作為加速卡掛載CPU外面,從GPU到網(wǎng)絡(luò)的數(shù)據(jù)傳輸路徑非常長,并且CPU要參與傳輸?shù)目刂?。可以通過例如GPU集成RoCE高性能網(wǎng)卡的方式,繞過CPU、DPU/NIC直接把數(shù)據(jù)傳輸出去。

最后,是要從算法和軟件處層次,提升并行度,并盡可能的降低并行程序之間的耦合度。

04.Scale Up:增加單芯片性能東西向流量本質(zhì)上屬于內(nèi)部“損耗”,通過Scale Out的方式提升性能對網(wǎng)絡(luò)的壓力巨大,并且有性能上限,屬于“治標不治本”的方式。 要想真正的大規(guī)模的提升算力,最本質(zhì)最有效的辦法,還是要通過提升單個計算節(jié)點、單個計算芯片性能的方式。 要想提升單芯片性能:

首先,是提升芯片規(guī)模。通過工藝進步、3D和Chiplet封裝,提升單個芯片的設(shè)計規(guī)模。目前,主流的大芯片晶體管數(shù)量在500億。Intel計劃到2030年,會將單芯片晶體管數(shù)量提高到1萬億(提升20倍)。

第二,提升單位晶體管資源的性能效率。6個主要的處理器類型:CPU、協(xié)處理器、GPU、FPGA、DSA和ASIC,CPU最通用,但性能效率最低,而ASIC最專用,性能效率最高。在計算處理器方面,要盡可能選擇ASIC或接近ASIC的計算引擎,盡可能的提升此類處理器在整個系統(tǒng)中的計算量占比。

第三,提升通用靈活性。性能和靈活性是一對矛盾,為什么不能在一個芯片里,完全100%的采用ASIC級別的計算引擎?原因在于,純粹的ASIC沒有意義。芯片需要得到大范圍的使用,才能攤薄研發(fā)成本。這就需要考慮芯片的通用靈活性。

0b296380-fe81-11ed-90ce-dac502259ad0.png

目前,受AI等各類大算力場景的驅(qū)動,異構(gòu)計算已經(jīng)成為計算架構(gòu)的主流。未來,隨著大模型等更高算力需求場景的進一步發(fā)展,計算架構(gòu)需要從異構(gòu)計算進一步走向超異構(gòu)計算:

第一階段,單CPU的串行計算;

第二階段,多CPU的同構(gòu)并行計算;

第三階段,CPU+GPU的異構(gòu)并行計算;

第四階段,CPU+DSA的異構(gòu)并行計算;

第五階段,多種異構(gòu)融合的超異構(gòu)并行計算。

05.大算力芯片的通用性分析到目前為止,谷歌TPU都難言成功:雖然TPU可以做到,從芯片到框架,甚至到AI應(yīng)用,谷歌可以做到全棧優(yōu)化,但TPU仍然無法做到更大規(guī)模的落地,并且拖累了上層AI業(yè)務(wù)的發(fā)展。原因其實很簡單:

當(dāng)上層的業(yè)務(wù)邏輯和算法一直處于快速迭代的時候,是很難把它固化成電路來進行加速的。

雖然谷歌發(fā)明了Transformer,但受限于其底層芯片TPU,使得上層業(yè)務(wù)需要考慮跟底層芯片的兼容,無法全身心投入到模型開發(fā);

AI模型的發(fā)展,目前仍在“煉丹”的發(fā)展階段,誰能快速試錯快速迭代,誰就最有可能成功。

也因此,在AI大模型的發(fā)展進程中,谷歌落后了。而OpenAI沒有包袱,可以選擇最優(yōu)的計算平臺(通用的GPU+CUDA平臺),全身心專注到自己模型的研發(fā),率先實現(xiàn)了ChatGPT及GPT4這樣的高質(zhì)量AI大模型,從而引領(lǐng)了AGI的大爆發(fā)時代。 結(jié)論:在目前AI算法快速演進的今天,通用性比性能重要。也因此,NVIDIA GPU通過在GPU中集成CUDA core和Tensor Core,既兼顧了通用性,又兼顧了靈活性,成為目前最佳的AI計算平臺。06.相關(guān)趨勢案例

6.1 Intel Hawana GAUDI

0b509c2a-fe81-11ed-90ce-dac502259ad0.png

Gaudi是一個典型的Tensor加速器。從第一代Gaudi的16nm工藝提升到第二代的7nm工藝,Gaudi2將訓(xùn)練和推理性能提升到一個全新的水平。它將AI定制Tensor處理器核心的數(shù)量從8個增加到24個,增加了對FP8的支持,并集成了一個媒體處理引擎,用于處理壓縮媒體,以卸載主機子系統(tǒng)。Gaudi2的封裝內(nèi)存在每秒2.45 Tbps的帶寬下增加了三倍,達到96GB的HBM2e。

0bbb2338-fe81-11ed-90ce-dac502259ad0.png

Gaudi可以通過24個100Gbps的RDMA高性能網(wǎng)卡實現(xiàn)非常高的集群擴展能力。實際的集群架構(gòu)設(shè)計,可以根據(jù)具體的需求靈活設(shè)計。 相比傳統(tǒng)的GPU、TPU等加速器,Gaudi的最大亮點在于集成了超高帶寬的高性能網(wǎng)絡(luò)。從而提升了集群節(jié)點間的東西向流量交互效率,也使得更大規(guī)模的集群設(shè)計成為可能。

6.2 Graphcore IPU

0bef43ca-fe81-11ed-90ce-dac502259ad0.png

上圖為Graphcore的IPU處理器,IPU處理器具有1216個Tile(每個Tile包含一個Core和它的本地內(nèi)存),交換結(jié)構(gòu)(一個片內(nèi)互連),IPU鏈路接口用于連接到其他IPU,PCIe接口用于與主機連接。 Graphcore在架構(gòu)上是類似NVIDIA GPU的產(chǎn)品,是相對通用的計算架構(gòu),比較符合AI計算的要求。但受限于沒有類似Tensor core這樣的協(xié)處理優(yōu)化,在性能上存在劣勢;以及還沒有形成類似NVIDIA CUDA這樣強大的開發(fā)框架和豐富生態(tài)。

6.3 Tesla DOJO

0c44ae28-fe81-11ed-90ce-dac502259ad0.png

0c649c7e-fe81-11ed-90ce-dac502259ad0.png

0c9ee320-fe81-11ed-90ce-dac502259ad0.png

Tesla Dojo芯片和相應(yīng)的整個集群系統(tǒng),跟傳統(tǒng)的設(shè)計理念有很大的不同。其基于整個POD級的超強的擴展性和全系統(tǒng)棧協(xié)同設(shè)計能力。Dojo系統(tǒng)的每個Node都是完全對稱的,是一個POD級完全UMA的架構(gòu)?;蛘哒f,Dojo的擴展性,跨過了芯片、Tile、Cabinet,達到了POD級別。 DOJO是Tesla專用于數(shù)據(jù)中心AI訓(xùn)練的芯片、集群和解決方案。DOJO的可擴展性能力,使得AI工程師可以專注在模型開發(fā)和訓(xùn)練本身,而較少考慮模型的分割和交互等跟硬件特性相關(guān)的細節(jié)。 DOJO也是比較通用的計算架構(gòu):內(nèi)核是一個CPU+AI協(xié)處理器的做法,然后多核心組成芯片,芯片再組織成POD。宏觀上,跟NVIDIA GPU的整體思路接近。

6.4 Tenstorrent Grayskull & Wormhole

Tesla Dojo和Tenstorrent的AI系列芯片都是Jim Keller主導(dǎo)的項目,架構(gòu)設(shè)計理念有很多相似之處。

0cc4aea2-fe81-11ed-90ce-dac502259ad0.png

基本架構(gòu)單元是Tensix核心,它圍繞一個大型計算引擎構(gòu)建,該引擎從單個密集數(shù)學(xué)單元承擔(dān)3 TOPS計算的絕大部分。

0cf08e96-fe81-11ed-90ce-dac502259ad0.png

Tenstorrent的Grayskull加速器芯片實現(xiàn)了一個由Tensix內(nèi)核組成12x10陣列,峰值性能為368 INT8 TOPS。

0d1f0b0e-fe81-11ed-90ce-dac502259ad0.png

Tenstorrent的第一代芯片代號是Grayskull,第二代芯片代號是Wormhole,兩者宏觀架構(gòu)接近。使用Wormhole模塊,Tenstorrent設(shè)計了nebula(星云),一個4U服務(wù)器包含32個Wormhole芯片。

0d7ceeb8-fe81-11ed-90ce-dac502259ad0.png


這是一個完整的48U的機架,它像一個2D網(wǎng)格一樣,每個Wormhole服務(wù)器連接在另一個服務(wù)器的對等端,就像一個大而均勻的Mesh網(wǎng)絡(luò)。 Tenstorrent通過這種多網(wǎng)絡(luò)連接的方式,實現(xiàn)了集群的極致擴展性。其整體思路和Tesla DOJO類似。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    459

    文章

    52494

    瀏覽量

    440679
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    13

    文章

    9793

    瀏覽量

    87946
  • 數(shù)據(jù)中心
    +關(guān)注

    關(guān)注

    16

    文章

    5226

    瀏覽量

    73507
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1589

    瀏覽量

    9092

原文標題:從ChatGPT等大模型的興起,看未來計算芯片的發(fā)展趨勢

文章出處:【微信號:算力基建,微信公眾號:算力基建】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢

    人工智能技術(shù)的現(xiàn)狀與未來發(fā)展趨勢 ? ? 近年來,人工智能(AI)技術(shù)迅猛發(fā)展,深刻影響著各行各業(yè)。計算機視覺到自然語言處理,
    的頭像 發(fā)表于 07-16 15:01 ?94次閱讀

    物聯(lián)網(wǎng)未來發(fā)展趨勢如何?

    近年來,物聯(lián)網(wǎng)行業(yè)以其驚人的增長速度和無限的潛力成為了全球科技界的焦點。它正在改變我們的生活方式、商業(yè)模式和社會運轉(zhuǎn)方式。那么,物聯(lián)網(wǎng)行業(yè)的未來發(fā)展趨勢將會是怎樣的呢?讓我們一同探尋其中的奧秘
    發(fā)表于 06-09 15:25

    工業(yè)電機行業(yè)現(xiàn)狀及未來發(fā)展趨勢分析

    過大數(shù)據(jù)分析的部分觀點,可能對您的企業(yè)規(guī)劃有一定的參考價值。點擊附件查看全文*附件:工業(yè)電機行業(yè)現(xiàn)狀及未來發(fā)展趨勢分析.doc 本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時間告知,刪除內(nèi)容!
    發(fā)表于 03-31 14:35

    數(shù)據(jù)采集在AI行業(yè)的應(yīng)用、優(yōu)勢及未來發(fā)展趨勢

    人工智能(AI)作為21世紀最具革命性的技術(shù)之一,正在深刻改變各行各業(yè)。AI的核心驅(qū)動力是數(shù)據(jù),而數(shù)據(jù)采集則是AI發(fā)展的基石。無論是機器學(xué)習(xí)、深度學(xué)習(xí),還是自然語言處理、計算機視覺領(lǐng)域,高質(zhì)量的數(shù)據(jù)采集都是
    的頭像 發(fā)表于 03-07 14:12 ?656次閱讀
    數(shù)據(jù)采集在AI行業(yè)的應(yīng)用、優(yōu)勢及<b class='flag-5'>未來</b><b class='flag-5'>發(fā)展趨勢</b>

    Arm預(yù)測2025年芯片設(shè)計發(fā)展趨勢

    Arm 對未來技術(shù)的發(fā)展方向及可能出現(xiàn)的趨勢有著廣泛而深刻的洞察。在《Arm 解析未來行業(yè)技術(shù)趨勢——AI 篇》中,我們預(yù)測了該領(lǐng)域的 11
    的頭像 發(fā)表于 01-20 09:52 ?952次閱讀

    【「大模型啟示錄」閱讀體驗】+開啟智能時代的新鑰匙

    的對話,提供各種信息和幫助。我也聽聞大模型在智能寫作、智能客服領(lǐng)域有著出色的表現(xiàn),能夠大大提高工作效率和服務(wù)質(zhì)量。但是,我對于大模型背后的技術(shù)原理、發(fā)展歷程以及它對社會和
    發(fā)表于 12-24 13:10

    未來物流發(fā)展趨勢與TMS的關(guān)系

    隨著全球化的加速和電子商務(wù)的蓬勃發(fā)展,物流行業(yè)正經(jīng)歷著前所未有的變革。未來物流的發(fā)展趨勢不僅影響著供應(yīng)鏈的效率和成本,也對企業(yè)的競爭力產(chǎn)生深遠影響。運輸管理系統(tǒng)(Transportation
    的頭像 發(fā)表于 11-26 09:40 ?1081次閱讀

    未來的ar技術(shù)發(fā)展趨勢

    增強現(xiàn)實(AR)技術(shù),作為連接虛擬世界和現(xiàn)實世界的橋梁,近年來得到了飛速的發(fā)展。隨著技術(shù)的不斷進步和創(chuàng)新,未來的AR技術(shù)將呈現(xiàn)出以下發(fā)展趨勢: 1. 更高的集成度和便攜性 隨著微型化技術(shù)的發(fā)展
    的頭像 發(fā)表于 11-11 10:07 ?1902次閱讀

    邊緣計算未來發(fā)展趨勢

    邊緣計算未來發(fā)展趨勢呈現(xiàn)出多元化和高速增長的態(tài)勢,以下是對其未來發(fā)展趨勢的分析: 一、技術(shù)融合與創(chuàng)新 與5G、AI技術(shù)的深度融合 隨著5G
    的頭像 發(fā)表于 10-24 14:21 ?1814次閱讀

    計算技術(shù)的未來發(fā)展趨勢

    計算技術(shù)的未來發(fā)展趨勢呈現(xiàn)出多元化和高度集成的特點,以下是對其未來發(fā)展趨勢的介紹: 一、市場規(guī)模持續(xù)增長 全球范圍 : 根據(jù)權(quán)威機構(gòu)發(fā)布的
    的頭像 發(fā)表于 10-24 09:20 ?2640次閱讀

    智能駕駛技術(shù)發(fā)展趨勢

    智能駕駛技術(shù)是當(dāng)前汽車行業(yè)的重要發(fā)展趨勢之一,它融合了傳感器技術(shù)、人工智能、大數(shù)據(jù)和云計算多種先進技術(shù),旨在實現(xiàn)車輛的自主駕駛和智能化管理。以下是對智能駕駛技術(shù)發(fā)展趨勢的分析: 一、
    的頭像 發(fā)表于 10-23 15:41 ?1913次閱讀

    未來AI大模型發(fā)展趨勢

    未來AI大模型發(fā)展趨勢將呈現(xiàn)多元化和深入化的特點,以下是對其發(fā)展趨勢的分析: 一、技術(shù)驅(qū)動與創(chuàng)新 算法與架構(gòu)優(yōu)化 : 隨著Transformer架構(gòu)的廣泛應(yīng)用,AI大
    的頭像 發(fā)表于 10-23 15:06 ?1945次閱讀

    變阻器的未來發(fā)展趨勢和前景如何?是否有替代品出現(xiàn)?

    變阻器是一種用于調(diào)節(jié)電路中電阻值的電子元件,廣泛應(yīng)用于各種電子設(shè)備和系統(tǒng)中。隨著科技的不斷進步和應(yīng)用領(lǐng)域的擴展,變阻器的未來發(fā)展趨勢和前景備受關(guān)注。 未來變阻器將趨向于智能化和多功能化,隨著物聯(lián)網(wǎng)
    發(fā)表于 10-10 14:35

    嵌入式系統(tǒng)的未來趨勢有哪些?

    嵌入式系統(tǒng)是指將我們的操作系統(tǒng)和功能軟件集成于計算機硬件系統(tǒng)之中,形成一個專用的計算機系統(tǒng)。那么嵌入式系統(tǒng)的未來趨勢有哪些呢? 1. 人工智能與機器學(xué)習(xí)的整合 隨著現(xiàn)代人工智能(AI)
    發(fā)表于 09-12 15:42

    未來隧道定位導(dǎo)航技術(shù)有哪些發(fā)展趨勢

    隨著現(xiàn)代交通網(wǎng)絡(luò)的發(fā)展,隧道作為連接城市、跨越山川的重要基礎(chǔ)設(shè)施,其安全性與通行效率日益受到重視。隧道定位導(dǎo)航技術(shù)作為智能交通系統(tǒng)的重要組成部分,正迎來前所未有的發(fā)展機遇。那么,未來隧道定位導(dǎo)航技術(shù)將有哪些
    的頭像 發(fā)表于 08-16 10:35 ?1176次閱讀
    <b class='flag-5'>未來</b>隧道定位導(dǎo)航技術(shù)有哪些<b class='flag-5'>發(fā)展趨勢</b>