chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邊緣人工智能數(shù)據(jù)中心的未來是本地云

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:wnger ? 2022-04-01 17:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

推理因其靈活性而成為邊緣計算的殺手級應(yīng)用。今天,邊緣推理(也稱為邊緣 AI)解決了各個行業(yè)的問題:防止盜竊、發(fā)現(xiàn)疾病和減少農(nóng)田中除草劑的使用。但對許多人來說,管理分布式邊緣服務(wù)器的復(fù)雜性可能會侵蝕業(yè)務(wù)價值。

邊緣人工智能數(shù)據(jù)中心在一個位置上沒有 10000 臺服務(wù)器。它在 10000 個位置有一個或多個服務(wù)器,通常位于沒有物理安全或訓(xùn)練有素的 It 人員的位置。因此,邊緣人工智能服務(wù)器必須安全、有彈性,并且易于大規(guī)模管理。

Diagram shows the data center EGX servers accessing NGC frameworks and then uploading trained models; deploying the models to the edge and analyzing streaming data; sending low-confidence data back to the EGX servers; and using that data to re-train the models.

圖 1 。使用 edge AI 的數(shù)據(jù)中心到云工作流

這就是為什么組織正在轉(zhuǎn)向云本地技術(shù)來管理其邊緣 AI 數(shù)據(jù)中心。

什么是云本機?

定義 Cloud Native 就像一個關(guān)于蒙著眼睛描述大象的笑話。你是在摸象牙、鼻子還是尾巴?

對于 IT 管理員來說,云本機意味著以代碼形式管理基礎(chǔ)設(shè)施。

軟件開發(fā)人員使用云本地工具和技術(shù)來編寫可移植應(yīng)用程序。

IT 主管們擁抱云文化以降低成本并提高效率。

結(jié)合這些觀點, Cloud Native 是一種現(xiàn)代的軟件開發(fā)方法,它使用抽象和自動化來支持可擴展性、可移植性和快速交付。

容器化微服務(wù)是云本地應(yīng)用程序的有效標(biāo)準(zhǔn)。Kubernetes是容器編排的市場領(lǐng)先平臺。它使用 de Clara 動態(tài) API 支持大規(guī)模自動化。

Cloud native 誕生于公共云,但它正在企業(yè)中迅速傳播。 Gartner 預(yù)測,容器編排市場將增長到到 2024 年為 9 。 44 億美元。

云計算基礎(chǔ)( CNCF )為生態(tài)系統(tǒng)提供供應(yīng)商中立的治理。 CNCF 策劃并支持開源、云本地軟件項目。 Containerd 、 Prometheus 和 Kubernetes 是 CNCF 維護的熱門項目。

為什么邊緣 AI 使用云計算?

云本機與邊緣計算有何關(guān)聯(lián)?為大規(guī)模公共云構(gòu)建的工具能否使具有一個或兩個節(jié)點的邊緣位置受益?

簡而言之,答案是肯定的。云本機架構(gòu)提供的不僅僅是巨大的可擴展性。它還提供性能、恢復(fù)力和易管理性,這些都是 edge AI 的關(guān)鍵功能。

性能

在過去 15 年中,企業(yè)傾向于使用虛擬機( VM )將應(yīng)用程序整合到更少的服務(wù)器上。但是虛擬化開銷會降低應(yīng)用程序性能。

邊緣 AI 偏愛容器。在邊緣,性能是王者。自動駕駛汽車必須在“看到”行人時猛踩剎車。容器以***金屬性能運行。而且許多容器可以共享同一臺服務(wù)器,從而整合應(yīng)用程序,而無需虛擬化帶來的性能開銷。

Kubernetes 還可以通過優(yōu)化工作負載布局來提高邊緣 AI 性能。 CPU 管理策略為特定工作負載隔離 CPU。這減少了上下文切換和緩存未命中。設(shè)備插件框架將加速器(如 GPUFPGA )暴露在吊艙中。拓撲管理器將 CPU 、內(nèi)存和加速器資源沿 NUMA 域?qū)R,從而減少昂貴的跨 NUMA 流量。

業(yè)務(wù)和管理

邊緣人工智能數(shù)據(jù)中心 MIG ht 跨越數(shù)百個位置。云原生工具支持公共云的大規(guī)??蓴U展性,管理員可以使用相同的工具來管理邊緣 AI 數(shù)據(jù)中心。

Diagram shows multiple EGX servers with Helm charts connected to the cloud.

圖 2 。邊緣人工智能數(shù)據(jù)中心的高級體系結(jié)構(gòu)

第一天的操作包括初始部署和測試。 Kubernetes 具有足夠的靈活性,能夠在第一天就支持不同的體系結(jié)構(gòu)。

在一個極端,整個 edge 數(shù)據(jù)中心是一個 Kubernetes 集群。此體系結(jié)構(gòu)需要在集中式 API 端點和遠程工作者之間進行可靠通信。 API 端點通常是基于云的。

在另一個極端,每個邊緣節(jié)點都是一個獨立的集群,并維護自己的控制平面和應(yīng)用程序。這種體系結(jié)構(gòu)適用于間歇性或不可靠的集中式通信。

Kubernetes 還支持集群聯(lián)合。聯(lián)邦集群共享單一的應(yīng)用程序配置源,但在其他方面是獨立的。聯(lián)合適用于松散耦合的邊緣站點。例如,醫(yī)院系統(tǒng)可以聯(lián)合起來共享患者數(shù)據(jù)。

部署第一天之后,邊緣數(shù)據(jù)中心管理將轉(zhuǎn)移到第二天操作。更新、升級和監(jiān)視是第二天的操作。自動化和遠程第二天操作對于缺乏本地支持人員的邊緣位置的穩(wěn)定性和安全性至關(guān)重要。

云本機生態(tài)系統(tǒng)包括許多用于集中觀察的流行工具。Prometheus是一個開源的監(jiān)視和警報工具包。Grafana是一個開源的可觀察性工具,可以在圖形儀表板中顯示數(shù)據(jù)。

軟件生命周期管理也是第二天操作的一個重要方面。修補 VM 映像需要長時間的測試。容器與其依賴項捆綁在一起,并通過穩(wěn)定的接口與內(nèi)核交互。這使 CI / CD 和其他支持邊緣快速變化的云本機實踐成為可能。

應(yīng)用彈性

彈性是指應(yīng)用程序克服問題的能力。這是 cloud native 讓 edge AI 受益的另一個領(lǐng)域。

云本地應(yīng)用程序通常通過擴展提供恢復(fù)能力。同一應(yīng)用程序的多個克隆在負載平衡器后面運行,當(dāng)克隆失敗時,服務(wù)將繼續(xù)。

這種方法在應(yīng)用程序跨越兩個或多個節(jié)點的邊緣 AI 部署中效果良好。但許多邊緣人工智能數(shù)據(jù)中心每個位置只有一個節(jié)點。

Kubernetes 還支持單節(jié)點上的應(yīng)用程序恢復(fù)能力。容器重啟策略自動重新啟動故障吊艙, Kubelet 可以使用活性探針檢測需要重新啟動的非故障條件。

edge AI 基礎(chǔ)設(shè)施軟件也應(yīng)該具有彈性。Kubernetes 算子模式將基礎(chǔ)設(shè)施管理置于自動駕駛狀態(tài),自動執(zhí)行人工通常執(zhí)行的任務(wù)。例如,在邊緣節(jié)點上檢測到內(nèi)核升級的 Kubernetes 操作符將自動將節(jié)點的驅(qū)動程序重新編譯為新的內(nèi)核版本。

挑戰(zhàn)

Cloud native 提供了彈性和性能,同時簡化了操作。這些是邊緣 AI 的關(guān)鍵考慮因素。然而,仍有一些領(lǐng)域必須繼續(xù)發(fā)展云計算。

超低延遲邊緣應(yīng)用程序需要更好地了解底層硬件。例如,確定 CPU 中哪個內(nèi)核的延遲最低。容器編排平臺還希望改進多租戶的工作負載隔離。云原生邊緣 AI 的好處和挑戰(zhàn)只是我們在即將到來的虛擬 GTC 人工智能會議十一月會議上探討的邊緣計算主題之一。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11189

    瀏覽量

    221477
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5432

    瀏覽量

    108355
  • 邊緣計算
    +關(guān)注

    關(guān)注

    22

    文章

    3424

    瀏覽量

    52273
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    我們所有的 SoC 都能用于邊緣人工智能。例子包括: 預(yù)測性維護和樓宇自動化系統(tǒng) 在每個節(jié)點上進行本地數(shù)據(jù)分析的智能傳感器網(wǎng)絡(luò) 遙控器和可穿戴設(shè)備的動作和手勢識別 用于
    發(fā)表于 08-31 20:54

    賦能人工智能未來:ADI宣布支持800 VDC數(shù)據(jù)中心架構(gòu)

    , Inc. (ADI)推出創(chuàng)新解決方案,為數(shù)據(jù)中心下一代800 VDC架構(gòu)提供有力支持。該系列解決方案包含高可靠性熱插拔與一級電源產(chǎn)品,旨在實現(xiàn)安全、高效且智能的配電,精準(zhǔn)滿足現(xiàn)代AI工廠系統(tǒng)的供電需求。 賦能人工智能
    的頭像 發(fā)表于 08-28 21:18 ?701次閱讀
    賦能<b class='flag-5'>人工智能</b><b class='flag-5'>未來</b>:ADI宣布支持800 VDC<b class='flag-5'>數(shù)據(jù)中心</b>架構(gòu)

    加速AI未來,睿海光電800G OSFP光模塊重構(gòu)數(shù)據(jù)中心互聯(lián)標(biāo)準(zhǔn)

    人工智能算力需求呈指數(shù)級增長的2025年,數(shù)據(jù)傳輸效率已成為制約AI發(fā)展的關(guān)鍵瓶頸。作為全球AI光模塊領(lǐng)域的標(biāo)桿企業(yè),深圳市睿海光電憑借技術(shù)領(lǐng)先的800G OSFP光模塊解決方案,正在重新
    發(fā)表于 08-13 16:38

    超小型Neuton機器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進的邊緣設(shè)備上進行人工智能處理。在這篇博文中,我們將介紹
    發(fā)表于 07-31 11:38

    愛立信攜手超微加速邊緣人工智能部署

    愛立信與超微 Supermicro近日宣布有意開展戰(zhàn)略合作,加速邊緣人工智能部署。
    的頭像 發(fā)表于 06-17 09:42 ?1.4w次閱讀

    如何構(gòu)建邊緣人工智能基礎(chǔ)設(shè)施

    隨著人工智能的不斷發(fā)展,其爭議性也越來越大;而在企業(yè)和消費者的眼中,人工智能價值顯著。如同許多新興科技一樣,目前人工智能的應(yīng)用主要聚焦于大規(guī)模、基礎(chǔ)設(shè)施密集且高功耗的領(lǐng)域。然而,隨著人工智能
    的頭像 發(fā)表于 06-09 09:48 ?748次閱讀

    適用于數(shù)據(jù)中心和AI時代的800G網(wǎng)絡(luò)

    隨著人工智能(AI)技術(shù)的迅猛發(fā)展,數(shù)據(jù)中心面臨著前所未有的計算和網(wǎng)絡(luò)壓力。從大語言模型(LLM)訓(xùn)練到生成式AI應(yīng)用,海量數(shù)據(jù)處理需求推動了網(wǎng)絡(luò)帶寬的快速增長。在此背景下,800G網(wǎng)絡(luò)技術(shù)應(yīng)運而生
    發(fā)表于 03-25 17:35

    有獎直播 | @4/1 智在邊緣:解鎖邊緣人工智能的無限可能

    如何賦能各行業(yè),加速數(shù)字化轉(zhuǎn)型,并探討其在實際應(yīng)用中可能面臨的挑戰(zhàn)及解決方案。 研討會亮點: 1. 邊緣人工智能技術(shù)的市場現(xiàn)狀與發(fā)展趨勢? 2. 意法半導(dǎo)體的邊
    的頭像 發(fā)表于 03-25 16:32 ?566次閱讀
    有獎直播 | @4/1 智在<b class='flag-5'>邊緣</b>:解鎖<b class='flag-5'>邊緣人工智能</b>的無限可能

    Cadence顛覆AI數(shù)據(jù)中心設(shè)計

    日前舉辦的英偉達 GTC 2025 開發(fā)者大會匯聚了眾多行業(yè)精英,共同探討人工智能未來。而人工智能正在重塑全球數(shù)據(jù)中心的格局。據(jù)預(yù)測,未來
    的頭像 發(fā)表于 03-21 15:43 ?688次閱讀

    智能傳感器如何推動邊緣人工智能普及化

    炙手可熱的AI行業(yè)來說無疑具有非常重要的影響。隨著近幾年的快速發(fā)展,AI技術(shù)已經(jīng)從邊緣走向主流,從專業(yè)化走向普通用戶。 圖源:Nvidia官網(wǎng) 在過去,AI的應(yīng)用僅限于數(shù)據(jù)中心等高功率計算設(shè)施集群。近幾年,它已經(jīng)擴展到工業(yè)運營的“邊緣
    的頭像 發(fā)表于 01-15 14:26 ?996次閱讀
    看<b class='flag-5'>智能</b>傳感器如何推動<b class='flag-5'>邊緣人工智能</b>普及化

    人工智能對數(shù)據(jù)中心基礎(chǔ)設(shè)施帶來了哪些挑戰(zhàn)

    (太瓦時),約占全球總用電量的 2%。在美國,擁有全球三分之一的數(shù)據(jù)中心,耗電量為 260 TWh,占總用電量的 6%。 ? 預(yù)測未來具有挑戰(zhàn)性,這取決于部署了多少非常耗電的圖形處理單元(GPU)來應(yīng)對人工智能技術(shù)的需求,當(dāng)然還
    發(fā)表于 12-31 13:48 ?540次閱讀
    <b class='flag-5'>人工智能對數(shù)據(jù)中心</b>基礎(chǔ)設(shè)施帶來了哪些挑戰(zhàn)

    亞馬遜科技發(fā)布全新數(shù)據(jù)中心組件

    近日,亞馬遜科技宣布了一項重大創(chuàng)新,推出了一系列全新的數(shù)據(jù)中心組件。這些組件旨在滿足新一代人工智能(AI)創(chuàng)新的需求,并幫助客戶應(yīng)對日益復(fù)雜且多變的應(yīng)用場景。 亞馬遜科技通過對電源
    的頭像 發(fā)表于 12-24 15:05 ?692次閱讀

    19位國際頂尖學(xué)者聯(lián)袂撰寫《重新審視邊緣人工智能:機遇與挑戰(zhàn)》

    19位國際頂尖學(xué)者聯(lián)袂撰寫《重新審視邊緣人工智能:機遇與挑戰(zhàn)》
    的頭像 發(fā)表于 11-27 01:04 ?1076次閱讀
    19位國際頂尖學(xué)者聯(lián)袂撰寫《重新審視<b class='flag-5'>邊緣人工智能</b>:機遇與挑戰(zhàn)》

    嵌入式和人工智能究竟是什么關(guān)系?

    人工智能應(yīng)用的實時響應(yīng)。與此同時,嵌入式系統(tǒng)在邊緣計算和物聯(lián)網(wǎng)領(lǐng)域,也為人工智能的應(yīng)用提供了廣闊的空間。 在邊緣計算中,嵌入式系統(tǒng)能夠?qū)?b class='flag-5'>人工智能
    發(fā)表于 11-14 16:39

    人工智能對數(shù)據(jù)中心的挑戰(zhàn)

    在加密貨幣和人工智能/機器學(xué)習(xí)(AI/ML)等新興應(yīng)用的驅(qū)動下,數(shù)據(jù)中心的能耗巨大,并將快速增長以滿足用戶需求。根據(jù)國際能源署(IEA)的最新報告,2022 年數(shù)據(jù)中心的耗電量將達到 460 TWh
    的頭像 發(fā)表于 11-13 16:05 ?1022次閱讀
    <b class='flag-5'>人工智能對數(shù)據(jù)中心</b>的挑戰(zhàn)