chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

基于DPU的Ceph存儲解決方案

DPU高性能云異構算力解決方案 ? 來源:DPU高性能云異構算力解決 ? 作者:DPU高性能云異構算 ? 2024-07-15 13:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. 方案背景和挑戰(zhàn)

Ceph是一個高度可擴展、高性能的開源分布式存儲系統(tǒng),設計用于提供優(yōu)秀的對象存儲、塊存儲和文件存儲服務。它的幾個核心特點是:

彈性擴展:Ceph能夠無縫地水平擴展存儲容量和性能,只需添加新的存儲節(jié)點即可,無需重新配置現(xiàn)有系統(tǒng),非常適合云環(huán)境的動態(tài)需求;

自我修復:通過副本或糾刪碼技術,Ceph能夠自動檢測并修復數(shù)據(jù)損壞或丟失,保證數(shù)據(jù)的高可用性和持久性;

統(tǒng)一接口Ceph提供RADOS GW(對象存儲網(wǎng)關)、RBD(塊設備映射)和CephFS(文件系統(tǒng))三種接口,滿足不同存儲需求,且這些接口可以同時在一個集群中使用。

在Kubernetes(K8s)架構下,Ceph可以作為一個強大的存儲后端,為容器化的應用提供持久化存儲解決方案。Kubernetes通過存儲卷插件與外部存儲系統(tǒng)集成,Ceph正是通過這樣的插件(如RBD插件)與K8s集成,實現(xiàn)存儲資源的動態(tài)分配和管理。
架構如下圖所示:

wKgaomZ-Z-SAIQl3AAB-zBso3Kg572.png

在傳統(tǒng)方式下使用Ceph作為存儲解決方案,會遇到一些局限性和挑戰(zhàn),尤其是在與現(xiàn)代云原生環(huán)境如Kubernetes集成時,這些問題可能會更加突出,具體表現(xiàn)為以下幾個方面:

RBD客戶端運行于Host,消耗計算資源:傳統(tǒng)部署模式下,Ceph的RBD(RADOS Block Device)客戶端運行在宿主機(Host)層面,而非直接在容器內(nèi)部。這意味著所有與Ceph交互的計算任務,包括I/O請求處理、錯誤恢復等,都需要宿主機的CPU資源來完成。在高負載情況下,這些額外的計算需求可能會對宿主機的資源分配產(chǎn)生壓力,影響到運行在相同宿主機上的其他容器應用的性能。

使用RBD協(xié)議連接后端存儲,性能受限:RBD協(xié)議雖然成熟且穩(wěn)定,但在某些場景下,其性能表現(xiàn)可能不盡人意,尤其是在需要大量小I/O操作或高帶寬傳輸?shù)那闆r下。這是因為RBD協(xié)議在設計上更多考慮了數(shù)據(jù)的可靠性和一致性,而非極致的性能。這導致數(shù)據(jù)傳輸延遲較高,影響到依賴快速存儲響應的應用性能,如數(shù)據(jù)庫服務或大數(shù)據(jù)處理系統(tǒng)。

在Kubernetes架構下,無法直接利用DPU實現(xiàn)卸載和加速:隨著DPU(Data Processing Unit)等硬件加速技術的興起,其在數(shù)據(jù)處理、網(wǎng)絡和存儲任務中的加速能力備受矚目。然而,在傳統(tǒng)的Ceph與Kubernetes集成方案中,缺乏直接利用DPU卸載存儲相關處理的能力,導致無法充分利用DPU提供的硬件加速優(yōu)勢,限制了存儲性能的進一步提升和資源的高效利用。

鑒于以上挑戰(zhàn),探索和實施針對Kubernetes環(huán)境優(yōu)化的Ceph部署方案,如通過專門的Ceph CSI(Container Storage Interface)插件支持DPU卸載,或是利用Ceph的其他高級功能與現(xiàn)代硬件加速技術緊密結(jié)合,成為了提升云原生應用存儲性能和效率的關鍵方向。

2. 方案介紹

2.1. 整體架構

本方案采用云原生架構,引入DPU作為Kubernetes集群的Node,為集群之上的容器、虛機和裸金屬實例提供存儲服務的卸載和加速。整體架構如下所示:

wKgZomZ-Z_KAd7y-AAD2ZMBjKHw774.png

本方案將K8s node分為不同的角色(node-role),不同的組件分別部署在不同的node,主要包含:

Master Node上,部署csi的控制器csi-controller,用于創(chuàng)建volume和NVMe-oF target;

Host Node上,部署csi-node-host,配合csi-node-dpu,通過volumeattachment發(fā)現(xiàn)DPU掛載的NVMe盤,然后執(zhí)行綁定或者格式化;裸機場景沒有這個組件;

DPU上,部署csi-node-dpu,volume-attacher和opi-bridge。opi-bridge是卡對opi-api存儲的實現(xiàn),volume-attacher是對DPU存儲相關方法的封裝;csi-node-dpu 調(diào)用volume-attacher給host掛盤;

Storage上,部署Ceph和GATEWAY,GATEWAY是對SPDK封裝的一個服務,用于本地連接rbd image,暴露成NVMe-oF target。

2.2. 方案描述

本方案主要由csi-framework、opi-framework和storage三個部分組成,下面將對這三個部分進行介紹。

2.2.1. csi-framework

通過csi-framework我們能快速的接入第三方的存儲,讓第三方存儲很方便的使用DPU的能力。其包括csi-controller、csi-node-host和csi-node-dpu,主要職責是為K8s的負載提供不同的存儲能力。

2.2.1.1. csi-controller

Csi-controller以deployment的形式部署在master節(jié)點,其架構如下圖所示:

wKgZomZ-aASAPVloAAElgQ2sx4o654.png

在csi-controller pod中,包含對接存儲的csi-controller容器,主要用于在對接存儲上創(chuàng)建卷,除此之外,為了讓對接存儲也能用nvmeof的方式,本架構也開發(fā)了對應的插件系統(tǒng),由插件負責NVMe-oF target的管理。

結(jié)合K8s csi的external plugin,csi-controller主要實現(xiàn)以下兩類功能:

針對pvc,調(diào)用第三方的controller,創(chuàng)建卷,創(chuàng)建快照和擴容等;

針對pod(本質(zhì)上volumeattachment,簡稱va),兩種連接模式,AIO和NVMe-oF(因為opi目前只支持這兩種)。如果是NVMe-oF,則調(diào)用不同的plugin在GATEWAY上創(chuàng)建NVMe-oF target;相關的target參數(shù)會持久化到va的status,此時va的狀態(tài)變?yōu)閍ttached=true。

2.2.1.2. csi-node

Csi-node以daemonset的形式,部署在所有節(jié)點,其架構如下圖所示:

wKgaomZ-aDiAWEEkAAFn8qQohVk656.png

在csi-node的架構中,沒有整合第三方的csi-node,是因為第三方csi-node往往是針對非DPU的場景,所以在本框架中,也是使用插件系統(tǒng),對接不同的第三方存儲。插件系統(tǒng)主要用于直連存儲,比如通過RBD或者ISCSI,會在本地生成一個塊設備,最后把這個塊設備再以AIO的方式掛載到PCIE上;如果是使用本框架的NVMe-oF的方式,由csi-node-dpu負責從va獲取對應的連接信息,連接NVMe-oF target。

Csi-node按node角色分為csi-node-dpu、csi-node-host和csi-node-default,不同角色的csi-node功能不同,下面分別加以說明:

csi-node-dpu需要處理host和DPU側(cè)的掛盤請求,待csi-node-dpu根據(jù)不同的連接模式(AIO或者NVMe-oF),連接遠程存儲;在pf或者vf上掛載磁盤后,會把掛盤的信息添加到va的annotation;

csi-node-host就能根據(jù)va的annotation找到掛載的disk,進行下一步操作;

csi-node-default 也就是默認的工作模式,同非DPU場景的csi-node工作方式。

2.2.2. opi-framework

主要用來兼容不同卡的功能,對上提供統(tǒng)一的接口;通過opi-framework,我們能將第三方存儲快速對接到其他DPU。不同DPU通過opi-bridge對接到opi框架,再由volume-attacher提供opi框架沒有的功能,其架構如下圖所示:

wKgZomZ-aEGAaBIXAAGLkXGr1zk888.png

Opi-framewark包括volume-attacher、opi-yusur-bridge、opi-nvidia-bridge和SPDK,提供存儲卸載和加速能力。

volume-attacher是bridge之上的一層封裝,其主要作用有三個:

參數(shù)計算,比如掛載那個vf,使用那個nsid等;同時保證相同的盤,掛載到相同的掛載點;

因為opi-bridge和SPDK都沒有數(shù)據(jù)持久化,所以一旦opi-bridge或者SPDK重啟之后,需要volume-attacher進行數(shù)據(jù)恢復

從上我們知道,opi框架提供的能力有限,比如backend,只支持AIO和NVMe-oF;一旦要使用其他的bdev,比如lvol,此時就沒法通過opi-bridge操作,所以volume-attacher還封裝了對底層SPDK的操作。

opi-bridge是對opi標準的實現(xiàn),不同的卡會有不同的bridge,存儲方面主要包括對接SPDK的三類接口(frontendmiddleendbackend)。

SPDK是卡上的服務,除了原生SPDK的功能外,主要作用是在pf或者vf上掛載bdev。

2.2.3. storage

除了第三方或者開源的存儲系統(tǒng)之外,還提供一個GATEWAY,GATEWAY的能力就是在靠近存儲的地方(所以往往和存儲系統(tǒng)部署在一起),把卷通過NVMe-oF target的方法是暴露出去;同時支持NVMe-oF multipath實現(xiàn)高可用。

3. 方案測試結(jié)果

3.1. Pod掛盤

首先創(chuàng)建pvc,然后在pod的volumes中以Block或者Filesystem的方式使用pvc,關鍵參數(shù)如下所示:

##pvc-xxx.yaml 關鍵參數(shù) storageClassName: class-ceph ## 通過不同的storageclass,使用AIO或者nvmeof的方式

創(chuàng)建后,相關資源信息如下:

HOST側(cè),使用nvme list和nvme list-subsys可查看對應的disk和system,如下圖所示:

wKgZomZ-aISAVxajAABxBf4sQUo811.png

DPU側(cè),使用rpc.py查看對應的bdev,nvme_ns, nvme_ctrl

wKgaomZ-aI-AC8RHAAC4KDFxsyA221.png

查看對應的bdev,如下所示:

wKgaomZ-ddGAfOgcAABcF7l_TwI961.png

GATEWAY側(cè),使用rpc.py查看nvme_subsystem,bdev

查看對應的bdev,如下所示:

wKgaomZ-ddeACJS3AABam7VQrwo780.png

3.2. 性能對比

本方案基于單節(jié)點ceph創(chuàng)建單副本存儲池,在以下測試場景與傳統(tǒng)ceph方案進行對比:

AIO:DPU上通過RBD協(xié)議連接存儲,然后把/dev/rbd0通過AIO給到Host;

Host-RBD:測試節(jié)點上用RBD 協(xié)議連接存儲,也是傳統(tǒng)ceph方案的方式;

LOCAL-RBD:存儲節(jié)點上用RBD協(xié)議連接存儲,用于對比Host-RBD;

Host-NVMe-CLI/TCP:測試節(jié)點上通過NVMe-CLI以NVMe/TCP的方式連接存儲上的GATEWAY,用來對比卸載模式的性能;

Host-NVMe-CLI/RDMA:測試節(jié)點上通過NVMe-CLI以NVMe/RDMA方式連接存儲上的GATEWAY,用來對比卸載模式的性能;

NVMe/TCP:DPU上直接TCP協(xié)議連接GATEWAY,是本方案的一種連接方式;

NVMe/RDMA:DPU上直接通過RDMA協(xié)議連接GATEWAY,是本方案的一種連接方式。

測試不同blocksize下的隨機讀寫指標包括iops,吞吐,延遲和Host CPU消耗。

3.2.1. 存儲IOPS

測試結(jié)果如下:

wKgaomZ-dd2AGADpAAMmrTt49NM314.png

從上圖我們可以得出以下結(jié)論:

AIO性能最差,是因為AIO是通過DPU里面librbd連接存儲,受限于DPU的資源;

LOCAL-RBD的性能較Host-RBD低,是因為本地測試時,內(nèi)核RBD模塊與osd存在資源競爭,導致ceph-osd的CPU上不去,在950%左右,但是在Host-RBD測試時ceph-osd的CPU在1050%左右;

NVMe/TCP的性能較Host-NVMe-CLI/TCP和Host-NVMe-CLI/RDMA稍高,是因為兩者的路徑不一樣,有可能是DPU的SPDK服務帶來的加速效果;

NVMe/RDMA與NVMe/TCP基本持平,是因為瓶頸在ceph,這個會基于裸盤給出結(jié)論

NVMe/RDMA,NVMe/TCP,Host-NVMe-CLI/TCP和Host-NVMe-CLI/RDMA,高于Host-RBD,是因為GATEWAY的加速作用,能把ceph-osd的CPU進一步提高到1150%左右。

隨機讀iops如下圖所示:

wKgZomZ-deSALRh-AAK3wU8Dq7A873.png

如上圖所示,可以得出如下結(jié)論:

NVMe/TCP的性能與Host-NVMe-CLI/TCP基本持平,好于Host-RBD;

NVMe/RDMA的性能較NVMe/TCP的稍低,有可能是在隨機讀場景下RDMA協(xié)議的損耗導致。

3.2.2. 存儲延遲

測試結(jié)果如下:

wKgaomZ-deqAQtSrAAJ-iD7MGW0633.png

如上圖所示,可以得出如下結(jié)論:

RDMA的延遲要好于TCP;

HOST-RBD好于其他非本地場景,是因為整體io路徑較其他的短。

隨機讀場景下的延遲,如下所示:

wKgZomZ-dfCAI2lEAAJ0yKLki98182.png

3.2.3. CPU消耗

測試結(jié)果如下:

wKgaomZ-dfeAVFlBAAG5P1qZ2_o695.png

如上圖所示,可以得出如下結(jié)論:

基于傳統(tǒng)的Ceph解決方案,消耗Host CPU在400%-600%之間,其資源消耗在內(nèi)核模塊RBD;

使用Host-NVMe-CLI/TCP的方式,消耗Host CPU在70%-200%之間, 其資源消耗在內(nèi)核模塊NVMe/TCP;

使用Host-NVMe-CLI/RDMA的方式,其資源消耗和卸載模式相當;

基于DPU的ceph解決方案,NVMe/TCP和NVMe/RDMA的Host CPU消耗很低。

隨機讀場景下的資源消耗,如下所示:

wKgZomZ-df2AdrKNAAHH0q8L6OY991.png

4. 總結(jié)

4.1. 方案優(yōu)勢

基于DPU(Data Processing Unit)的Ceph存儲解決方案,為云原生存儲領域帶來了顯著的資源優(yōu)化,在性能上也有一定改善,具體優(yōu)勢體現(xiàn)在以下幾個方面:

1. 資源效率大幅提升:通過將Ceph的控制面和數(shù)據(jù)面操作下沉至DPU處理,顯著減輕了宿主機(Host)的資源消耗。測試結(jié)果顯示,在并行度為8的場景下,blocksize為4KB時,宿主機CPU資源的使用率明顯下降,從502%的消耗,降低到了僅45%,這意味著在實際應用場景中,將大大節(jié)省了寶貴的CPU資源,讓這些資源能夠被應用服務更高效地利用。

2. 性能保持與優(yōu)化:在對比分析中,基于DPU的Ceph解決方案不僅保持了與傳統(tǒng)Ceph部署在性能上的競爭力,而且還展示了顯著的提升潛力。通過對比使用Host-NVMe-CLI(分別通過TCP和RDMA協(xié)議)、NVMe/TCP和NVMe/RDMA的傳統(tǒng)Ceph性能數(shù)據(jù),發(fā)現(xiàn)基于DPU的方案并未降低原有的Ceph性能表現(xiàn),反而在某些指標上有所增強。特別是當直接對比基于Host的RBD訪問、NVMe/TCP和NVMe/RDMA的性能時,DPU方案展現(xiàn)出了超越這些傳統(tǒng)訪問方式的性能提升,這表明DPU不僅有效卸載了存儲處理任務,還通過其硬件加速特性提升了存儲I/O性能。

3. 填補Kubernetes生態(tài)空白:在Kubernetes(K8s)生態(tài)系統(tǒng)中,雖然有多種存儲解決方案和插件,但之前缺乏針對DPU優(yōu)化的存儲卸載和加速服務。這一自研的基于DPU的Ceph解決方案,填補了這一技術空白,為Kubernetes環(huán)境下的應用提供了更高效、低延遲的存儲支持。通過集成DPU加速能力,不僅增強了云原生應用的存儲性能,還為用戶提供了更多選擇和優(yōu)化存儲配置的靈活性,有助于提升整個云平臺的運行效率和成本效益。

綜上所述,基于DPU的Ceph存儲解決方案通過自研的Kubernetes組件、引入DPU深度優(yōu)化存儲處理流程,顯著降低了宿主機資源消耗,保持甚至提升了存儲性能,同時為Kubernetes生態(tài)引入了創(chuàng)新的存儲加速服務,是面向未來云原生架構的重要技術進步。

本方案來自于中科馭數(shù)軟件研發(fā)團隊,團隊核心由一群在云計算、數(shù)據(jù)中心架構、高性能計算領域深耕多年的業(yè)界資深架構師和技術專家組成,不僅擁有豐富的實戰(zhàn)經(jīng)驗,還對行業(yè)趨勢具備敏銳的洞察力,該團隊致力于探索、設計、開發(fā)、推廣可落地的高性能云計算解決方案,幫助最終客戶加速數(shù)字化轉(zhuǎn)型,提升業(yè)務效能,同時降低運營成本。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 云計算
    +關注

    關注

    39

    文章

    8021

    瀏覽量

    144413
  • 存儲
    +關注

    關注

    13

    文章

    4791

    瀏覽量

    90064
  • DPU
    DPU
    +關注

    關注

    0

    文章

    414

    瀏覽量

    26971
  • Ceph
    +關注

    關注

    1

    文章

    25

    瀏覽量

    9686
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    DRAM動態(tài)隨機存取存儲器DDR2 SDRAM內(nèi)存解決方案

    在半導體存儲領域,DRAM動態(tài)隨機存取存儲器始終是電子設備性能的核心支撐。作為存儲解決方案的重要組成部分,DDR2 SDRAM內(nèi)存解決方案
    的頭像 發(fā)表于 02-28 16:31 ?508次閱讀

    分布式數(shù)據(jù)恢復—Ceph+TiDB數(shù)據(jù)恢復報告

    故障情況:客戶設備為Ceph分布式存儲系統(tǒng),采用RBD(RADOS Block Device)作為塊存儲服務。Ceph集群由多個OSD(Object Storage Daemon)節(jié)點
    的頭像 發(fā)表于 02-03 17:22 ?88次閱讀
    分布式數(shù)據(jù)恢復—<b class='flag-5'>Ceph</b>+TiDB數(shù)據(jù)恢復報告

    基于DPU的智能盤框方案,華為如何大幅提升AI推理的效率?

    DPU
    腦極體
    發(fā)布于 :2026年01月20日 12:53:10

    HighPoint與 ICY DOCK 達成合作,為專業(yè)計算提供高速靈活的 NVMe 存儲擴展解決方案

    HighPoint與ICYDOCK達成合作,為專業(yè)計算提供高速靈活的NVMe存儲擴展解決方案加利福尼亞州弗里蒙特與加利福尼亞州工業(yè)市—[2025年9月]—PCIe連接與NVMe存儲擴展技術的全球
    的頭像 發(fā)表于 11-21 16:05 ?2118次閱讀
    HighPoint與 ICY DOCK 達成合作,為專業(yè)計算提供高速靈活的 NVMe <b class='flag-5'>存儲</b>擴展<b class='flag-5'>解決方案</b>

    NVIDIA推出全新BlueField-4 DPU

    全新 NVIDIA BlueField DPU 具有 800Gb/s 的吞吐量,其集成的 NVIDIA ConnectX-9 SuperNIC 和 NVIDIA DOCA 微服務為 AI 數(shù)據(jù)存儲、網(wǎng)絡和安全帶來突破性的加速。
    的頭像 發(fā)表于 11-03 14:48 ?984次閱讀

    芯盛智能自研存儲解決方案助力工業(yè)應用蓬勃發(fā)展

    10月29日, 2025通明湖論壇信息技術應用創(chuàng)新賦能工業(yè)智能化發(fā)展分論壇在北京舉辦,行業(yè)專家、科研學者、企業(yè)代表齊聚一堂,共同探討信創(chuàng)技術與工業(yè)智能化融合路徑。作為國內(nèi)領先的存儲控制器及解決方案
    的頭像 發(fā)表于 11-02 14:39 ?1833次閱讀

    基于NVIDIA BlueField DPU的5G UPF數(shù)據(jù)面加速方案

    在第三屆 NVIDIA DPU 黑客松競賽中,我們見證了開發(fā)者與 NVIDIA 網(wǎng)絡技術的深度碰撞。在 23 支參賽隊伍中,有 5 支隊伍脫穎而出,展現(xiàn)了在 AI 網(wǎng)絡、存儲和安全等領域的創(chuàng)新突破。
    的頭像 發(fā)表于 09-04 11:26 ?1217次閱讀

    Ceph集群部署與運維完全指南

    作為一名資深運維工程師,我見證了太多企業(yè)在存儲架構選型上的糾結(jié)。傳統(tǒng)的NAS/SAN方案成本高昂,擴展性差;而云存儲又面臨廠商鎖定的風險。直到我深入研究Ceph后,才真正理解什么叫"軟
    的頭像 發(fā)表于 08-29 17:18 ?1335次閱讀

    K8s存儲類設計與Ceph集成實戰(zhàn)

    在云原生時代,存儲是制約應用性能的關鍵瓶頸。本文將帶你深入理解K8s存儲類的設計原理,并手把手實現(xiàn)與Ceph的完美集成,讓你的集群存儲性能提升300%!
    的頭像 發(fā)表于 08-22 11:50 ?871次閱讀

    Ceph分布式存儲系統(tǒng)解析

    在當今數(shù)據(jù)爆炸的時代,企業(yè)對存儲系統(tǒng)的需求日益增長,傳統(tǒng)的集中式存儲已經(jīng)無法滿足大規(guī)模數(shù)據(jù)處理的要求。分布式存儲系統(tǒng)應運而生,而Ceph作為開源分布式
    的頭像 發(fā)表于 07-14 11:15 ?997次閱讀

    第三屆NVIDIA DPU黑客松開啟報名

    碰撞的絕佳機會。本次競賽采用開放式主題,參與者將通過 NVIDIA DOCA 軟件框架構建創(chuàng)新的加速應用程序,充分挖掘 NVIDIA BlueField DPU 在 AI、網(wǎng)絡、存儲和安全等領域的強大潛能。
    的頭像 發(fā)表于 05-27 10:16 ?900次閱讀

    芯啟源提供DPU產(chǎn)品與解決方案

    芯啟源創(chuàng)立于2015年8月,是國內(nèi)領先的網(wǎng)絡芯片及解決方案的供應商。芯啟源聚焦網(wǎng)絡通訊、5G、云數(shù)據(jù)中心領域,致力于“為超大規(guī)模電信級和企業(yè)級中心的智能安全網(wǎng)絡提供核心芯片和系統(tǒng)解決方案”。
    的頭像 發(fā)表于 04-10 14:18 ?1439次閱讀
    芯啟源提供<b class='flag-5'>DPU</b>產(chǎn)品與<b class='flag-5'>解決方案</b>

    DPU232—高度集成USB到UART橋接控制器 國產(chǎn)替代方案

    DPU232是一款高度集成的USB到UART橋接控制器,提供了一種簡單的解決方案,可以使用最少的元器件和PCB空間,將RS232接口轉(zhuǎn)換為USB接口。DPU232包括一個USB2.0全速功能控制器
    發(fā)表于 04-01 10:53

    STM32L431RCT6主芯片 搭配 SD NAND-動態(tài)心電圖設備存儲解決方案

    MKDV08GCL-STPA 貼片式TF卡存儲解決方案,實現(xiàn)設備性能的全面優(yōu)化。 動態(tài)心電圖設備對于存儲得要求:1)海量數(shù)據(jù)存儲需求 動態(tài)心電圖設備需要長時間、高頻率地采集心臟電信號
    發(fā)表于 03-27 10:56

    Sandisk閃迪攜UFS 4.1存儲解決方案亮相CFMS MemoryS 2025

    、汽車、移動端及消費端的全方位創(chuàng)新閃存解決方案,助力用戶應對人工智能(AI)發(fā)展浪潮下日益復雜的工作負載。在此次峰會上,閃迪詳細介紹了UFS 4.1存儲解決方案——iNAND MC EU711嵌入式
    的頭像 發(fā)表于 03-12 12:48 ?1396次閱讀
    Sandisk閃迪攜UFS 4.1<b class='flag-5'>存儲</b><b class='flag-5'>解決方案</b>亮相CFMS  MemoryS 2025