chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡(jiǎn)單聊聊,AI全棧方案之AI存儲(chǔ)

向欣電子 ? 2025-07-29 06:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

看到不少AI行業(yè)的團(tuán)隊(duì)在同一個(gè)地方摔跤:花大價(jià)錢搭了 GPU 集群,挖來算法高手優(yōu)化模型,最后卻卡在數(shù)據(jù)這一環(huán)節(jié)。就像燒著最旺的炭火,拿著祖?zhèn)魇氖匙V,要做菜時(shí)卻發(fā)現(xiàn)食材要么鎖在深窖里拿不出來,要么已經(jīng)受潮變質(zhì) —— 這樣怎么可能做出好菜?AI圈子里現(xiàn)在逐漸形成一個(gè)共識(shí):算力決定跑多快,算法決定以什么姿勢(shì)跑,而數(shù)據(jù)才真正決定能跑多遠(yuǎn),不管是在訓(xùn)練,還是在推理。

一、數(shù)據(jù)是AI 的 "命根子",沒好數(shù)據(jù)一切白搭

老話說"巧婦難為無米之炊",以AI 訓(xùn)練為例,本質(zhì)上和煉丹沒區(qū)別。把 AI 訓(xùn)練比作煉丹,數(shù)據(jù)就是那些珍貴藥材,算法是祖?zhèn)鞯牡し?,算力則是爐膛里的火焰?;鹧嬖偻し皆倜?,沒有足夠的好藥材,終究煉不出真東西。之前參加過一個(gè)技術(shù)沙龍,某大廠 AI 負(fù)責(zé)人分享過一個(gè)案例:他們用同樣的算法和算力,分別用 100 萬和 1000 萬樣本訓(xùn)練圖像識(shí)別模型,前者準(zhǔn)確率死活突破不了 85%,后者輕松飆到 95%—— 這就是數(shù)據(jù)量對(duì)模型上限的直接影響。

數(shù)據(jù)質(zhì)量的重要性更不用多說。Garbage in,garbage out(GIGO),優(yōu)質(zhì)標(biāo)注數(shù)據(jù)和雜亂數(shù)據(jù)訓(xùn)練出的模型,能力天差地別。之前跟某自動(dòng)駕駛公司的朋友聊,模型在測(cè)試集上準(zhǔn)確率高達(dá) 99%,實(shí)際路測(cè)卻頻頻誤判。最后排查發(fā)現(xiàn),訓(xùn)練數(shù)據(jù)里有大量不清晰的、重復(fù)標(biāo)注的樣本(這里澄清一個(gè)觀點(diǎn),即便是現(xiàn)在的自動(dòng)駕駛端到端模型訓(xùn)練,也不是直接把所有數(shù)據(jù)不做甄別不做處理的一股腦扔進(jìn)去),相當(dāng)于用一堆過期藥材煉丹,藥效自然打折扣。

但光有好數(shù)據(jù)還不夠,得有地方好好存著,要用的時(shí)候能馬上拿到。一個(gè)做垂直模型的朋友提供的信息,他們之前用10 臺(tái) A100做微調(diào), 每天有 60% 的時(shí)間在空轉(zhuǎn),就因?yàn)閿?shù)據(jù)從存儲(chǔ)加載到內(nèi)存要花兩小時(shí)。后來換成高性能存儲(chǔ)方案,加載時(shí)間壓縮到 15 分鐘,同等算力下的模型迭代速度直接提升 3 倍。這就是存儲(chǔ)的核心價(jià)值 —— 讓數(shù)據(jù)在需要的時(shí)候,以最快的速度到達(dá)該去的地方。

現(xiàn)在大模型訓(xùn)練的數(shù)據(jù)量早就突破PB 級(jí)了。某 AI 公司的訓(xùn)練數(shù)據(jù)集,光是文本就存了 80 萬億 tokens,相當(dāng)于把四庫(kù)全書復(fù)印幾千萬次。這么龐大的數(shù)據(jù)量,普通存儲(chǔ)根本扛不住 —— 不是存不下,是調(diào)不出來。就像你有一倉(cāng)庫(kù)藥材,卻只有一個(gè)小窗口能取,煉丹時(shí)能不手忙腳亂嗎?

二、協(xié)議選擇:數(shù)據(jù)流轉(zhuǎn)的"交通規(guī)則"

搞AI 存儲(chǔ),最容易被忽略的就是協(xié)議選擇。存儲(chǔ)的協(xié)議就像城市里的交通系統(tǒng)規(guī)則,不同路段得有不同規(guī)則:有的要兼容各種車型,有的要保證通行速度,有的得兼顧成本。選錯(cuò)協(xié)議,就像在鄉(xiāng)村馬路上飆法拉利,再好的車也跑不起來。

數(shù)據(jù)收集階段就像在全國(guó)各地收藥材,得兼容各種運(yùn)輸方式。這時(shí)候NFS/SMB 協(xié)議就派上用場(chǎng)了,不管是監(jiān)控?cái)z像頭的實(shí)時(shí)數(shù)據(jù),還是實(shí)驗(yàn)室的測(cè)試樣本,還是企業(yè)塵封已久的生產(chǎn)數(shù)據(jù),都能通過這些通用協(xié)議匯總。某傳統(tǒng)AI公司(之前的幾小龍之一)做城市 AI 監(jiān)控項(xiàng)目時(shí),接入的數(shù)據(jù)源有幾十種,從老舊模擬攝像頭到 4K 智能相機(jī),全靠傳統(tǒng)文件存儲(chǔ)協(xié)議的兼容性,才把分散的視頻幀統(tǒng)一存起來。

對(duì)象存儲(chǔ)的S3 協(xié)議適合收集互聯(lián)網(wǎng)數(shù)據(jù)。爬網(wǎng)頁、下圖片、存日志,這些非結(jié)構(gòu)化數(shù)據(jù)用 S3 協(xié)議管理效率最高。之前某搜索引擎公司搭的數(shù)據(jù)湖,用 S3 協(xié)議存了 200 億張圖片,既能按時(shí)間戳檢索,又能批量導(dǎo)出,比傳統(tǒng)文件系統(tǒng)省了非常多的管理成本。

這里稍微啰嗦一下文件存儲(chǔ)與對(duì)象存儲(chǔ)。對(duì)象存儲(chǔ)和文件存儲(chǔ)的核心區(qū)別,藏在數(shù)據(jù)組織的邏輯里。

文件存儲(chǔ)像傳統(tǒng)的戶籍檔案管理,用層層嵌套的文件夾構(gòu)建樹狀結(jié)構(gòu)—— 就像按 "省 - 市 - 區(qū) - 街道 - 小區(qū)" 的層級(jí)存放居民信息,要找某個(gè)人,得順著目錄一級(jí)級(jí)點(diǎn)開。這種結(jié)構(gòu)適合人機(jī)交互,我們能直觀理解 "文檔 / 項(xiàng)目報(bào)告 / 2025Q2" 這樣的路徑,但面對(duì)海量數(shù)據(jù)時(shí),層級(jí)越多,查找效率越受影響,就像翻查跨省的老檔案,得先找省檔案館,再轉(zhuǎn)市檔案館,中間環(huán)節(jié)多了,自然慢下來。

對(duì)象存儲(chǔ)則是給每個(gè)數(shù)據(jù)單元發(fā)了"身份證",用鍵值對(duì)(Key-Value)的扁平結(jié)構(gòu)直接映射 —— 不管是北京的張三還是上海的李四,都用唯一標(biāo)識(shí)符關(guān)聯(lián)信息,無需層級(jí)跳轉(zhuǎn)。就像全國(guó)人口數(shù)據(jù)庫(kù),輸入身份證號(hào)能直接調(diào)出信息,省去了翻找各級(jí)目錄的麻煩。這種結(jié)構(gòu)在數(shù)據(jù)量突破億級(jí)后優(yōu)勢(shì)明顯,某客戶的對(duì)象存儲(chǔ)系統(tǒng)里存了 10+ 億張圖片,用對(duì)象 ID 查找只需 10 毫秒,換成文件存儲(chǔ)按路徑查找,平均要花 300 毫秒。形象點(diǎn)說,文件存儲(chǔ)是按書架分類放書,找書得先看大類標(biāo)簽,再查小類抽屜;對(duì)象存儲(chǔ)則是給每本書貼了唯一二維碼,掃碼直接定位,哪怕書堆成山,也能一秒找到。這就是為什么 AI 訓(xùn)練的海量樣本、互聯(lián)網(wǎng)的非結(jié)構(gòu)化數(shù)據(jù),越來越多地選擇對(duì)象存儲(chǔ) —— 不是樹狀結(jié)構(gòu)不好,而是當(dāng)數(shù)據(jù)多到像漫天繁星時(shí),扁平的 "身份證" 式管理,顯然更高效。

到了數(shù)據(jù)處理階段,就像在倉(cāng)庫(kù)里分揀藥材,需要靈活高效的操作。這時(shí)候HDFS 協(xié)議的優(yōu)勢(shì)就顯出來了,特別適合大數(shù)據(jù)處理框架。有電商平臺(tái)的客戶做用戶畫像訓(xùn)練,每天要處理 50TB 用戶行為數(shù)據(jù),用 HDFS 協(xié)議配合 Spark 集群,3 小時(shí)就能完成清洗和特征提取,換成普通文件協(xié)議得折騰一整夜。

最關(guān)鍵的模型訓(xùn)練階段,必須上"高速路"。POSIX 協(xié)議就像專為賽車設(shè)計(jì)的賽道,能讓數(shù)據(jù)以數(shù)十GB 級(jí)速度涌向 GPU。同樣的訓(xùn)練任務(wù),采用 POSIX 協(xié)議后,性能更高,GPU利用更高效。因?yàn)橛?xùn)練時(shí) GPU 需要隨機(jī)讀取大量小文件,POSIX 協(xié)議的元數(shù)據(jù)處理能力遠(yuǎn)超其他協(xié)議,能避免 "賽車等紅燈" 的尷尬。

三、介質(zhì)選擇:給數(shù)據(jù)找對(duì)合適的承載對(duì)象

存儲(chǔ)介質(zhì)的選擇,本質(zhì)上是在速度、容量和成本之間找平衡。就像不同食材需要不同保鮮方式:有的要冷凍,有的要冷藏,有的常溫保存,有的做成熟食隨蒸隨用。選對(duì)介質(zhì),既能保證數(shù)據(jù)"新鮮",又能省下不少錢。

HDD 硬盤就像老家的地窖,容量大、成本低,適合存冷數(shù)據(jù)。比如科研機(jī)構(gòu)的氣象 AI 模型,要存過去 幾十0 年的全球氣象數(shù)據(jù),總量超 幾十 PB。用氦氣密封 HDD 組建歸檔存儲(chǔ),每 TB 成本不到 NVMe SSD 的六分之一。雖然讀取慢點(diǎn),但這些數(shù)據(jù)每月最多調(diào)用一次,完全能接受。

SATA SSD 好比家里的雙門冰箱,比地窖存取快,又比臺(tái)面保鮮盒能裝。之前有個(gè)銀行客戶的智能風(fēng)控系統(tǒng),要實(shí)時(shí)調(diào)取近 3 個(gè)月交易數(shù)據(jù),約 50TB。用 SATA SSD 組建存儲(chǔ)池后,相比于之前的HDD存儲(chǔ)系統(tǒng),單筆查詢時(shí)間從 HDD 的 2 秒壓到 0.3 秒,既滿足性能需求,又比全 NVMe 方案省了 60% 成本(這是之前的數(shù)據(jù),現(xiàn)在SATA SSD和Nvme SSD價(jià)格已經(jīng)差不多了)。但 SATA SSD 有瓶頸,接口速度最高 6Gbps,就像冰箱門太小,拿東西快不到哪去。

NVMe SSD 是真正的 "臺(tái)面保鮮盒",存取速率極高,PCIe 4.0 規(guī)格的順序讀寫速度能到 5GB/s以上,隨機(jī)讀寫 IOPS 輕松突破百萬,相當(dāng)于把藥材直接攤在煉丹爐邊。有自動(dòng)駕駛公司訓(xùn)練決策模型時(shí),要同時(shí)加載數(shù)十路高清攝像頭數(shù)據(jù),每路每秒 200MB,只有 NVMe SSD 能扛住這吞吐量。現(xiàn)在 PCIe 5.0 的 NVMe SSD 也普及了,速度比 4.0 翻一倍,極限性能又更高了。

實(shí)際使用時(shí),合理的規(guī)劃是做數(shù)據(jù)分層:熱數(shù)據(jù)(正在訓(xùn)練的樣本、高頻訪問的模型參數(shù))放TLC 介質(zhì)的 NVMe SSD,像把新鮮菜放冰箱;溫?cái)?shù)據(jù)(上周用過的訓(xùn)練集、模型 checkpoint)存 QLC 介質(zhì)的 NVMe SSD,相當(dāng)于放冷凍室;冷數(shù)據(jù)(歷史日志、原始采集數(shù)據(jù))歸檔到 HDD,就像放進(jìn)地窖。既保證性能,又把存儲(chǔ)成本控制在預(yù)算內(nèi)。

這里得注意一下:QLC 介質(zhì)雖便宜,但寫入壽命比 TLC 短。如果用 QLC做長(zhǎng)期的數(shù)據(jù)讀寫,很容易出現(xiàn)壞塊(因?yàn)镾SD有DWPD的限制)。正確做法是 TLC 存寫入頻繁的數(shù)據(jù),QLC 存以讀為主的數(shù)據(jù)。

四、部署形式:怎么擺"灶臺(tái)" 和 "食材庫(kù)"

7b9c17e2-6bfe-11f0-9080-92fbcf53809c.png

存儲(chǔ)和計(jì)算的部署方式,直接影響AI 系統(tǒng)的效率。

計(jì)算與存儲(chǔ)分離部署,就像把廚房和倉(cāng)庫(kù)分開。倉(cāng)庫(kù)做大些,存更多食材,廚房按需調(diào)整大小。這種方式的好處是靈活,某項(xiàng)目這樣規(guī)劃:因?yàn)橛?jì)算和數(shù)據(jù)的需求沒有嚴(yán)格的對(duì)應(yīng)關(guān)系,用10 臺(tái)存儲(chǔ)服務(wù)器集中存數(shù)據(jù)和模型文件,前端根據(jù)業(yè)務(wù)部門的需求動(dòng)態(tài)增減 GPU 節(jié)點(diǎn),存儲(chǔ)資源卻不用動(dòng)。對(duì)數(shù)據(jù)量比較大,且算力和數(shù)據(jù)需求非同步增長(zhǎng)的場(chǎng)景,分離部署能省不少錢 —— 畢竟存儲(chǔ)和計(jì)算的生命周期不一樣,沒必要一起升級(jí)。

但分離部署有個(gè)繞不開的問題:數(shù)據(jù)搬運(yùn)。比如做圖像生成模型推理時(shí),每次生成圖片都要從存儲(chǔ)加載**GB 數(shù)據(jù),分離部署時(shí)數(shù)據(jù)讀取時(shí)間很長(zhǎng),換成融合部署后,數(shù)據(jù)直接從本地讀取,延遲降到毫秒級(jí)。這就是計(jì)算存儲(chǔ)融合部署的優(yōu)勢(shì):數(shù)據(jù)不用跑路,直接在本地處理。

計(jì)算存儲(chǔ)融合部署,相當(dāng)于把食材柜嵌在灶臺(tái)邊,拿取極快。某超算中心做大語言模型的二次訓(xùn)練時(shí),用融合架構(gòu)把**TB 訓(xùn)練數(shù)據(jù)直接存在 GPU 服務(wù)器的本地 NVMe SSD 里,加載速度比分離部署快 4 倍,原本 10 天的訓(xùn)練周期縮短到 7 天。對(duì)數(shù)據(jù)密集型訓(xùn)練任務(wù),這種部署方式能把算力利用率拉滿 —— 畢竟 GPU 每空轉(zhuǎn)一秒都是錢。

比較合理的做法是"混合部署":訓(xùn)練微調(diào)階段的熱數(shù)據(jù)用融合部署(注意:這里的訓(xùn)練不是基礎(chǔ)模型的訓(xùn)練,是指做一些小型的微調(diào)),讓數(shù)據(jù)離算力越近越好;訓(xùn)練階段的冷數(shù)據(jù)和推理階段的數(shù)據(jù)用分離部署,方便靈活擴(kuò)縮容;冷數(shù)據(jù)歸檔則用獨(dú)立的HDD存儲(chǔ),節(jié)省成本。

五、訓(xùn)練環(huán)節(jié):全流程的存儲(chǔ)需求

7baa1464-6bfe-11f0-9080-92fbcf53809c.png

數(shù)據(jù)收集階段講究"全",不管結(jié)構(gòu)化表格還是非結(jié)構(gòu)化視頻,都得能存。某做垂直行業(yè)(農(nóng)業(yè))的 AI 公司收集農(nóng)田數(shù)據(jù)時(shí),既用 S3 協(xié)議存無人機(jī)航拍圖,又用 NFS 協(xié)議取傳感器數(shù)據(jù),最后匯總到統(tǒng)一存儲(chǔ)池。這個(gè)階段存儲(chǔ)不用太快,但一定要能接各種數(shù)據(jù)源,就像收納箱得有不同尺寸的格子。

數(shù)據(jù)處理階段更看重"活"。清洗、標(biāo)注、格式轉(zhuǎn)換這些操作,需要存儲(chǔ)支持高并發(fā)小文件讀寫。某自動(dòng)駕駛公司標(biāo)注 3D 點(diǎn)云數(shù)據(jù)時(shí),每天要處理數(shù)百萬個(gè)小文件,用普通存儲(chǔ)時(shí)標(biāo)注軟件經(jīng)常卡殼,換成支持 POSIX 協(xié)議的并行文件系統(tǒng)后,100 個(gè)標(biāo)注員同時(shí)工作也不卡頓。

到了模型訓(xùn)練階段,存儲(chǔ)性能直接決定訓(xùn)練速度。Checkpoint 機(jī)制是存儲(chǔ)性能的 "照妖鏡"。簡(jiǎn)單說,Checkpoint 就是訓(xùn)練過程中的 "存檔",定期把模型參數(shù)、優(yōu)化器狀態(tài)、訓(xùn)練步數(shù)這些關(guān)鍵信息存起來。為什么要存檔?某團(tuán)隊(duì)曾因 GPU 突然斷電,丟失了 3 天的訓(xùn)練進(jìn)度,不得不從頭再來 —— 這就是 Checkpoint 的價(jià)值。但存檔操作很費(fèi)存儲(chǔ):一個(gè) 2000 億參數(shù)的模型,每次 Checkpoint 要寫 2T左右數(shù)據(jù),每小時(shí)存一次,一天就產(chǎn)生 48TB 數(shù)據(jù)。

更麻煩的是Checkpoint 的讀寫性能。某團(tuán)隊(duì)用普通存儲(chǔ)(基于Ceph架構(gòu)) 存 Checkpoint,每次寫入要等 10分鐘以上,為不影響訓(xùn)練,只能兩小時(shí)存一次,結(jié)果某天服務(wù)器故障,丟了近兩小時(shí)進(jìn)度。換成高性能存儲(chǔ)后,寫入時(shí)間壓縮到 30 秒,他們改成每 15 分鐘存一次,安全性大大提高,訓(xùn)練效率反而更高 —— 畢竟等待時(shí)間短了。在分布式訓(xùn)練中,Checkpoint 還得同步,100 個(gè)節(jié)點(diǎn)同時(shí)寫數(shù)據(jù),存儲(chǔ)系統(tǒng)要是扛不住,整個(gè)集群都得等著。

7bbc3e50-6bfe-11f0-9080-92fbcf53809c.png

六、推理環(huán)節(jié):存儲(chǔ)性能的"精細(xì)活"

如果說訓(xùn)練對(duì)存儲(chǔ)是"暴飲暴食",那推理就是 "細(xì)水長(zhǎng)流"—— 看似量小,實(shí)則講究精準(zhǔn)快速。

KV Cache 是大語言模型推理的 "內(nèi)存殺手"。簡(jiǎn)單說,模型處理每段文本時(shí),會(huì)生成一堆中間結(jié)果(Key 和 Value 向量)存在緩存里,后面接著處理時(shí)直接用,不用重算。就像廚師切菜時(shí)把常用配料放在手邊,不用每次去冰箱拿。但 GPU 的顯存就像廚房臺(tái)面,空間有限還貴得離譜 ——H100 的 80GB 顯存,每 GB 成本比 NVMe SSD 高 10 倍以上。

當(dāng)新用戶發(fā)來請(qǐng)求,GPU 顯存滿了怎么辦?只能把老用戶的 KV Cache 清掉。等老用戶繼續(xù)聊天時(shí),又得重新生成這些緩存,非常浪費(fèi)算力,相當(dāng)于廚師把切好的配料扔了再重切,純屬浪費(fèi)功夫。

這時(shí)候高性能存儲(chǔ)就成了"救星"。把暫時(shí)不用的 KV Cache 挪到 NVMe SSD 里,用戶回來時(shí)再快速加載,比重新生成快 10 倍。之前做過測(cè)試:用 PCIe 4.0 NVMe SSD 存 KV Cache,恢復(fù)一個(gè) 1000 輪對(duì)話的上下文只需 80 毫秒,而重新生成要 1 秒,還省了 90% 算力。

7bcee32a-6bfe-11f0-9080-92fbcf53809c.png

推理存儲(chǔ)還有個(gè)特殊需求:低延遲。比如實(shí)時(shí)翻譯系統(tǒng)要求響應(yīng)時(shí)間低于100 毫秒,其中存儲(chǔ)讀取模型片段的時(shí)間必須控制在 30 毫秒內(nèi)。可以把常用小模型存在 GPU 顯存,大模型分片存在 NVMe SSD,用預(yù)加載技術(shù)提前把可能用到的片段讀進(jìn)內(nèi)存,既省了顯存,又保證了速度。

七、數(shù)據(jù)的未來

當(dāng)算力的火焰在集群中熊熊燃燒,當(dāng)算法的丹方在代碼中流轉(zhuǎn)迭代,真正決定AI 價(jià)值高度的,永遠(yuǎn)是那些靜默存儲(chǔ)的數(shù)據(jù)。它們是智能時(shí)代的原油,是訓(xùn)練模型的基石,是企業(yè)落地效果的保障,更是開啟AI認(rèn)知革命的密鑰。AI高性能存儲(chǔ)的價(jià)值,在于讓每一份數(shù)據(jù)都能在恰當(dāng)?shù)臅r(shí)刻迸發(fā)能量,如同精準(zhǔn)調(diào)配的藥材,在煉丹爐中淬煉出改變世界的力量。

數(shù)據(jù)存儲(chǔ) + 算力調(diào)度 + 模型管理 + 知識(shí)庫(kù) + Agent開發(fā) +E2E觀測(cè)優(yōu)化,AI全棧解決方案,六合一!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 存儲(chǔ)
    +關(guān)注

    關(guān)注

    13

    文章

    4801

    瀏覽量

    90091
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39954

    瀏覽量

    301597
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    純4G?血版AI小智產(chǎn)品方案 #小智AI #AI方案商 #4G通話 #AI終端產(chǎn)品

    AI
    不太正經(jīng)的攻城獅
    發(fā)布于 :2025年12月21日 14:36:55

    曙光存儲(chǔ)推出面向金融的可信AI存儲(chǔ)

    近日,曙光存儲(chǔ)推出面向金融的可信AI存儲(chǔ),助力金融行業(yè)高效、安全、穩(wěn)定地使用關(guān)鍵業(yè)務(wù)敏感數(shù)據(jù)。該方案基于全球領(lǐng)先的集中式
    的頭像 發(fā)表于 10-23 09:24 ?663次閱讀

    黑芝麻智能AI機(jī)器人計(jì)算平臺(tái)榮膺國(guó)際大獎(jiǎng)

    黑芝麻智能AI機(jī)器人計(jì)算平臺(tái)榮膺新加坡年度"GO! Technology Utilisation Winner",作為面向新一代機(jī)器人實(shí)時(shí)AI推理打造的
    的頭像 發(fā)表于 08-07 17:35 ?2173次閱讀

    高達(dá)2070TFLOPS算力|騰視科技基于NVIDIA Jetson Thor系列模組,重磅推出AI邊緣智算大腦解決方案

    騰視科技基于NVIDIA Jetson Thor系列模組推出的AI邊緣智算大腦解決方案,以其卓越的性能和廣泛的適用性,為物理AI和機(jī)器人
    的頭像 發(fā)表于 07-28 18:09 ?1312次閱讀
    高達(dá)2070TFLOPS算力|騰視科技基于NVIDIA Jetson Thor系列模組,重磅推出<b class='flag-5'>全</b><b class='flag-5'>棧</b><b class='flag-5'>AI</b>邊緣智算大腦解決<b class='flag-5'>方案</b>

    高達(dá)2070TFLOPS算力|騰視科技基于NVIDIA Jetson Thor系列模組,重磅推出AI邊緣智算大腦解決方案

    騰視科技基于NVIDIA Jetson Thor系列模組推出的AI邊緣智算大腦解決方案,以其卓越的性能和廣泛的適用性,為物理AI和機(jī)器人
    的頭像 發(fā)表于 07-28 16:48 ?1656次閱讀
    高達(dá)2070TFLOPS算力|騰視科技基于NVIDIA Jetson Thor系列模組,重磅推出<b class='flag-5'>全</b><b class='flag-5'>棧</b><b class='flag-5'>AI</b>邊緣智算大腦解決<b class='flag-5'>方案</b>

    高達(dá)2070TFLOPS算力騰視科技基于NVIDIA Jetson Thor系列模組,重磅推出AI邊緣智算大腦解決方案

    騰視科技基于NVIDIA Jetson Thor系列模組推出的AI邊緣智算大腦解決方案,以其卓越的性能和廣泛的適用性,為物理AI和機(jī)器人
    的頭像 發(fā)表于 07-28 16:45 ?945次閱讀
    高達(dá)2070TFLOPS算力騰視科技基于NVIDIA Jetson Thor系列模組,重磅推出<b class='flag-5'>全</b><b class='flag-5'>棧</b><b class='flag-5'>AI</b>邊緣智算大腦解決<b class='flag-5'>方案</b>

    AI應(yīng)用創(chuàng)新與技術(shù)融合分論壇即將召開

    2025開放原子開源生態(tài)大會(huì)即將啟幕,其中 “AI應(yīng)用創(chuàng)新與技術(shù)融合分論壇”將于 7月24日重磅亮相。論壇聚焦人工智能技術(shù)與開源生態(tài)的深度融合,邀請(qǐng)各領(lǐng)域用戶、技術(shù)專家、開發(fā)者分享AI
    的頭像 發(fā)表于 07-23 09:54 ?956次閱讀

    NVIDIA加速代理式AI應(yīng)用落地

    在近期舉辦的 AWS 中國(guó)峰會(huì)上,NVIDIA 聚焦于“NVIDIA 加速代理式 AI 應(yīng)用落地”,深入探討了代理式 AI (Agentic A
    的頭像 發(fā)表于 07-14 11:41 ?1336次閱讀

    德明利亮相COMPUTEX 2025: 以存儲(chǔ)技術(shù)賦能AI產(chǎn)業(yè)落地

    此前,2025年5月20日至23日,全球科技盛會(huì)COMPUTEX臺(tái)北國(guó)際電腦展順利舉辦,德明利以"智存無界,智能"為主題,攜全場(chǎng)景存儲(chǔ)產(chǎn)品矩陣及解決方案亮相,展示
    的頭像 發(fā)表于 06-07 15:44 ?1079次閱讀

    COMPUTEX 2025:德明利以存儲(chǔ)技術(shù)賦能“AI NEXT”產(chǎn)業(yè)落地

    2025年5月20日,全球科技盛會(huì)臺(tái)北國(guó)際電腦展啟幕。在千億參數(shù)大模型商業(yè)化與算力需求指數(shù)級(jí)增長(zhǎng)的雙重驅(qū)動(dòng)下,存儲(chǔ)技術(shù)已從數(shù)據(jù)載體發(fā)展為AI效能的深度落地關(guān)鍵。德明利通過端側(cè)適配方案、
    的頭像 發(fā)表于 05-21 15:05 ?1139次閱讀
    COMPUTEX 2025:德明利以<b class='flag-5'>全</b><b class='flag-5'>棧</b><b class='flag-5'>存儲(chǔ)</b>技術(shù)賦能“<b class='flag-5'>AI</b> NEXT”產(chǎn)業(yè)落地

    從云端到終端:RAKsmart服務(wù)器構(gòu)筑AI云平臺(tái)智慧城市解決方案

    傳統(tǒng)服務(wù)器方案常面臨算力分散、運(yùn)維復(fù)雜、能效比低等問題,導(dǎo)致AI算法難以高效落地。而RAKsmart服務(wù)器憑借其技術(shù)創(chuàng)新與服務(wù)能力,正在為AI
    的頭像 發(fā)表于 05-09 09:47 ?644次閱讀

    移遠(yuǎn)通信 AI 解決方案沙龍圓滿收官,攜手火山引擎共啟消費(fèi)品AI升級(jí)新征程

    4月18日,由移遠(yuǎn)通信與火山引擎聯(lián)合主辦的「移遠(yuǎn)通信AI解決方案沙龍」活動(dòng)在深圳圓滿落幕。本次活動(dòng)以“智聯(lián)萬物電煥新生”為主題,匯聚AI
    的頭像 發(fā)表于 04-30 18:35 ?811次閱讀
    移遠(yuǎn)通信<b class='flag-5'>全</b><b class='flag-5'>棧</b> <b class='flag-5'>AI</b> 解決<b class='flag-5'>方案</b>沙龍圓滿收官,攜手火山引擎共啟消費(fèi)品<b class='flag-5'>AI</b>升級(jí)新征程

    曙光存儲(chǔ)全新升級(jí)AI存儲(chǔ)方案

    近日,曙光存儲(chǔ)全新升級(jí)AI存儲(chǔ)方案,秉持“AI加速”理念,面向AI訓(xùn)練、
    的頭像 發(fā)表于 03-31 11:27 ?1357次閱讀

    中軟國(guó)際攜手華為推出政務(wù)AI解決方案

    近日,在華為中國(guó)合作伙伴大會(huì)2025的“數(shù)智賦能城市全域數(shù)字化轉(zhuǎn)型“主題論壇上,中軟國(guó)際副總裁、AIGC研究院院長(zhǎng)萬如意博士以《昇騰算力x政務(wù)智囊團(tuán)—政務(wù)AI解決方案,賦能城市服務(wù)
    的頭像 發(fā)表于 03-24 17:30 ?1564次閱讀

    Banana Pi 發(fā)布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計(jì)算與嵌入式開發(fā)

    存儲(chǔ)設(shè)計(jì),輕松應(yīng)對(duì)復(fù)雜AI模型與實(shí)時(shí)推理。其堅(jiān)固耐用的工業(yè)級(jí)品質(zhì)與超低成本,不僅適應(yīng)嚴(yán)苛環(huán)境的應(yīng)用,更為工程師提供了極致靈活的開發(fā)體驗(yàn),堪稱推動(dòng)開源生態(tài)與人工智能未來的標(biāo)桿選?!?瑞薩系統(tǒng)解決
    發(fā)表于 03-19 17:54