NVIDIA CUDA 深度神經(jīng)網(wǎng)絡(luò)庫(cuDNN)是一個 GPU 加速的深度神經(jīng)網(wǎng)絡(luò)基元庫,能夠以高度優(yōu)化的方式實現(xiàn)標準例程(如前向和反向卷積、池化層、歸一化和激活層)。
2022-07-23 11:04:34
1920 電子發(fā)燒友網(wǎng)報道(文/梁浩斌)英偉達今年以來股價漲幅超過200%,這足以說明在AI算力需求下對GPU等算力硬件的需求到底會有多大。而除了GPU之外,在數(shù)據(jù)中心的AI訓(xùn)練中,AI服務(wù)器集群對于數(shù)據(jù)傳輸
2023-08-02 09:08:51
2969 
隨著各個運營商網(wǎng)絡(luò)的DC化網(wǎng)絡(luò)重構(gòu),DC將成為主要載體,用于對云化網(wǎng)絡(luò)資源的承載,提供計算存儲和轉(zhuǎn)發(fā)能力。 5G中傳和回傳光模塊https://www.gigalight.com/cn
2019-12-12 17:36:16
的開發(fā)環(huán)境需求強烈。過去,安裝驅(qū)動、編譯庫文件等軟件集成工作費時費力,阿里云上的GPU計算平臺聯(lián)同NGC將為開發(fā)者節(jié)省大量準備開發(fā)環(huán)境的的時間。NGC可以幫助開發(fā)人員免費訪問深度學(xué)習(xí)容器,包括
2018-04-04 14:39:24
算法和大數(shù)據(jù)時代的到來、以及AI芯片的出現(xiàn)。 第三波AI浪潮的發(fā)展主要由深度學(xué)習(xí)技術(shù)的突破引領(lǐng),而英偉達(Nvidia)憑借其通用的GPU單元,專門的TensorRT加速器,強勁的矩陣運算性能加上對其他
2018-06-11 08:20:23
裝置」與「感測裝置」成為不可或缺的一環(huán)。在AI模塊中,處理芯片與儲存系統(tǒng)之間的信道優(yōu)化,將直接影響系統(tǒng)在實時判斷與深度學(xué)習(xí)的效能,因此內(nèi)存模塊必須更重視客制化與穩(wěn)定性等需求。目前就AI產(chǎn)業(yè)面觀察,尤其
2017-12-05 08:09:38
產(chǎn)生新需求,將帶來高性能GPU市場快速增長。GPU分類與主要廠商,資料來源:架構(gòu)師技術(shù)聯(lián)盟、華西證券研究所云端AI服務(wù)器AI服務(wù)器通常搭載GPU、FPGA、ASIC等加速芯片,利用CPU與加速芯片的組合
2021-12-07 10:04:11
ai芯片和gpu的區(qū)別▌車載芯片的發(fā)展趨勢(CPU-GPU-FPGA-ASIC)過去汽車電子芯片以與傳感器一一對應(yīng)的電子控制單元(ECU)為主,主要分布與發(fā)動機等核心部件上。...
2021-07-27 07:29:46
本文基于光模塊標準和需求出發(fā),介紹了TI多款小體積電源產(chǎn)品在光模塊里的應(yīng)用及其在光模塊應(yīng)用場景下的注意事項。1. 光模塊簡介光模塊(Optical module)是光電和電光轉(zhuǎn)換的光電子器件,見圖1
2022-11-03 07:14:50
,基于NCNN、MNN、Paddlelite多種常用端側(cè)推理框架進行了接口的統(tǒng)一。圖1 AI推理任務(wù)管理與統(tǒng)一推理接口架構(gòu)圖各模塊介紹:任務(wù)安排:創(chuàng)建、任務(wù)、任務(wù)??蚣苷{(diào)度:推理框架加載、卸載。算法引擎
2022-03-25 11:15:36
,支持廣泛的應(yīng)用程序和動態(tài)工作負載。本文將討論這些行業(yè)挑戰(zhàn)可以在不同級別的硬件和軟件設(shè)計采用Xilinx VERSAL AI核心,業(yè)界首創(chuàng)自適應(yīng)計算加速平臺超越了CPU/GPU和FPGA的性能。
2020-11-01 09:28:57
TensorFlow&TensorFlow-GPU:深度學(xué)習(xí)框架TensorFlow&TensorFlow-GPU的簡介、安裝、使用方法詳細攻略
2018-12-25 17:21:10
C語言深度剖析[完整版].pdfC語言深度剖析[完整版].pdf (919.58 KB )
2019-03-19 05:11:41
C語言深度剖析——一本關(guān)于C語言學(xué)習(xí)的教程,里面包含C語言編寫規(guī)范,各種變量指針用法等。以含金量勇敢挑戰(zhàn)國內(nèi)外同類書籍
2012-08-14 11:36:46
集群中的帶寬瓶頸
DeepSeek的大規(guī)模訓(xùn)練任務(wù)涉及數(shù)千甚至數(shù)萬的GPU節(jié)點,通過高效的網(wǎng)絡(luò)連接協(xié)調(diào)計算。傳統(tǒng)的光模塊,如400G模塊,雖然能提供一定的帶寬,但在面對大規(guī)模并行計算時,帶寬常常成為
2025-03-25 12:00:18
,以使得數(shù)據(jù)可以理解和處理。 數(shù)據(jù)分析通常依賴于機器學(xué)習(xí)(ML)算法。在ML算法中,深度卷積神經(jīng)網(wǎng)絡(luò)(DNN)為重要的圖像分類任務(wù)提供了最先進的精度,并被廣泛采用。 在最近
2017-04-27 14:10:12
硬件公司供貨的不斷增加,GPU 在深度學(xué)習(xí)中的市場需求還催生了大量公共云服務(wù),這些服務(wù)為深度學(xué)習(xí)項目提供強大的 GPU 虛擬機。
但是顯卡也受硬件和環(huán)境的限制。Larzul 解釋說:“神經(jīng)網(wǎng)絡(luò)訓(xùn)練
2024-03-21 15:19:45
Mali GPU 支持tensorflow或者caffe等深度學(xué)習(xí)模型嗎? 好像caffe2go和tensorflow lit可以部署到ARM,但不知道是否支持在GPU運行?我希望把訓(xùn)練
2022-09-16 14:13:01
linux內(nèi)核深度剖析,對于想學(xué)linux內(nèi)核的人來說,絕對值得一看,另附有光盤資料。
2014-01-15 21:25:14
本帖最后由 zgzzlt 于 2012-8-16 14:23 編輯
《C語言深度剖析》【超經(jīng)典書籍】
2012-08-02 08:59:42
與邊緣AI的不同特點:
邊緣推理的優(yōu)勢:可以提供數(shù)據(jù)處理速度和響應(yīng)速度,滿足實時需求;可以縮短網(wǎng)絡(luò)延遲,降低成本;可以提高安全性和隱私性,保護用戶數(shù)據(jù)。
前面說的都是好處,那面臨的困難有哪些呢
2025-09-12 16:07:57
,本周將會推出針對異構(gòu)計算GPU實例GN5年付5折的優(yōu)惠活動,希望能夠打造良好的AI生態(tài)環(huán)境,幫助更多的人工智能企業(yè)以及項目順利上云。隨著深度學(xué)習(xí)對人工智能的巨大推動,深度學(xué)習(xí)所構(gòu)建的多層神經(jīng)網(wǎng)絡(luò)模型
2017-12-26 11:22:09
產(chǎn)生新需求,將帶來高性能GPU市場快速增長。GPU分類與主要廠商,資料來源:架構(gòu)師技術(shù)聯(lián)盟、華西證券研究所云端AI服務(wù)器AI服務(wù)器通常搭載GPU、FPGA、ASIC等加速芯片,利用CPU與加速芯片的組合
2021-12-07 09:59:04
什么是深度學(xué)習(xí)為了解釋深度學(xué)習(xí),有必要了解神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦的神經(jīng)元和神經(jīng)網(wǎng)絡(luò)的計算模型。作為具體示例,讓我們考慮一個輸入圖像并識別圖像中對象類別的示例。這個例子對應(yīng)機器學(xué)習(xí)中的分類
2023-02-17 16:56:59
深度殘差收縮網(wǎng)絡(luò)是深度殘差網(wǎng)絡(luò)的一種新的升級版本,其實是深度殘差網(wǎng)絡(luò)、注意力機制(參照Squeeze-and-Excitation Network,SENet)和軟閾值化的深度集成
2020-11-26 06:33:10
定位到出口路由器端口存在大量物理層錯誤計數(shù),更換光模塊后,故障立即排除,業(yè)務(wù)完全恢復(fù)正常。此案例充分驗證了AI推理引擎在復(fù)雜網(wǎng)絡(luò)故障診斷中精準定位根因、大幅提升排障效率的核心價值。
2025-07-16 15:29:20
在人工智能算力需求呈指數(shù)級增長的2025年,數(shù)據(jù)傳輸效率已成為制約AI發(fā)展的關(guān)鍵瓶頸。作為全球AI光模塊領(lǐng)域的標桿企業(yè),深圳市睿海光電憑借技術(shù)領(lǐng)先的800G OSFP光模塊解決方案,正在重新
2025-08-13 16:38:17
,都需要更多的光模塊來進行光纖通信。對于使用gpu的廣泛AI訓(xùn)練應(yīng)用,在NVIDIA的DGX H100服務(wù)器中,集成了8個H100 gpu,對計算和存儲網(wǎng)絡(luò)的需求相當于大約12個800G光模塊和18個
2024-11-13 10:16:44
本文由回映電子整理分享,歡迎工程老獅們參與學(xué)習(xí)與評論內(nèi)容? 射頻系統(tǒng)中的深度學(xué)習(xí)? Deepwave Digital技術(shù)? 信號檢測和分類示例? GPU的實時DSP基準測試? 總結(jié)回映電子是一家
2022-01-05 10:00:58
本帖最后由 lee_st 于 2018-4-3 09:43 編輯
嵌入式網(wǎng)絡(luò)那些事LwIP協(xié)議深度剖析與實戰(zhàn)演練
2018-04-02 10:44:08
是人工智能大躍進的基礎(chǔ),在線下模型訓(xùn)練中Xeon-Phi、GPU等發(fā)揮著巨大的作用,而在線上的推理任務(wù)中,浪潮FPGA深度學(xué)習(xí)加速解決方案則能夠?qū)崿F(xiàn)7倍以上的能效比提升。 卷積網(wǎng)絡(luò)之父、Facebook
2021-09-17 17:08:32
最先進的人工智能模型在不到五年的時間內(nèi)經(jīng)歷了超過 5,000 倍的規(guī)模擴展。這些
AI 模型嚴重依賴復(fù)雜的計算和大量內(nèi)存來實現(xiàn)高性能
深度神經(jīng)
網(wǎng)絡(luò) (DNN)。只有使用 CPU、
GPU 或?qū)S眯酒?/div>
2023-07-28 10:10:17
在全球數(shù)字化轉(zhuǎn)型加速的背景下,超高速光模塊作為數(shù)據(jù)中心與AI算力網(wǎng)絡(luò)的核心部件,正經(jīng)歷從400G向800G、1.6T的迭代浪潮。在這一賽道中,深圳市睿海光電科技有限公司(以下簡稱“睿海光電”)憑借
2025-08-13 19:05:00
400G/800G光模塊已實現(xiàn)規(guī)?;慨a(chǎn),并基于AI工廠與AI云的核心需求進行深度優(yōu)化:
速率突破:采用PAM4調(diào)制技術(shù),單通道速率達100Gbps,整模塊實現(xiàn)800Gbps傳輸能力,為GPU集群的高效協(xié)同
2025-08-13 19:01:20
有沒有轉(zhuǎn)讓 嵌入式網(wǎng)絡(luò)那些事lwip協(xié)議深度剖析與實戰(zhàn)演練 這本書的呀?現(xiàn)在除了某寶能買到這本書(八成是盜版),其他網(wǎng)站都買不到了,我特別想看看這本書,求各位大神幫助~~
2019-08-18 21:19:32
嵌入式網(wǎng)絡(luò)那些事LwIP協(xié)議深度剖析與實戰(zhàn)演練
2016-06-12 13:43:17
將部分計算操作在網(wǎng)絡(luò)層處理,可有效降低GPU負載。
自適應(yīng)路由與擁塞控制:實現(xiàn)高效流量分發(fā),防止鏈路瓶頸。
確定性帶寬與低延遲:保障大規(guī)模AI作業(yè)的穩(wěn)定性。
在以太網(wǎng)中探索AI部署
2025-03-25 17:35:05
拷貝多份占用存儲空間,也給網(wǎng)絡(luò)管理和數(shù)據(jù)管理帶來了復(fù)雜性;并且由于數(shù)據(jù)無法共享,無法支持整個GPU集群同時運行任務(wù),降低了整個IT系統(tǒng)的使用效率。為了便于數(shù)據(jù)管理和共享,傳統(tǒng)文件存儲在AI系統(tǒng)中得到一定
2018-08-23 17:39:35
陳正沖編寫的《C語言深度剖析》,挺經(jīng)典,剛來論壇,多多指教~~
2013-08-17 12:06:03
SHARP光耦簡單剖析
2012-08-28 16:36:46
2400 
C語言深度剖析。
2016-05-05 17:40:59
7 C語言深度剖析
2016-12-20 22:50:25
0 本文談了談gpu的一些重要的硬件組成,就深度學(xué)習(xí)而言,我覺得對內(nèi)存的需求還是比較大的,core多也并不是能夠全部用上,但現(xiàn)在開源的庫實在完整,想做卷積運算有cudnn,想做卷積神經(jīng)網(wǎng)絡(luò)caffe
2018-01-06 12:01:09
4197 
多GPU訓(xùn)練過程中的參數(shù)交換的位置,達到兩者兼容的目的。該方法利用分布式環(huán)境中的遠程GPU資源實現(xiàn)深度神經(jīng)網(wǎng)絡(luò)的加速訓(xùn)練,且達到單機多GPU和多機多GPU在CUDA編程模式上的統(tǒng)一。以手寫數(shù)字識別為例,利用通用網(wǎng)絡(luò)環(huán)境中深度神經(jīng)網(wǎng)絡(luò)的多機多
2018-03-29 16:45:25
0 在光模塊及芯片需求量大的背景下,行業(yè)景氣度高。數(shù)據(jù)中心間互聯(lián)及內(nèi)部交換機連接增加,對光模塊的需求不斷增加。2015年IDC光模塊市場增速約為50%,到2019年IDC光模塊銷量將超過5000萬只
2019-03-26 08:00:00
64 相比GPU和GPP,F(xiàn)PGA在滿足深度學(xué)習(xí)的硬件需求上提供了具有吸引力的替代方案。憑借流水線并行計算的能力和高效的能耗,F(xiàn)PGA將在一般的深度學(xué)習(xí)應(yīng)用中展現(xiàn)GPU和GPP所沒有的獨特優(yōu)勢。
2019-10-18 15:48:14
1802 作為光電轉(zhuǎn)換器件,在光通信網(wǎng)絡(luò)中,光模塊是最常見不過的產(chǎn)品了。而在光模塊的特性中,傳輸容量是最為核心、也最受關(guān)注的一大參數(shù)。此外,光模塊的傳輸距離長短則是另一大不能忽視的核心參數(shù)。在光通信網(wǎng)絡(luò)傳輸?shù)牟煌I(lǐng)域、環(huán)節(jié)中,對光模塊的特性要求也各不相同。
2020-03-15 17:05:00
2386 這些AI模型被運行在裝載了V100Tensor Core GPU的NVIDIADGX系統(tǒng)上的數(shù)據(jù)中心服務(wù)器上,以及裝載了JetsonAGX Xavier模塊的邊緣計算網(wǎng)絡(luò)中。該硬件運行NVIDIA
2020-07-02 15:00:54
2470 目前,整個AI芯片市場都圍繞著深度學(xué)習(xí)而展開。深度學(xué)習(xí)(DL),則正是讓AI應(yīng)用程序在現(xiàn)實世界中真正發(fā)揮作用的最成功的機器學(xué)習(xí)技術(shù)范例。
2020-08-13 10:46:40
2662 
深度學(xué)習(xí)是推動當前人工智能大趨勢的關(guān)鍵技術(shù)。在 MATLAB 中可以實現(xiàn)深度學(xué)習(xí)的數(shù)據(jù)準備、網(wǎng)絡(luò)設(shè)計、訓(xùn)練和部署全流程開發(fā)和應(yīng)用。聯(lián)合高性能 NVIDIA GPU 加快深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練和推斷。
2022-02-18 13:31:44
2702 三維圖形是 GPU 擁有如此大的內(nèi)存和計算能力的根本原因,它與 深度神經(jīng)網(wǎng)絡(luò) 有一個共同之處:都需要進行大量矩陣運算。
2022-08-06 15:56:02
1248 GPU 引領(lǐng)的深度學(xué)習(xí)
2023-01-04 11:17:16
1202 GPU服務(wù)器相對CPU服務(wù)器來說是非常昂貴的,大約是美金和人民幣匯率的差距(以8卡GPU服務(wù)器為例),而且在芯片緊缺的年代,GPU到貨周期還比較長!面對資源昂貴、算力又是AI的發(fā)動機、AI業(yè)務(wù)又必須開展之間的矛盾,如何更好的利用和管理GPU資源就變得尤其關(guān)鍵。下面一起來看看這五大典型場景。
2023-06-25 11:31:36
2649 
800G光模塊今年開始量產(chǎn),由于ChatGPT等AI技術(shù)的爆發(fā),進一步增加了市場對800G光模塊的需求。這篇筆記梳理下800G光模塊的信息,方便大家參考。
2023-07-27 16:52:37
10182 
AI大模型的搭建離不開底層基礎(chǔ)設(shè)施的建設(shè),光模塊作為高性能計算網(wǎng)絡(luò)核心部件需求率先爆發(fā)。光芯片作為光模塊的基礎(chǔ)部件,其性能直接決定了光通信系統(tǒng)的傳輸效率,有望與800G光模塊迎來高景氣共振。
2023-08-01 17:28:09
1520 
,AI芯片是專門為人工智能而設(shè)計的,它在處理神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)方面更加高效。而GPU芯片則是為了更好地處理圖像和視頻等方面而略微弱于AI芯片。 其次,AI芯片通常采用多核心硬件設(shè)計,這些核心之間可以并行工作,處理復(fù)雜的神經(jīng)網(wǎng)絡(luò),并且更加靈
2023-08-08 18:02:28
8396 40G光模塊在高速網(wǎng)絡(luò)中扮演著關(guān)鍵的角色。它是用于傳輸數(shù)據(jù)的光纖通信設(shè)備,具備高速數(shù)據(jù)傳輸能力,廣泛應(yīng)用于數(shù)據(jù)中心、電信運營商、企業(yè)網(wǎng)絡(luò)等領(lǐng)域。本文我們來看看40G光模塊在高速網(wǎng)絡(luò)中是如何發(fā)揮它的作用的!
2023-08-11 17:03:32
1151 
隨著互聯(lián)網(wǎng)的快速發(fā)展和數(shù)據(jù)傳輸需求的不斷增長,光通信技術(shù)在網(wǎng)絡(luò)領(lǐng)域中扮演著至關(guān)重要的角色。光模塊是光通信系統(tǒng)中的核心組件之一,而100G光模塊和400G光模塊是目前應(yīng)用廣泛的兩種主要類型。本文將對這兩種光模塊進行詳細的區(qū)別對比。
2023-08-19 15:44:38
2232 據(jù)悉,中際旭創(chuàng)的800g光模塊是該公司的重要產(chǎn)品之一,主要用于ai (ai)場景。最近該產(chǎn)品持續(xù)出貨及創(chuàng)出收益,顯示出市場的需求非常穩(wěn)固。800g光模塊出貨量的增加,不僅給它帶來了穩(wěn)定的收入,也為公司的事業(yè)發(fā)展提供了強大動力。
2023-09-25 09:46:55
1800 GPU最初是為圖形渲染而設(shè)計的,但是由于其卓越的并行計算能力,它們很快被引入深度學(xué)習(xí)中。深度學(xué)習(xí)的迅速發(fā)展離不開計算機圖形處理單元(GPU)的支持,而GPU中的張量核心則被譽為深度學(xué)習(xí)的秘密武器
2023-09-26 08:29:54
1745 
在光通信領(lǐng)域,千兆和萬兆光模塊在很長一段時間都內(nèi)是網(wǎng)絡(luò)交換機和路由器的主流選擇。隨著網(wǎng)絡(luò)技術(shù)的飛速發(fā)展,千兆光模塊和萬兆光模塊越來越難以滿足網(wǎng)絡(luò)數(shù)據(jù)傳輸速度的需求,特別是AI、云計算、超大型數(shù)據(jù)中心
2023-10-09 10:00:56
962 本文通過分析千兆光模塊的技術(shù)特點和現(xiàn)在的網(wǎng)絡(luò)需求,討論了千兆光模塊是否還能滿足現(xiàn)代網(wǎng)絡(luò)需求的問題。文章提出,在一些特定場合,千兆光模塊仍然是一種可行的選擇,但在面對更高速、更大容量的數(shù)據(jù)傳輸時,就需要選擇更高速率光模塊。
2023-10-09 10:04:26
894 隨著網(wǎng)絡(luò)技術(shù)的不斷發(fā)展,越來越多的企業(yè)、機構(gòu)、個人都離不開網(wǎng)絡(luò)。而光模塊作為網(wǎng)絡(luò)中重要的組成部分,對網(wǎng)絡(luò)延遲有著至關(guān)重要的影響。本文旨在從理論與實踐角度分析光模塊對網(wǎng)絡(luò)延遲的影響以及如何優(yōu)化網(wǎng)絡(luò)延遲。
2023-10-16 12:12:52
2189 萬兆光模塊在網(wǎng)絡(luò)傳輸中發(fā)揮著重要的作用,但是隨著未來網(wǎng)絡(luò)需求的不斷提升,它是否能夠應(yīng)對越來越高的需求呢?本文通過對萬兆光模塊與未來網(wǎng)絡(luò)需求來分析。
2023-10-30 11:30:16
936 
千兆光模塊和萬兆光模塊是當前光纖通信領(lǐng)域中常見的兩種光模塊。它們分別適用于不同的網(wǎng)絡(luò)通信需求,并各有優(yōu)勢和劣勢。本文將重點討論千兆光模塊和萬兆光模塊的優(yōu)勢與劣勢,并對未來發(fā)展趨勢進行探討。
2023-10-30 11:36:10
1758 C語言深度剖析
2022-12-30 09:20:02
5 本文旨在介紹千兆光模塊和萬兆光模塊在網(wǎng)絡(luò)安全中的重要性。作為網(wǎng)絡(luò)通信的基礎(chǔ)設(shè)施,光模塊的性能和穩(wěn)定性對網(wǎng)絡(luò)安全至關(guān)重要。本文將從光模塊的技術(shù)參數(shù)、優(yōu)勢和適用范圍開始,介紹千兆光模塊和萬兆光模塊的差異
2023-11-13 11:00:03
1175 人工智能的飛速發(fā)展,深度學(xué)習(xí)作為其重要分支,正在推動著諸多領(lǐng)域的創(chuàng)新。在這個過程中,GPU扮演著不可或缺的角色。就像超級英雄電影中的主角一樣,GPU在深度學(xué)習(xí)中擁有舉足輕重的地位。那么,GPU在深度
2023-12-06 08:27:37
2443 
以ChatGPT為代表的AI大模型應(yīng)用普及將推動算力需求快速增長,服務(wù)器產(chǎn)業(yè)鏈是其中重要的受益環(huán)節(jié)之一,AI計算的普及將推動服務(wù)器產(chǎn)業(yè)鏈光模塊向800G升級提速。 算力網(wǎng)絡(luò)驅(qū)動下光模塊市場需求
2024-01-02 15:32:47
1224 
什么是光模塊中的浪涌測試? 光模塊中的浪涌測試是一種驗證光模塊抗擊浪涌電壓能力的測試方法。隨著光通信技術(shù)的發(fā)展,光模塊作為光通信系統(tǒng)中的重要組成部分,承擔(dān)著光信號的發(fā)射和接收功能。然而,在現(xiàn)實應(yīng)用中
2024-01-31 14:24:37
1815 光伏逆變器和組件如何配比選擇? 光伏逆變器和組件的選擇是光伏系統(tǒng)設(shè)計中至關(guān)重要的一環(huán)。正確的配比選擇可以確保系統(tǒng)的高效運行和長期穩(wěn)定性。在進行光伏逆變器和組件選擇時,我們需要考慮以下幾個因素:光伏
2024-02-01 09:25:57
4294 計算需求的戰(zhàn)略舉措。 為什么需要800G光模塊? 800G光模塊需求的激增與數(shù)據(jù)中心網(wǎng)絡(luò)架構(gòu)的變化密切相關(guān)。傳統(tǒng)的三層架構(gòu)(包括接入層、聚合層和核心層)多年來一直是標準。隨著AI技術(shù)規(guī)模和東西向流量的不斷擴大,數(shù)據(jù)中心網(wǎng)絡(luò)架構(gòu)也在不
2024-03-05 17:32:20
1320 
以傳統(tǒng)三層架構(gòu)到葉脊架構(gòu)的轉(zhuǎn)變?yōu)槔?,葉脊網(wǎng)絡(luò)架構(gòu)下,光模塊數(shù)量提升最高可達到數(shù)十倍。
2024-04-01 10:09:47
3227 
光模塊在光纖世界中的奧秘
2024-04-03 17:42:36
2471 
近期,由OpenAI發(fā)布的人工智能文生視頻大模型Sora再次引起了不小的轟動,繼ChatGPT之后,Sora的推出讓AIGC(生成式人工智能)再度成為行業(yè)焦點,AI大模型的快速迭代升級對網(wǎng)絡(luò)架構(gòu)提出了更高要求,推動光模塊產(chǎn)品向著低時延和高速率方向演進。
2024-04-10 14:07:18
951 
2024年,硅光方案將逐漸在400G和800G光模塊的需求中占據(jù)市場份額,而1.6T時代也將逐年提升。這將為光模塊廠家?guī)砑夹g(shù)更新的機遇,需要他們不斷推動技術(shù)創(chuàng)新,以滿足市場對更高速率、更低功耗的需求。 在這一發(fā)展趨勢下,光模塊廠家需要重點
2024-04-11 10:54:29
1170 
傳統(tǒng)的三層架構(gòu)已不再適應(yīng)日益增長的數(shù)據(jù)中心流量需求,葉脊架構(gòu)的出現(xiàn)解決了這一問題。葉脊架構(gòu)下,光模塊數(shù)量可高達數(shù)十倍,以滿足大規(guī)模AI集群對大帶寬、低時延、無損網(wǎng)絡(luò)的需求。智算中心網(wǎng)絡(luò)一般采用無阻塞的Fat-Tree架構(gòu)。
2024-04-22 10:42:51
1960 
如何合理設(shè)計光伏電站容配比-古瑞瓦特 隨著全球?qū)稍偕茉?b class="flag-6" style="color: red">需求的不斷增長,光伏發(fā)電技術(shù)得到了快速發(fā)展。光伏電站作為光伏發(fā)電技術(shù)的核心載體,其設(shè)計合理性直接影響到電站的發(fā)電效率、運行穩(wěn)定性及經(jīng)濟效益
2024-05-29 11:20:02
4554 
光模塊(Optical Module),也稱為光收發(fā)模塊,是光通信設(shè)備中的關(guān)鍵組件,主要用于光電信號的轉(zhuǎn)換。光模塊能夠?qū)㈦娦盘栟D(zhuǎn)換成光信號進行傳輸,并將接收到的光信號轉(zhuǎn)換成電信號。隨著數(shù)據(jù)中心和高性能計算(HPC)系統(tǒng)在AI智能設(shè)備中的廣泛應(yīng)用,光模塊的作用愈加重要。
2024-05-31 11:15:51
2686 
GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)的核心應(yīng)用領(lǐng)域之一,GPU在加速圖像識別模型訓(xùn)練方面發(fā)揮著關(guān)鍵作用。通過利用GPU的并行計算
2024-10-27 11:13:45
2279 眾所周知,在大型模型訓(xùn)練中,通常采用每臺服務(wù)器配備多個GPU的集群架構(gòu)。在上一篇文章《高性能GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)(上篇)》中,我們對GPU網(wǎng)絡(luò)中的核心術(shù)語與概念進行了詳盡介紹。本文將進一步深入探討常見的GPU系統(tǒng)架構(gòu)。
2024-11-05 16:20:34
2133 
近年來,VR、物聯(lián)網(wǎng)、云計算等新業(yè)務(wù)的出現(xiàn),對網(wǎng)絡(luò)帶寬、并發(fā)、實時性能提出了更高的要求。隨著帶寬需求持續(xù)飆升,100G、200G和400G光模塊將保持重要的市場份額,800G光模塊也將獲得吸引力
2024-11-15 09:25:42
1600 隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動技術(shù)進步的重要力量。GPU(圖形處理單元)在深度學(xué)習(xí)中扮演著至關(guān)重要的角色,其強大的并行處理能力使得訓(xùn)練復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型成為可能
2024-11-19 10:55:52
2376 在現(xiàn)代網(wǎng)絡(luò)通信中,數(shù)據(jù)傳輸速度和網(wǎng)絡(luò)穩(wěn)定性是衡量網(wǎng)絡(luò)性能的兩個關(guān)鍵指標。隨著技術(shù)的發(fā)展,SFP光模塊因其體積小、成本低、兼容性好等特點,已經(jīng)成為網(wǎng)絡(luò)設(shè)備中不可或缺的組件。 一、SFP光模塊的基本概念
2024-11-22 15:28:07
1373 ,一個新的競爭力量——LPU(Language Processing Unit,語言處理單元)已悄然登場,LPU專注于解決自然語言處理(NLP)任務(wù)中的順序性問題,是構(gòu)建AI應(yīng)用不可或缺的一環(huán)。 本文旨在探討深度學(xué)習(xí)工作負載中GPU與LPU的主要差異,并深入分析它們的架構(gòu)、
2024-12-09 11:01:18
4023 
在快速發(fā)展的網(wǎng)絡(luò)世界中,在技術(shù)領(lǐng)域保持領(lǐng)先意味著可以提供性能更好的產(chǎn)品。800G光模塊的先進工藝的批量生產(chǎn),為AI超算中心和電信網(wǎng)絡(luò)服務(wù)供應(yīng)商提供了無與倫比的技術(shù)支持。
2024-12-23 14:45:18
1124 隨著AI大模型訓(xùn)練和推理對計算能力的需求呈指數(shù)級增長,AI數(shù)據(jù)中心的網(wǎng)絡(luò)帶寬需求大幅提升,推動了高速光模塊的發(fā)展。光模塊作為數(shù)據(jù)中心和高性能計算系統(tǒng)中的關(guān)鍵器件,主要用于提供高速和大容量的數(shù)據(jù)傳輸服務(wù)。
2025-02-05 14:45:00
1445 
隨著AI技術(shù)的不斷進步和應(yīng)用場景的擴大,數(shù)據(jù)中心之間的數(shù)據(jù)傳輸需求也在急劇增加。光收發(fā)模塊作為數(shù)據(jù)中心互連的關(guān)鍵組件,其需求量也隨之激增。有科技公司指出未來AI服務(wù)器之間的數(shù)據(jù)傳輸將依賴于大量的高速
2025-02-19 16:23:03
914 
AI算力需求激增推動光模塊技術(shù)迭代加速,800G光模塊2024年出貨突破900萬只,1.6T產(chǎn)品預(yù)計2025年商用??刹灏渭夹g(shù)仍主導(dǎo)市場,CPO方案受制工藝成熟度。中國廠商實現(xiàn)8*50G方案量產(chǎn)
2025-05-26 16:50:53
1232 
CPO(共封裝光學(xué))的技術(shù)躍遷,光模塊不僅是數(shù)據(jù)傳輸?shù)摹案咚俟贰?,更?b class="flag-6" style="color: red">AI大模型訓(xùn)練與推理的“輸血管道”。本文將深度解析AI時代下光模塊產(chǎn)業(yè)的技術(shù)演進、市場需求與競爭格局,展望其未來發(fā)展圖景。
2025-06-25 16:04:02
1095 模塊憑借其革命性優(yōu)勢成為新一代網(wǎng)絡(luò)基礎(chǔ)設(shè)施的關(guān)鍵: 帶寬革命 :單端口400Gbps速率滿足AI集群高密度互聯(lián)需求 能效突破 :相比100G方案,每比特傳輸功耗降低50%以上 經(jīng)濟優(yōu)勢 :單位帶寬成本下降60%,加速投資回報周期 行業(yè)數(shù)據(jù)顯示,400G模塊已占據(jù)數(shù)據(jù)中
2025-08-18 13:52:25
887 AI 光模塊領(lǐng)域的技術(shù)引領(lǐng)者,深圳市睿海光電科技有限公司(下稱 “睿海光電”)通過持續(xù)的技術(shù)突破、高效的交付體系與深度的生態(tài)協(xié)同,正為全球客戶打造下一代光互聯(lián)解決方案,加速算力網(wǎng)絡(luò)與人工智能的融合創(chuàng)新。 一、技術(shù)內(nèi)核與應(yīng)用價值:400G QSFP-DD SR4 的突
2025-08-19 10:07:47
766 200G QSFP56 光模塊:睿海光電引領(lǐng) AI 時代光互連技術(shù)革新 在全球超算中心算力密度提升、智算集群規(guī)模擴張與 AI 大模型訓(xùn)練需求爆發(fā)的多重驅(qū)動下,數(shù)據(jù)中心的帶寬需求正以每年 30
2025-08-19 15:05:25
816 在AI技術(shù)飛速迭代與數(shù)據(jù)中心算力需求激增的背景下,400G QSFP-DD光模塊憑借小型化封裝設(shè)計與高密度傳輸能力,已成為下一代數(shù)據(jù)中心網(wǎng)絡(luò)的核心支撐部件。深圳市睿海光電科技有限公司(簡稱“睿海光電
2025-08-19 16:38:51
687
評論