chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

解決算力需求的主流方法?數(shù)據(jù)流架構讓AI芯片利用率提升10倍以上

Carol Li ? 來源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2021-11-26 07:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/李彎彎)現(xiàn)在各種應用場景對算力的需求越來越大,為了滿足需求,各廠商不斷提升AI芯片的峰值算力,而傳統(tǒng)指令集架構的芯片利用率卻難以提升,大多數(shù)在10-40%,這讓芯片的實測性能大打折扣,那么如何突破呢?

與指令集架構不同,數(shù)據(jù)流架構的顯著特點就是依托數(shù)據(jù)流的流動次序控制計算執(zhí)行次序,而非指令執(zhí)行次序,因此把它用在AI上可以讓芯片利用率大幅提升,芯片利用率直至逼近100%。

數(shù)據(jù)流架構如何提升芯片利用率

目前市場上的芯片主要有兩種架構形式:一種是大家熟知的指令集架構,主要包括X86架構、ARM架構、精簡指令集運算RISC-V開源架構,以及SIMD架構;另外一種就是數(shù)據(jù)流架構。

指令集架構采用馮諾依曼計算方式,通過指令執(zhí)行次序控制計算順序,并通過分離數(shù)據(jù)搬運與數(shù)據(jù)計算提供計算通用性。數(shù)據(jù)流架構采用數(shù)據(jù)流引擎計算,它允許編譯器同時調度多個順序循環(huán)和功能,具有更高的吞吐量和更低的延遲,顯著特點是能夠大幅提升芯片利用率。

如下圖左側,指令集架構首先執(zhí)行函數(shù)A,完成之后再執(zhí)行函數(shù)B,依次類推直至執(zhí)行完所有程序。下圖右側,在數(shù)據(jù)流架構的情形下,編譯器可以安排每個函數(shù)在數(shù)據(jù)可用時立即執(zhí)行,這樣可以大大縮短等待和間隔的時間。

雖然數(shù)據(jù)流架構沒有指令集架構那么廣為人知,然而不可忽視的是,目前數(shù)據(jù)流架構已經(jīng)在專用硬件中成功應用,比如數(shù)字信號處理、網(wǎng)絡路由、圖形處理、遙感檢測、以及數(shù)據(jù)庫處理等,在許多軟件體系結構中,包括數(shù)據(jù)庫引擎設計和并行計算框架,它也占據(jù)重要地位。

1994年,帝國理工學院教授、英國皇家工程院院士、鯤云科技聯(lián)合創(chuàng)始人和首席科學家Wayne Luk陸永青院士率先將數(shù)據(jù)流架構定制化并運用到AI領域。如今國內外對數(shù)據(jù)流技術的關注日益增多,包括國外的SambaNova、Groq、Wave computing,以及國內的鯤云科技。鯤云科技已經(jīng)于去年量產(chǎn)了全球首款數(shù)據(jù)流AI芯片CAISA,脫胎于斯坦福大學的SambaNova,產(chǎn)品處于小規(guī)模試用階段,而前谷歌TPU核心團隊創(chuàng)辦的Groq,現(xiàn)在還未推出產(chǎn)品。

數(shù)據(jù)流架構如何提升芯片利用率?我們通過全球唯一量產(chǎn)數(shù)據(jù)流AI芯片的公司鯤云科技來看一下,鯤云的核心技術就是他們的定制數(shù)據(jù)流CAISA架構,這是一款為深度學習神經(jīng)網(wǎng)絡定制的高性能AI計算架構。CAISA架構通過數(shù)據(jù)流流動次序來控制計算順序,消除指令操作導致的額外時間開銷,讓CNN網(wǎng)絡的算子級數(shù)據(jù)流圖可以實現(xiàn)高效流水線運算。同時CAISA可并行執(zhí)行數(shù)據(jù)訪問和數(shù)據(jù)計算,進一步減少計算單元的空閑時間,最大化地利用芯片的計算資源,從而提供更高的實測算力。

圖片來自鯤云科技官網(wǎng)


鯤云科技合伙人、首席運營官王少軍博士在接受電子發(fā)燒友網(wǎng)采訪時表示,之所以投身于定制數(shù)據(jù)流架構芯片的研發(fā),首先是鯤云科技有數(shù)據(jù)流架構技術研發(fā)基礎,公司創(chuàng)始團隊來自數(shù)據(jù)流技術的源頭實驗室,該實驗室是全球三大定制計算實驗室之一,從90年代開始就深耕數(shù)據(jù)流架構與不同領域的領域專用架構研發(fā),具備深厚的研發(fā)和迭代積累。

其次更為重要的是底層芯片技術存在算力瓶頸,隨著摩爾定律發(fā)展,依靠摩爾定律提升芯片性能的成本越來越高,比如一款5nm芯片的研發(fā)成本就高達數(shù)億美元,針對特定領域實現(xiàn)領域專用架構的性能獲益會越來越高,直到大幅領先通用計算芯片,鯤云科技認為在算力猛增的時代,行業(yè)需要一顆高算力性價比的人工智能專用芯片,數(shù)據(jù)流架構的重大意義在于它突破了傳統(tǒng)芯片架構對芯片利用率的約束,最大化發(fā)揮芯片本身的峰值性能。

因此鯤云科技在早期數(shù)據(jù)流架構技術的積累下,針對人工智能領域開發(fā)出CAISA架構,并最終實現(xiàn)從0到1完成首顆數(shù)據(jù)流AI芯片量產(chǎn)。

鯤云CAISA芯片利用率高達95.4%

鯤云科技于去年6月正式量產(chǎn)了全球首款數(shù)據(jù)流AI芯片CAISA,芯片利用率達到95.4%,面向數(shù)據(jù)中心和邊緣端AI推斷應用,該芯片采用28nm工藝,這個制程并不高,不過因為芯片利用率高,即使在比較低的制程情況下,CAISA芯片也可以帶來很高的實測性能。

同時鯤云科技還基于CAISA芯片推出三款高性能計算平臺,包括面向邊緣端的星空X3加速卡、面向數(shù)據(jù)中心的星空X9加速卡、面向邊緣AI應用的星空X6A邊緣小站。星空X3加速卡面向8-16路視頻實時結構化分析,星空X6A邊緣小站面向8路視頻處理應用。

目前CAISA芯片及加速卡產(chǎn)品已在多領域實現(xiàn)應用,包括智慧安監(jiān)、智能制造、智慧電力、智慧城市等。王少軍博士認為,對于這些場景,特別是國民生產(chǎn)支柱行業(yè)而言,“降本增效”是剛需,比如在油田的應用場景,傳統(tǒng)的安防監(jiān)控系統(tǒng)已經(jīng)比較成熟,端側的攝像頭監(jiān)控系統(tǒng)基本部署完成,但視頻結構化利用率低,單純依靠人工巡檢,作業(yè)區(qū)域廣,環(huán)境復雜,耗時長,數(shù)據(jù)采集維度單一,人工識別難度大,而且預警不及時,漏報概率高,事后取證難。

針對這些行業(yè)痛點,鯤云科技提供算法算力平臺一體化方案,基于數(shù)據(jù)流AI芯片的底層算力優(yōu)勢,以及算力和算法聯(lián)合優(yōu)化的技術優(yōu)勢,對現(xiàn)場接入的500路視頻進行數(shù)據(jù)處理,對漏油、安全帽、工服、抽煙、打電話、人員闖入和采油設備運行狀態(tài)進行識別,可以做到從視頻流獲取到輸出報警時間為1s,為油區(qū)的生產(chǎn)情況提供更可靠的安全保障。在油田智能化升級過程中,數(shù)據(jù)流AI芯片就凸顯出了其市場價值,可以充分利舊、快速部署、控制成本。

未來解決算力需求的主流方法

數(shù)據(jù)流AI芯片的商用落地,證實了數(shù)據(jù)流和深度學習融合的價值,王少軍博士認為數(shù)據(jù)流架構具備成為下一代計算平臺的潛力。他談到,在計算平臺的演進過程中,十倍核心性能指標的提升,是計算架構代際更替的主要指標,比如,從X86到RISC計算平臺,能效比提升了10倍以上;從X86到CUDA計算平臺,峰值算力也提升了超過10倍。

從歷史脈絡來看,相對上一代主流算力平臺,新的算力平臺在某個指標上需要高出10倍,才能實現(xiàn)實測性能的大幅提升,隨著摩爾定律的放緩,業(yè)界越來越關注下一代芯片應該如何發(fā)展,而底層架構創(chuàng)新是這幾年業(yè)界的共識,行業(yè)需要新的技術路線來實現(xiàn)底層算力的突破。

王少軍博士認為,下一代有望帶來10倍以上突破的指標就是芯片利用率,這可能是未來解決算力需求的主流方法,而數(shù)據(jù)流架構可以實現(xiàn)這一點,鯤云科技認為未來會有更多新興AI芯片廠商加入到數(shù)據(jù)流AI技術路線中。對于現(xiàn)有芯片廠商來說,技術路線的選擇是公司的一大核心戰(zhàn)略,而其已有的開發(fā)生態(tài)和技術積累使其很難轉換賽道,但有些玩家也看到了數(shù)據(jù)流技術的價值,比如英偉達就推出了TensorCore,在指令集架構的基礎上,該模塊采用了數(shù)據(jù)流技術的原理,來提升其在特定領域的芯片利用效率。

總結

整體來說,數(shù)據(jù)流架構可以大幅提升芯片利用率,鯤云定制數(shù)據(jù)流CAISA新芯片的量產(chǎn)商用,也證實了數(shù)據(jù)流與深度學習融合的價值,給AI帶來了一個新的技術研究方向,相信未來會有更多AI芯片廠商加入到數(shù)據(jù)流架構技術的研究中。

現(xiàn)在AI芯片在很多場景都有落地剛需,尤其在邊緣端,很多場景還存在“碎片化”需求,因此廠商除了考慮提升芯片利用率,做到更高算力性價比之外,還需要思考如何提升更通用、軟件易用性等,全面提升芯片性能,促進專用AI芯片規(guī)模化量產(chǎn),賦能各產(chǎn)業(yè)智能化升級。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 鯤云科技
    +關注

    關注

    0

    文章

    56

    瀏覽量

    4308
  • 算力
    +關注

    關注

    2

    文章

    1327

    瀏覽量

    16418
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    建立的基礎: ①算支柱②數(shù)據(jù)支柱③計算支柱 1)算AI有關的因素: ①晶體管數(shù)量②晶體管速度③
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學習AI芯片的創(chuàng)新方法架構

    的同時,能夠利用更小、更快的數(shù)字格式,提升模型的整體性能。 1.3Transformer 模型中的矩陣乘法計算 2、存內計算AI芯片 存內計算已經(jīng)成為應對大模型不斷增加的計算量和能耗
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+內容總覽

    是展望未來的AGI芯片,并探討相關的發(fā)展和倫理話題。 各章的目錄名稱如下: 第1章 大模型浪潮下,AI芯片需求與挑戰(zhàn)免費 第2章 實現(xiàn)深度學習AI
    發(fā)表于 09-05 15:10

    從 “被動維修” 到 “主動管理”:這套系統(tǒng)設備利用率提升 30%

    從 “被動維修” 到 “主動管理”,是設備管理模式的轉變,更是數(shù)字化轉型的關鍵一步。在激烈的市場競爭中,能讓設備穩(wěn)定高效運行的企業(yè),才能在效率與成本上占據(jù)優(yōu)勢。這套提升設備利用率 30% 的系統(tǒng),為企業(yè)高質量發(fā)展提供了有效路徑。
    的頭像 發(fā)表于 09-04 10:04 ?389次閱讀
    從 “被動維修” 到 “主動管理”:這套系統(tǒng)<b class='flag-5'>讓</b>設備<b class='flag-5'>利用率</b><b class='flag-5'>提升</b> 30%

    AI 芯片浪潮下,職場晉升新契機?

    、新架構不斷涌現(xiàn)。能夠在工作中提出創(chuàng)新性的解決方案,推動 AI 芯片性能、功耗、成本等關鍵指標的優(yōu)化,將極大提升在職稱評審中的競爭。例如,
    發(fā)表于 08-19 08:58

    睿海光電800G光模塊助力全球AI基建升級

    單通道100Gbps速率下的信號同步性。 搭配24芯/16芯MPO連接器,兼容主流數(shù)據(jù)中心布線標準,插入損耗低于0.5dB,滿足10km以下短距高效互連需求。 硅光(SiPh)集成方案
    發(fā)表于 08-13 19:05

    拼版怎么拼好,板廠經(jīng)常說利用率太低,多收費用?

    做板的時候,板廠經(jīng)常說我拼版利用率太低,要多收取費用,哪位大神知道怎么算利用率
    發(fā)表于 05-14 13:42

    mes工廠管理系統(tǒng):如何設備利用率提升50%?

    在制造業(yè)競爭日益激烈的今天,設備利用率直接決定了企業(yè)的盈利能力。許多工廠管理者都在思考同一個問題:如何在不增加設備投資的情況下,現(xiàn)有產(chǎn)能發(fā)揮出最大價值?MES工廠管理系統(tǒng)正是解決這一難題的金鑰匙
    的頭像 發(fā)表于 05-09 15:55 ?377次閱讀
    mes工廠管理系統(tǒng):如何<b class='flag-5'>讓</b>設備<b class='flag-5'>利用率</b><b class='flag-5'>提升</b>50%?

    DeepSeek MoE架構下的網(wǎng)絡負載如何優(yōu)化?解鎖90%網(wǎng)絡利用率的關鍵策略

    、All-to-All等),網(wǎng)絡面臨高并發(fā)、低延遲、無損傳輸?shù)膰揽?b class='flag-5'>需求。然而,傳統(tǒng)以太網(wǎng)的網(wǎng)絡利用率長期徘徊在35%~40%,成為制約AI釋放的關鍵瓶頸。
    的頭像 發(fā)表于 04-28 12:04 ?617次閱讀
    DeepSeek MoE<b class='flag-5'>架構</b>下的網(wǎng)絡負載如何優(yōu)化?解鎖90%網(wǎng)絡<b class='flag-5'>利用率</b>的關鍵策略

    首創(chuàng)開源架構,天璣AI開發(fā)套件端側AI模型接入得心應手

    猛增50,將訓練時間從一整天縮短至半小時。更快的端側LoRA訓練,端側AI基于用戶端側數(shù)據(jù)提升個性化體驗,
    發(fā)表于 04-13 19:52

    DeepSeek推動AI需求:800G光模塊的關鍵作用

    數(shù)據(jù)傳輸速率,減少帶寬瓶頸,成為數(shù)據(jù)中心和AI集群架構優(yōu)化的重點。光模塊速率的躍升不僅提升了傳輸效率,也為大規(guī)模并行計算任務提供了必要的帶寬
    發(fā)表于 03-25 12:00

    DeepSeek驅動AI市場升溫,智算中心利用率提升

    據(jù)多位業(yè)內人士透露,DeepSeek在業(yè)界的迅速部署與應用,為AI市場帶來了新的熱潮。自年后開工兩周以來,算設備租賃及采購的咨詢量顯著增長,市場需求主要聚焦于英偉達產(chǎn)品,尤其是其
    的頭像 發(fā)表于 02-19 14:00 ?621次閱讀

    《算芯片 高性能 CPUGPUNPU 微架構分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    數(shù)據(jù)挖掘工作中,我經(jīng)常需要處理海量數(shù)據(jù)的深度學習任務,這我對GPU架構和張量運算充滿好奇。閱讀《算
    發(fā)表于 11-24 17:12

    理解ECU數(shù)據(jù)流的分析方法

    分析ECU數(shù)據(jù)流,技術人員可以快速定位故障源頭,減少維修時間和成本。 性能優(yōu)化 :通過監(jiān)控ECU數(shù)據(jù),可以對車輛性能進行調整,以適應不同的駕駛條件和駕駛者需求。 安全監(jiān)控 :實時監(jiān)控ECU數(shù)據(jù)
    的頭像 發(fā)表于 11-05 11:07 ?1630次閱讀

    交換機內存利用率過高會是什么問題

    在現(xiàn)代網(wǎng)絡架構中,交換機扮演著至關重要的角色,負責在網(wǎng)絡設備之間高效地轉發(fā)數(shù)據(jù)包。然而,隨著網(wǎng)絡規(guī)模的擴大和數(shù)據(jù)流量的增加,交換機的內存資源可能會變得緊張,導致內存利用率過高。這種情況
    的頭像 發(fā)表于 10-18 09:53 ?2843次閱讀