chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Transformer的出現(xiàn)讓專用AI芯片變得岌岌可危

佐思汽車研究 ? 來源:佐思汽車研究 ? 作者:佐思汽車研究 ? 2022-08-10 14:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文將分析CNN,還有近期比較火的SwinTransformer以及存內(nèi)計(jì)算對AI芯片發(fā)展趨勢的影響,Transformer的出現(xiàn)讓專用AI芯片變得岌岌可危,命懸一線。 所謂AI芯片算力一般指INT8精度下每秒運(yùn)作次數(shù),INT8位即整數(shù)8比特精度。AI芯片嚴(yán)格地說應(yīng)該叫AI加速器,只是加速深度神經(jīng)網(wǎng)絡(luò)推理階段的加速,主要就是卷積的加速。一般用于視覺目標(biāo)識(shí)別分類,輔助駕駛或無人駕駛還有很多種運(yùn)算類型,需要用到多種運(yùn)算資源,標(biāo)量整數(shù)運(yùn)算通常由CPU完成,矢量浮點(diǎn)運(yùn)算通常由GPU完成,標(biāo)量、矢量運(yùn)算算力和AI算力同樣重要,三者是平起平坐的。AI算力遠(yuǎn)不能和燃油車的馬力對標(biāo),兩者相差甚遠(yuǎn)。 AI芯片的關(guān)鍵參數(shù)除了算力,還有芯片利用率或者叫模型利用率。AI芯片的算力只是峰值理論算力,實(shí)際算力與峰值算力之比就是芯片利用率。

baa4c488-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

上表為英偉達(dá)旗艦人工智能加速器T4的芯片利用率,芯片的利用率很低,大部分情況下93%的算力都是閑置的,這好比一條生產(chǎn)線,93%的工人都無所事事,但工資還是要付的。實(shí)際上芯片利用率超過50%就是非常優(yōu)秀,利用率低于10%是很常見的,極端情況只有1%,也就是說即使你用了4片英偉達(dá)頂級Orin,算力高達(dá)1000TOPS,實(shí)際算力可能只有10TOPS。 這也就是AI芯片主要的工作不是AI芯片本身,而是與之配套的軟件優(yōu)化,當(dāng)然也可以反過來,為自己的算法模型定制一塊AI芯片,如特斯拉。但應(yīng)用面越窄,出貨量就越低,攤在每顆芯片上的成本就越高,這反過來推高芯片價(jià)格,高價(jià)格進(jìn)一步縮窄了市場,因此獨(dú)立的AI芯片必須考慮盡可能適配多種算法模型。 這需要幾方面的工作:

首先主流的神經(jīng)網(wǎng)絡(luò)模型自然要支持;

其次是壓縮模型的規(guī)模并優(yōu)化,將浮點(diǎn)轉(zhuǎn)換為定點(diǎn);

最后是提供編碼器Compiler,將模型映射為二進(jìn)制指令序列。

早期的AI運(yùn)算完全依賴GPU,以致于早期的神經(jīng)網(wǎng)絡(luò)框架如Caffee、TensorFlow、mxnet都必須考慮在GPU上優(yōu)化,簡單地說就是都得適應(yīng)GPU的編碼器CUDA,這也是英偉達(dá)為何如此強(qiáng)的原因,它無需優(yōu)化,因?yàn)樵缙诘纳窠?jīng)網(wǎng)絡(luò)就是為GPU訂做的。CUDA為英偉達(dá)筑起了高高的城墻,你要做AI運(yùn)算,不兼容CUDA是不可能的,所有的程序員都已經(jīng)用習(xí)慣了CUDA。但要兼容CUDA,CUDA的核心是不開源的,無論你如何優(yōu)化,都不如英偉達(dá)的原生CUDA更優(yōu)。車載領(lǐng)域好一點(diǎn),可以效仿特斯拉。 卷積運(yùn)算就是乘積累加,Cn=A×B+Cn-1,A是輸入矩陣,簡單理解就是一副圖像,用像素?cái)?shù)字矩陣來表示一副圖像,B是權(quán)重模型,就是深度學(xué)習(xí)搜集訓(xùn)練數(shù)據(jù),經(jīng)過幾千萬人民幣的數(shù)據(jù)中心訓(xùn)練出的算法模型,也可以看做是一種特殊的濾波器,右邊的C是上一次乘積的結(jié)果。左邊的C就是本次計(jì)算的輸出結(jié)果。卷積運(yùn)算后經(jīng)過全連接層輸出,畫出Bounding Box并識(shí)別。用代碼表示如下。

bab84774-1851-11ed-ba43-dac502259ad0.png

bae43000-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

這些計(jì)算中有大量相同的數(shù)據(jù)存取,如下表。

baf88302-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

每一次運(yùn)算都需要頻繁讀取內(nèi)存,很多是重復(fù)讀取,這非常耗費(fèi)時(shí)間和功率,顯然是一種浪費(fèi),AI芯片的核心工作就是提高數(shù)據(jù)的復(fù)用率。 AI芯片分為兩大流派,一是分塊矩陣的One Shot流派,也有稱之為GEMM通用矩陣乘法加速器,典型代表是英偉達(dá)、華為。二是如脈動(dòng)陣列的數(shù)據(jù)流流派,典型代表是谷歌、特斯拉。還有些非主流的主要用于FPGA的Spatial,F(xiàn)FT快速傅里葉變換。

華為AI芯片電路邏輯

bb105c66-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

以華為為例,其將矩陣A按行存放在輸入緩沖區(qū)中,同時(shí)將矩陣B按列存放在輸入緩沖區(qū)中,通過矩陣計(jì)算單元計(jì)算后得到的結(jié)果矩陣C按行存放在輸出緩沖區(qū)中。在矩陣相乘運(yùn)算中,矩陣C的第一元素由矩陣A的第一行的16個(gè)元素和矩陣B的第一列的16個(gè)元素由矩陣計(jì)算單元子電路進(jìn)行16次乘法和15次加法運(yùn)算得出。矩陣計(jì)算單元中共有256個(gè)矩陣計(jì)算子電路,可以由一條指令并行完成矩陣C的256個(gè)元素計(jì)算。 由于矩陣計(jì)算單元的容量有限,往往不能一次存放下整個(gè)矩陣,所以也需要對矩陣進(jìn)行分塊并采用分步計(jì)算的方式。將矩陣A和矩陣B都等分成同樣大小的塊,每一塊都可以是一個(gè)16×16的子矩陣,排不滿的地方可以通過補(bǔ)零實(shí)現(xiàn)。首先求C1結(jié)果子矩陣,需要分兩步計(jì)算:第一步將A1和B1搬移到矩陣計(jì)算單元中,并算出A1×B1的中間結(jié)果;第二步將A2和B2搬移到矩陣計(jì)算單元中,再次計(jì)算A2×B2 ,并把計(jì)算結(jié)果累加到上一次A1×B1的中間結(jié)果,這樣才完成結(jié)果子矩陣C1的計(jì)算,之后將C1寫入輸出緩沖區(qū)。由于輸出緩沖區(qū)容量也有限,所以需要盡快將C1子矩陣寫入內(nèi)存中,便于留出空間接收下一個(gè)結(jié)果子矩陣C2。 分塊矩陣的好處是只計(jì)算了微內(nèi)核,速度很快,比較靈活,編譯器好設(shè)計(jì),增加算力也很簡單,只要增加MAC的數(shù)量即可。成本低,消耗的SRAM容量小。

bb22093e-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

上圖為一個(gè)典型的脈動(dòng)陣列,右側(cè)是一個(gè)乘加單元即PE單元的內(nèi)部結(jié)構(gòu),其內(nèi)部有一個(gè)寄存器,在TPU內(nèi)對應(yīng)存儲(chǔ)Weight,此處存儲(chǔ)矩陣B。左圖是一個(gè)4×4的乘加陣列,假設(shè)矩陣B已經(jīng)被加載到乘加陣列內(nèi)部;顯然,乘加陣列中每一列計(jì)算四個(gè)數(shù)的乘法并將其加在一起,即得到矩陣乘法的一個(gè)輸出結(jié)果。依次輸入矩陣A的四行,可以得到矩陣乘法的結(jié)果。PE單元在特斯拉FSD中就是96*96個(gè)PE單元。

bb38cb06-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

不過最后還要添加累加器,需要多個(gè)SRAM加入。 脈動(dòng)式優(yōu)點(diǎn)是流水線式,不依賴一次一次的指令,一次指令即可啟動(dòng)。吞吐量很高。算力做到1000TOPS易如反掌,單PE占硅片面積小。但是其編譯器難度高,靈活度低,要做到高算力,需要大量SRAM,這反過來推高成本。 在實(shí)際應(yīng)用當(dāng)中,情況會(huì)比較復(fù)雜,完整的深度學(xué)習(xí)模型都太大,而內(nèi)存是很耗費(fèi)成本的,因此,模型都必須要壓縮和優(yōu)化,常見的壓縮有兩種,一種是Depthwise Convolution,還包括了Depthwise Separable Convolution。另一種是Pointwise Convolution。Depthwise層,只改變feature map的大小,不改變通道數(shù)。而Pointwise層則相反,只改變通道數(shù),不改變大小。這樣將常規(guī)卷積的做法(改變大小和通道數(shù))拆分成兩步走。

bb6131b8-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

常規(guī)卷積,4組(3,3,3)的卷積核進(jìn)行卷積,等于108。

bb749992-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

Depthwise卷積,分成了兩步走,第一步是3*3*3,第二步是1*1*3*4,合計(jì)是39,壓縮了很多。 谷歌TPU v1的算力計(jì)算是700MHz*256*256*2=92Top/s@int8,之所以乘2是因?yàn)檫€有個(gè)加法累積。高通AI100的最大算力計(jì)算是16*8192*2*1600MHz=419Top/s@int8,高通是16核,每個(gè)核心是8192個(gè)陣列,最高運(yùn)行頻率1.6GHz,最低估計(jì)是500MHz。

性能最大化對應(yīng)的模型要求

bb9dcd30-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

對谷歌TPU v1來說,其最優(yōu)性能是輸入為256,而不少Depthwise是3*3,其利用率為9/256,即3.5%。對高通AI100來說,如果算法模型輸入通道是256,那么效率會(huì)降低至16/256,即6.3%。顯然對于精簡算法模型,TPU非常不適合。對于精簡模型來說,高通AI100非常不適合。 以上這些都是針對CNN的,目前圖像領(lǐng)域的AI芯片也都是針對CNN的。近期大火的Swin Transformer則與之不同。2021年由微軟亞洲研究院開源的SwinTransformer的橫掃計(jì)算機(jī)視覺,從圖像分類的ViT,到目標(biāo)檢測的DETR,再到圖像分割的SETR以及3D人體姿態(tài)的METRO,大有壓倒CNN的態(tài)勢。但其原生Self-Attention的計(jì)算復(fù)雜度問題一直沒有得到解決,Self-Attention需要對輸入的所有N個(gè)token計(jì)算N的二次方大小的相互關(guān)系矩陣,考慮到視覺信息本來就是二維(圖像)甚至三維(視頻),分辨率稍微高一點(diǎn)就會(huì)暴增運(yùn)算量,目前所有視覺類AI芯片都完全無法勝任。

Swin Transformer的模型結(jié)構(gòu)

bbc96850-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

從圖上就能看出其采用了4*4卷積矩陣,而CNN是3*3,這就意味著目前的AI芯片有至少33%的效率下降。再者就是其是矢量與矩陣的乘法,這會(huì)帶來一定的浮點(diǎn)矢量運(yùn)算。 假設(shè)高和寬都為112,窗口大小為7,C為128,那么未優(yōu)化的浮點(diǎn)計(jì)算是4*112*112*128*128+2*112*112*112*112*128=41GFLOP/s。大部分AI芯片如特斯拉的FSD和谷歌的TPU,未考慮這種浮點(diǎn)運(yùn)算。不過華為和高通都考慮到了,英偉達(dá)就更不用說了,GPU天生就是針對浮點(diǎn)運(yùn)算的。看起來41GFLOP/s不高,但如果沒有專用浮點(diǎn)運(yùn)算處理器,效率也會(huì)急速下降。

bbf9153c-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

與CNN不同,Swin Transformer的數(shù)據(jù)選擇與布置占了29%的時(shí)間,矩陣乘法占了71%,而CNN中,矩陣乘法至少占95%。

bc1c4106-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

針對Swin Transformer的AI芯片最好將區(qū)塊模型與數(shù)據(jù)流模型分開,指令集與數(shù)據(jù)集當(dāng)然也最好分開。

bc456d38-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

針對Swin Transformer,理論上最好的選擇是存內(nèi)計(jì)算也叫存算一體,上圖是存內(nèi)計(jì)算架構(gòu)與傳統(tǒng)AI芯片的馮諾依曼架構(gòu)的功耗對比,存內(nèi)計(jì)算架構(gòu)在同樣算力的情況下,只有馮諾依曼架構(gòu)1/6的功耗。

馮諾依曼架構(gòu)與存內(nèi)計(jì)算架構(gòu)對比

bc752618-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

典型的存內(nèi)計(jì)算架構(gòu)芯片

bc8ab9ce-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

不過目前存內(nèi)計(jì)算離實(shí)用距離還非常遙遠(yuǎn):

第一,內(nèi)存行業(yè)由三星、美光和SK Hynix三家占了90%的市場,行業(yè)門檻極高,這三家極力保持內(nèi)存價(jià)格穩(wěn)定。

第二,目前AI模型都是越來越大,用存內(nèi)計(jì)算存儲(chǔ)大容量AI模型成本極高。三星的存內(nèi)計(jì)算芯片測試用的是二十年前的MNIST手寫字符識(shí)別,這種AI模型是kb級別的。而自動(dòng)駕駛用的至少也是10MB以上。

第三,精度很低,當(dāng)前存內(nèi)計(jì)算研究的一個(gè)重點(diǎn)方法是使用電阻式RAM(ReRAM)實(shí)現(xiàn)位線電流檢測。由于電壓范圍,噪聲和PVT的變化,模擬位線電流檢測和ADC的精度受到限制,即使精度低到1比特也難以實(shí)現(xiàn),而輔助駕駛目前是8比特。

第四,電阻式RAM可靠性不高。經(jīng)常更新權(quán)重模型,可能導(dǎo)致故障。

最后,存內(nèi)計(jì)算的工具鏈基本為零。最樂觀的估計(jì),存內(nèi)計(jì)算實(shí)用化也要5年以上,且是用在很小規(guī)模計(jì)算,如AIoT領(lǐng)域,自動(dòng)駕駛領(lǐng)域十年內(nèi)都不可能見到存內(nèi)計(jì)算。即使存內(nèi)計(jì)算實(shí)用化,恐怕也是內(nèi)存三巨頭最有優(yōu)勢。

Transformer的出現(xiàn)讓專用AI芯片變得非常危險(xiǎn),難保未來不出現(xiàn)別的技術(shù),而適用面很窄的AI專用芯片會(huì)完全喪失市場,通用性比較強(qiáng)的CPU或GPU還是永葆青春,至于算力,與算法模型高度捆綁,但捆綁太緊,市場肯定很小,且生命周期可能很短。 聲明:本文僅代表作者個(gè)人觀點(diǎn)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4820

    瀏覽量

    106346
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2035

    瀏覽量

    36448
  • 算力
    +關(guān)注

    關(guān)注

    2

    文章

    1336

    瀏覽量

    16491

原文標(biāo)題:Transformer挑戰(zhàn)CNN,AI芯片需要改變

文章出處:【微信號(hào):zuosiqiche,微信公眾號(hào):佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片到AGI芯片

    解決人類智能無法解決的復(fù)雜問題。實(shí)現(xiàn)AGI的AI相關(guān)研究機(jī)構(gòu)和企業(yè)的主要目標(biāo)。 一、生成式AI點(diǎn)燃AGI之火 CHatGPT就是已經(jīng)取得成功的生成式AI技術(shù)。很多人都充滿了信心,相信不久的將來就會(huì)
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    連接定義了神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)。 不同神經(jīng)網(wǎng)絡(luò)的DNN: 一、基于大模型的AI芯片 1、Transformer 模型與引擎 1.1 Transformer 模型概述
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    Transformer引擎③NVLink Switch系統(tǒng)④機(jī)密計(jì)算⑤HBM FPGA: 架構(gòu)的主要特點(diǎn):重構(gòu)邏輯和路由,可以快速實(shí)現(xiàn)各種不同形式的神經(jīng)網(wǎng)絡(luò)加速。 ASIC: 介紹了幾種ASIC AI
    發(fā)表于 09-12 16:07

    中國芯片急起直追,韓國優(yōu)勢岌岌可危

    曾在半導(dǎo)體技術(shù)上享有絕對優(yōu)勢的韓國,正面臨中國半導(dǎo)體產(chǎn)業(yè)的快速追趕。韓國「每日經(jīng)濟(jì)新聞」報(bào)導(dǎo)指出,在半導(dǎo)體制造設(shè)備領(lǐng)域,中國第一大設(shè)備制造商北方華創(chuàng)今年上半年?duì)I業(yè)利潤已達(dá)韓國同業(yè)龍頭Semes的8倍,顯示中國企業(yè)正以驚人速度發(fā)展。報(bào)導(dǎo)指出,北方華創(chuàng)今年上半年銷售額達(dá)3.1472萬億韓元,年增幅近30%;營業(yè)利潤為6,478億韓元,年增逾2%。相較之下,Semes上半年銷售額為1.1054萬億韓元,年減逾10%;營業(yè)利潤為821億韓元,僅小幅成長
    的頭像 發(fā)表于 09-11 18:08 ?375次閱讀

    AI 芯片浪潮下,職場晉升新契機(jī)?

    在科技飛速發(fā)展的當(dāng)下,AI 芯片已然成為眾多行業(yè)變革的核心驅(qū)動(dòng)力。從互聯(lián)網(wǎng)巨頭的數(shù)據(jù)中心,到我們?nèi)粘J褂玫闹悄苁謾C(jī)、智能家居設(shè)備,AI 芯片的身影無處不在,深刻改變著產(chǎn)品形態(tài)與服務(wù)模式
    發(fā)表于 08-19 08:58

    網(wǎng)站備份架構(gòu)深度解析

    凌晨3點(diǎn),監(jiān)控報(bào)警瘋狂響起。主數(shù)據(jù)庫磁盤故障,30萬用戶數(shù)據(jù)岌岌可危。這一刻,我才真正理解什么叫"備份是運(yùn)維工程師的生命線"。
    的頭像 發(fā)表于 07-29 16:52 ?463次閱讀

    【書籍評測活動(dòng)NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    DeepSeek,大模型應(yīng)用密集出現(xiàn)、頻繁升級,這作者意識(shí)到有必要撰寫一本新的AI芯片圖書,以緊跟時(shí)代步伐、介紹新興領(lǐng)域和最新動(dòng)向。 這就是《AI
    發(fā)表于 07-28 13:54

    里程碑!亞馬遜第 100 萬個(gè)機(jī)器人上崗!人類員工岌岌可危

    電子發(fā)燒友網(wǎng)報(bào)道(文 / 吳子鵬)亞馬遜宣布在全球部署 100 萬臺(tái)機(jī)器人,這一里程碑標(biāo)志著全球物流行業(yè)邁入智能化與自動(dòng)化的新階段。第 100 萬個(gè)機(jī)器人被送往日本東京的運(yùn)營中心,加入覆蓋全球 300 多個(gè)設(shè)施的機(jī)器人軍團(tuán)。從 2012 年收購 Kiva Systems 起步,亞馬遜用 11 年時(shí)間實(shí)現(xiàn)了機(jī)器人數(shù)量的指數(shù)級增長。 亞馬遜機(jī)器人持續(xù)進(jìn)化 2019 年,亞馬遜(Amazon)創(chuàng)始人杰夫?貝索斯(Jeff Bezos)預(yù)測,在未來十年內(nèi),機(jī)器人系統(tǒng)將先進(jìn)到足以像人手一般靈活
    的頭像 發(fā)表于 07-08 09:22 ?5528次閱讀

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學(xué)習(xí)領(lǐng)域正在經(jīng)歷一場翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語言處理(NLP)的標(biāo)準(zhǔn),而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發(fā)表于 06-10 14:24 ?725次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)概述

    蘋果正研發(fā)用于AI服務(wù)器的專用芯片

    據(jù)外媒報(bào)道,蘋果公司正研發(fā)用于AI服務(wù)器的專用芯片;據(jù)蘋果公司知情人士透露;蘋果芯片設(shè)計(jì)團(tuán)隊(duì)正在加速研發(fā)新芯片,面向的主要領(lǐng)域包括智能眼鏡
    的頭像 發(fā)表于 05-09 11:25 ?816次閱讀

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件端側(cè)AI模型接入得心應(yīng)手

    Studio提供了最優(yōu)解。Neuron Studio針對模型到應(yīng)用,提供一站式、全鏈路、自動(dòng)化的開發(fā)協(xié)助,不僅AI應(yīng)用開發(fā)的全流程可視化,更帶來整個(gè)多種工具的一站式開發(fā)能力,還支持神經(jīng)網(wǎng)絡(luò)自動(dòng)化調(diào)優(yōu)和跨
    發(fā)表于 04-13 19:52

    OpenAI計(jì)劃開發(fā)替代手機(jī)的生成式AI專用終端

    近日,據(jù)日經(jīng)報(bào)道,人工智能研究公司 OpenAI 的 CEO Sam Altman 在接受采訪時(shí)透露,OpenAI 計(jì)劃開發(fā)一款替代手機(jī)的生成式 AI 專用終端。 據(jù)了解,OpenAI 在生成式
    的頭像 發(fā)表于 02-05 14:50 ?780次閱讀

    transformer專用ASIC芯片Sohu說明

    2022年,我們打賭說transformer會(huì)統(tǒng)治世界。 我們花了兩年時(shí)間打造Sohu,這是世界上第一個(gè)用于transformer(ChatGPT中的“T”)的專用芯片。 將
    的頭像 發(fā)表于 01-06 09:13 ?1569次閱讀
    <b class='flag-5'>transformer</b><b class='flag-5'>專用</b>ASIC<b class='flag-5'>芯片</b>Sohu說明

    恒玄科技研發(fā)AI眼鏡專用芯片

    誕生于5至6年前,并非針對AI眼鏡這一新興消費(fèi)電子產(chǎn)品的特殊需求而專門設(shè)計(jì)的。因此,在性能、功耗以及適配性等方面,這些芯片可能無法完全滿足AI眼鏡的發(fā)展需求。 針對這一現(xiàn)狀,恒玄科技決定投入研發(fā)力量,打造一款真正適合
    的頭像 發(fā)表于 12-31 14:42 ?2277次閱讀

    Transformer模型的具體應(yīng)用

    如果想在 AI 領(lǐng)域引領(lǐng)一輪新浪潮,就需要使用到 Transformer。
    的頭像 發(fā)表于 11-20 09:28 ?2180次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應(yīng)用