完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>
標(biāo)簽 > transformer
文章:144個(gè) 瀏覽:6724次 帖子:3個(gè)
ConvNeXt 架構(gòu)的出現(xiàn)使傳統(tǒng)的 ConvNet 更加現(xiàn)代化,證明了純卷積模型也可以適應(yīng)模型和數(shù)據(jù)集的規(guī)模變化。然而,要想對神經(jīng)網(wǎng)絡(luò)架構(gòu)的設(shè)計(jì)空間進(jìn)...
2023-01-12 標(biāo)簽:解碼器編碼器Transformer 1.7k 0
一種顯著降低Transformer計(jì)算量的輕量化方法
然而,transformer的原始公式在輸入令牌(token)數(shù)量方面具有二次計(jì)算復(fù)雜度。鑒于這個(gè)數(shù)字通常從圖像分類的14^2到圖像去噪的128^2 =...
2023-01-10 標(biāo)簽:編碼Transformer自然語言處理 1.9k 0
谷歌新作Muse:通過掩碼生成Transformer進(jìn)行文本到圖像生成
與建立在級聯(lián)像素空間(pixel-space)擴(kuò)散模型上的 Imagen (Saharia et al., 2022) 或 Dall-E2 (Rames...
2023-01-09 標(biāo)簽:模型圖像生成Transformer 1.5k 0
既然都叫 EfficientFormerV2,那必然是在上一版的基礎(chǔ)上改進(jìn)了,如圖(a)所示。沒什么特別新奇的,一個(gè)很常規(guī)的 ViT 型架構(gòu)。下面的圖表...
2022-12-19 標(biāo)簽:計(jì)算機(jī)視覺Transformer 1.8k 0
無殘差連接或歸一化層,也能成功訓(xùn)練深度Transformer
最近,使用信號傳播原則來訓(xùn)練更深度的 DNN 并且殘差架構(gòu)中沒有殘差連接和 / 或歸一化層的參與,成為了社區(qū)感興趣的領(lǐng)域。原因有兩個(gè):首先驗(yàn)證了殘差架構(gòu)...
2022-12-12 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)Transformerdnn 1.2k 0
無殘差連接或歸一化層,也能成功訓(xùn)練深度transformer
殘差架構(gòu)是最流行和成功的,最初是在卷積神經(jīng)網(wǎng)絡(luò)(CNN)的背景下開發(fā)的,后來自注意力網(wǎng)絡(luò)中產(chǎn)生了無處不在的 transformer 架構(gòu)。殘差架構(gòu)之所以...
2022-12-12 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)Transformerdnn 1.3k 0
全球首個(gè)面向遙感任務(wù)設(shè)計(jì)的億級視覺Transformer大模型
簡單來說,為了更好地應(yīng)對遙感圖像所具有的大尺寸特性以及圖像中的目標(biāo)物體的朝向任意性,我們提出了一種新的旋轉(zhuǎn)可變尺寸窗口的注意力(Rotated Vari...
2022-12-09 標(biāo)簽:視覺數(shù)據(jù)集Transformer 1.2k 0
如何打造BEV + Transformer的技術(shù)架構(gòu)?
這個(gè)架構(gòu)的輸入,是多個(gè)相機(jī)拍攝的圖像,輸出則是自動(dòng)駕駛的一系列任務(wù),當(dāng)中包含了動(dòng)態(tài)障礙物的檢測和預(yù)測,靜態(tài)場景的理解,以及這兩個(gè)基礎(chǔ)之上的一系列下游規(guī)控任務(wù)。
2022-11-18 標(biāo)簽:嵌入式自動(dòng)駕駛Transformer 7.1k 0
深度學(xué)習(xí)與圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)分享:Transformer
在過去的幾年中,神經(jīng)網(wǎng)絡(luò)的興起與應(yīng)用成功推動(dòng)了模式識別和數(shù)據(jù)挖掘的研究。許多曾經(jīng)嚴(yán)重依賴于手工提取特征的機(jī)器學(xué)習(xí)任務(wù)(如目標(biāo)檢測、機(jī)器翻譯和語音識別),...
2022-09-22 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)Transformer 2.1k 0
首次推導(dǎo)出不同歸納偏置和模型架構(gòu)的標(biāo)度律。研究者發(fā)現(xiàn)這個(gè)標(biāo)度系數(shù)在不同的模型中有很大的不同,并指出這是模型開發(fā)中的一個(gè)重要考慮因素。事實(shí)證明,在他們考慮...
2022-09-05 標(biāo)簽:谷歌模型Transformer 1.1k 0
在以ERP格式作為輸入的前提下會(huì)有兩種劃分patch的方法:(1)直接等間距劃分patch;(2)將球面全景圖投影成重疊的perspective視口自然...
2022-08-31 標(biāo)簽:框架數(shù)據(jù)集Transformer 1.5k 0
Transformer模型結(jié)構(gòu),訓(xùn)練過程
所以我們?yōu)榇宋恼聦懥似⒔馕臋n,并給出了一行行實(shí)現(xiàn)的Transformer的代碼。本文檔刪除了原文的一些章節(jié)并進(jìn)行了重新排序,并在整個(gè)文章中加入了相應(yīng)的...
2022-06-20 標(biāo)簽:代碼Transformerpytorch 4.5k 0
如圖2所示,Transformer模型一般由輸入嵌入層、輸出層和若干結(jié)構(gòu)相同的Transformer層堆疊組成。更具體地,每層由一個(gè)多頭自注意力模塊和前...
2022-04-07 標(biāo)簽:數(shù)據(jù)集Transformer 2.2k 0
用于語言和視覺處理的高效 Transformer能在多種語言和視覺任務(wù)中帶來優(yōu)異效果
白皮書《Transformer-LS:用于語言和視覺處理的高效 Transformer》中提出了“長-短 Transformer” (Transform...
2021-12-28 標(biāo)簽:計(jì)算機(jī)視覺Transformer 2.2k 0
Transformer的復(fù)雜度和高效設(shè)計(jì)及Transformer的應(yīng)用
來自:AI部落聯(lián)盟 前言 這次我們總結(jié)一下ACL2021中的Transformers,看看2021年了,NLPer在如何使用、應(yīng)用、改進(jìn)、分析Trans...
2021-09-01 標(biāo)簽:ACLTransformernlp 7.2k 0
請求和鍵值初始為不同的權(quán)重是為了解決可能輸入句長與輸出句長不一致的問題。并且假如QK維度一致,如果不用Q,直接拿K和K點(diǎn)乘的話,你會(huì)發(fā)現(xiàn)attentio...
2021-04-15 標(biāo)簽:編碼器矩陣Transformer 7.9k 0
詳解一種簡單而有效的Transformer提升技術(shù)
近些年,Transformer[1]逐漸成為了自然語言處理中的主流結(jié)構(gòu)。為了進(jìn)一步提升Transformer的性能,一些工作通過引入額外的結(jié)構(gòu)或知識來提...
2021-04-09 標(biāo)簽:DropoutTransformer自然語言處理 7.6k 0
將線性Transformer作為快速權(quán)重系統(tǒng)進(jìn)行分析和改進(jìn)
受過去對快速權(quán)重研究的啟發(fā),研究者建議用產(chǎn)生這種行為的替代規(guī)則替換更新規(guī)則。此外,該研究還提出了一個(gè)新的核函數(shù)來線性化注意力,平衡簡單性和有效性。他們進(jìn)...
2021-03-31 標(biāo)簽:人工智能深度學(xué)習(xí)Transformer 2.4k 0
Transformer模型的多模態(tài)學(xué)習(xí)應(yīng)用
隨著Transformer在視覺中的崛起,Transformer在多模態(tài)中應(yīng)用也是合情合理的事情,甚至以后可能會(huì)有更多的類似的paper。
2021-03-25 標(biāo)簽:視覺paperTransformer 1.2萬 0
基于Transformer結(jié)構(gòu)的各類語言模型(Bert基于其encoder,Gpt-2基于其decoder)早已經(jīng)在各類NLP任務(wù)上大放異彩,面對讓人眼...
2021-03-08 標(biāo)簽:人工智能深度學(xué)習(xí)Transformer 4.8k 0
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語言教程專題
電機(jī)控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動(dòng)駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機(jī) | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機(jī) | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進(jìn)電機(jī) | SPWM | 充電樁 | IPM | 機(jī)器視覺 | 無人機(jī) | 三菱電機(jī) | ST |
伺服電機(jī) | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國民技術(shù) | Microchip |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |