完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>
標(biāo)簽 > transformer
文章:144個(gè) 瀏覽:6939次 帖子:3個(gè)
ConvNeXt 架構(gòu)的出現(xiàn)使傳統(tǒng)的 ConvNet 更加現(xiàn)代化,證明了純卷積模型也可以適應(yīng)模型和數(shù)據(jù)集的規(guī)模變化。然而,要想對(duì)神經(jīng)網(wǎng)絡(luò)架構(gòu)的設(shè)計(jì)空間進(jìn)...
2023-01-12 標(biāo)簽:解碼器編碼器Transformer 1.9k 0
一種顯著降低Transformer計(jì)算量的輕量化方法
然而,transformer的原始公式在輸入令牌(token)數(shù)量方面具有二次計(jì)算復(fù)雜度。鑒于這個(gè)數(shù)字通常從圖像分類(lèi)的14^2到圖像去噪的128^2 =...
2023-01-10 標(biāo)簽:編碼Transformer自然語(yǔ)言處理 2.2k 0
谷歌新作Muse:通過(guò)掩碼生成Transformer進(jìn)行文本到圖像生成
與建立在級(jí)聯(lián)像素空間(pixel-space)擴(kuò)散模型上的 Imagen (Saharia et al., 2022) 或 Dall-E2 (Rames...
2023-01-09 標(biāo)簽:模型圖像生成Transformer 1.7k 0
既然都叫 EfficientFormerV2,那必然是在上一版的基礎(chǔ)上改進(jìn)了,如圖(a)所示。沒(méi)什么特別新奇的,一個(gè)很常規(guī)的 ViT 型架構(gòu)。下面的圖表...
2022-12-19 標(biāo)簽:計(jì)算機(jī)視覺(jué)Transformer 2k 0
無(wú)殘差連接或歸一化層,也能成功訓(xùn)練深度Transformer
最近,使用信號(hào)傳播原則來(lái)訓(xùn)練更深度的 DNN 并且殘差架構(gòu)中沒(méi)有殘差連接和 / 或歸一化層的參與,成為了社區(qū)感興趣的領(lǐng)域。原因有兩個(gè):首先驗(yàn)證了殘差架構(gòu)...
2022-12-12 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)Transformerdnn 1.5k 0
無(wú)殘差連接或歸一化層,也能成功訓(xùn)練深度transformer
殘差架構(gòu)是最流行和成功的,最初是在卷積神經(jīng)網(wǎng)絡(luò)(CNN)的背景下開(kāi)發(fā)的,后來(lái)自注意力網(wǎng)絡(luò)中產(chǎn)生了無(wú)處不在的 transformer 架構(gòu)。殘差架構(gòu)之所以...
2022-12-12 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)Transformerdnn 1.6k 0
全球首個(gè)面向遙感任務(wù)設(shè)計(jì)的億級(jí)視覺(jué)Transformer大模型
簡(jiǎn)單來(lái)說(shuō),為了更好地應(yīng)對(duì)遙感圖像所具有的大尺寸特性以及圖像中的目標(biāo)物體的朝向任意性,我們提出了一種新的旋轉(zhuǎn)可變尺寸窗口的注意力(Rotated Vari...
2022-12-09 標(biāo)簽:視覺(jué)數(shù)據(jù)集Transformer 1.4k 0
如何打造BEV + Transformer的技術(shù)架構(gòu)?
這個(gè)架構(gòu)的輸入,是多個(gè)相機(jī)拍攝的圖像,輸出則是自動(dòng)駕駛的一系列任務(wù),當(dāng)中包含了動(dòng)態(tài)障礙物的檢測(cè)和預(yù)測(cè),靜態(tài)場(chǎng)景的理解,以及這兩個(gè)基礎(chǔ)之上的一系列下游規(guī)控任務(wù)。
2022-11-18 標(biāo)簽:嵌入式自動(dòng)駕駛Transformer 7.4k 0
深度學(xué)習(xí)與圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)分享:Transformer
在過(guò)去的幾年中,神經(jīng)網(wǎng)絡(luò)的興起與應(yīng)用成功推動(dòng)了模式識(shí)別和數(shù)據(jù)挖掘的研究。許多曾經(jīng)嚴(yán)重依賴(lài)于手工提取特征的機(jī)器學(xué)習(xí)任務(wù)(如目標(biāo)檢測(cè)、機(jī)器翻譯和語(yǔ)音識(shí)別),...
2022-09-22 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)Transformer 3.6k 0
首次推導(dǎo)出不同歸納偏置和模型架構(gòu)的標(biāo)度律。研究者發(fā)現(xiàn)這個(gè)標(biāo)度系數(shù)在不同的模型中有很大的不同,并指出這是模型開(kāi)發(fā)中的一個(gè)重要考慮因素。事實(shí)證明,在他們考慮...
2022-09-05 標(biāo)簽:谷歌模型Transformer 1.3k 0
在以ERP格式作為輸入的前提下會(huì)有兩種劃分patch的方法:(1)直接等間距劃分patch;(2)將球面全景圖投影成重疊的perspective視口自然...
2022-08-31 標(biāo)簽:框架數(shù)據(jù)集Transformer 1.7k 0
Transformer模型結(jié)構(gòu),訓(xùn)練過(guò)程
所以我們?yōu)榇宋恼聦?xiě)了篇注解文檔,并給出了一行行實(shí)現(xiàn)的Transformer的代碼。本文檔刪除了原文的一些章節(jié)并進(jìn)行了重新排序,并在整個(gè)文章中加入了相應(yīng)的...
2022-06-20 標(biāo)簽:代碼Transformerpytorch 4.8k 0
領(lǐng)域遷移一種簡(jiǎn)單而有效的方法Alter
如圖2所示,Transformer模型一般由輸入嵌入層、輸出層和若干結(jié)構(gòu)相同的Transformer層堆疊組成。更具體地,每層由一個(gè)多頭自注意力模塊和前...
2022-04-07 標(biāo)簽:數(shù)據(jù)集Transformer 2.5k 0
用于語(yǔ)言和視覺(jué)處理的高效 Transformer能在多種語(yǔ)言和視覺(jué)任務(wù)中帶來(lái)優(yōu)異效果
白皮書(shū)《Transformer-LS:用于語(yǔ)言和視覺(jué)處理的高效 Transformer》中提出了“長(zhǎng)-短 Transformer” (Transform...
2021-12-28 標(biāo)簽:計(jì)算機(jī)視覺(jué)Transformer 2.5k 0
Transformer的復(fù)雜度和高效設(shè)計(jì)及Transformer的應(yīng)用
來(lái)自:AI部落聯(lián)盟 前言 這次我們總結(jié)一下ACL2021中的Transformers,看看2021年了,NLPer在如何使用、應(yīng)用、改進(jìn)、分析Trans...
2021-09-01 標(biāo)簽:ACLTransformernlp 7.6k 0
21個(gè)Transformer面試題的簡(jiǎn)單回答
請(qǐng)求和鍵值初始為不同的權(quán)重是為了解決可能輸入句長(zhǎng)與輸出句長(zhǎng)不一致的問(wèn)題。并且假如QK維度一致,如果不用Q,直接拿K和K點(diǎn)乘的話(huà),你會(huì)發(fā)現(xiàn)attentio...
2021-04-15 標(biāo)簽:編碼器矩陣Transformer 8.1k 0
詳解一種簡(jiǎn)單而有效的Transformer提升技術(shù)
近些年,Transformer[1]逐漸成為了自然語(yǔ)言處理中的主流結(jié)構(gòu)。為了進(jìn)一步提升Transformer的性能,一些工作通過(guò)引入額外的結(jié)構(gòu)或知識(shí)來(lái)提...
2021-04-09 標(biāo)簽:DropoutTransformer自然語(yǔ)言處理 7.9k 0
將線(xiàn)性Transformer作為快速權(quán)重系統(tǒng)進(jìn)行分析和改進(jìn)
受過(guò)去對(duì)快速權(quán)重研究的啟發(fā),研究者建議用產(chǎn)生這種行為的替代規(guī)則替換更新規(guī)則。此外,該研究還提出了一個(gè)新的核函數(shù)來(lái)線(xiàn)性化注意力,平衡簡(jiǎn)單性和有效性。他們進(jìn)...
2021-03-31 標(biāo)簽:人工智能深度學(xué)習(xí)Transformer 2.7k 0
Transformer模型的多模態(tài)學(xué)習(xí)應(yīng)用
隨著Transformer在視覺(jué)中的崛起,Transformer在多模態(tài)中應(yīng)用也是合情合理的事情,甚至以后可能會(huì)有更多的類(lèi)似的paper。
2021-03-25 標(biāo)簽:視覺(jué)paperTransformer 1.2萬(wàn) 0
基于Transformer結(jié)構(gòu)的各類(lèi)語(yǔ)言模型(Bert基于其encoder,Gpt-2基于其decoder)早已經(jīng)在各類(lèi)NLP任務(wù)上大放異彩,面對(duì)讓人眼...
2021-03-08 標(biāo)簽:人工智能深度學(xué)習(xí)Transformer 5.1k 0
換一批
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語(yǔ)言教程專(zhuān)題
| 電機(jī)控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動(dòng)駕駛 | TI | 瑞薩電子 |
| BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
| 無(wú)刷電機(jī) | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
| 直流電機(jī) | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
| 步進(jìn)電機(jī) | SPWM | 充電樁 | IPM | 機(jī)器視覺(jué) | 無(wú)人機(jī) | 三菱電機(jī) | ST |
| 伺服電機(jī) | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國(guó)民技術(shù) | Microchip |
| Arduino | BeagleBone | 樹(shù)莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
| 示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
| OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
| C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
| Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
| DuerOS | Brillo | Windows11 | HarmonyOS |