chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用于語言和視覺處理的高效 Transformer能在多種語言和視覺任務(wù)中帶來優(yōu)異效果

NVIDIA英偉達(dá) ? 來源:NVIDIA英偉達(dá) ? 作者:NVIDIA英偉達(dá) ? 2021-12-28 10:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

白皮書《Transformer-LS:用于語言和視覺處理的高效 Transformer》中提出了“長(zhǎng)-短 Transformer” (Transformer-LS),這是一種高效的 Transformer 架構(gòu),用于為語言和視覺任務(wù)模擬中具有線性復(fù)雜度的長(zhǎng)序列。

鑒于 Transformer 的模型在自然語言處理 (NLP) 和計(jì)算機(jī)視覺領(lǐng)域已經(jīng)取得了巨大的成功。這種模型可受益于自注意力模塊,后者既可捕獲詞元間的相鄰相關(guān)性和長(zhǎng)距離相關(guān)性,同時(shí)又能在現(xiàn)代硬件上高效擴(kuò)展。

然而,自注意力機(jī)制所消耗的時(shí)間和內(nèi)存與輸入長(zhǎng)度呈二次方關(guān)系,使其處理長(zhǎng)序列的成本非常高昂。許多語言和視覺任務(wù)能夠從長(zhǎng)序列建模中獲益。在 NLP 中,文檔級(jí)任務(wù)需要處理較長(zhǎng)的文章,而語言模型的性能往往隨序列長(zhǎng)度而增加。

在計(jì)算機(jī)視覺里,大量任務(wù)涉及高分辨率圖像。而這些圖像在使用 Transformer 模型處理前,會(huì)被轉(zhuǎn)換成圖像塊的長(zhǎng)序列。因此,設(shè)計(jì)一種能泛化到各種不同領(lǐng)域的長(zhǎng)序列建模的高效注意力機(jī)制至關(guān)重要。

一直以來,業(yè)界提出了各種方法來減少完全注意力機(jī)制的二次方成本。但是,在語言和視覺領(lǐng)域都有良好應(yīng)用的高效注意力機(jī)制尚未得到深入研究。一類方法使用滑動(dòng)窗口和隨機(jī)稀疏模式等預(yù)定義模式對(duì)注意力矩陣進(jìn)行稀疏化處理。

這類方法使用強(qiáng)大的歸納偏置來改善計(jì)算性能和模型性能,但它們會(huì)限制自注意力層的能力,因?yàn)槊總€(gè)特定分詞器只能處理一個(gè)詞元子集。

另一類方法使用 low-rank 投影為輸入序列構(gòu)成低分辨率表示,但這類方法只能對(duì)特定的 NLP 任務(wù)有效。與稀疏注意力不同,這類方法允許每個(gè)分詞器處理整個(gè)輸入序列。但是,由于缺少高保真度詞元級(jí)信息,對(duì)于需要細(xì)粒度局部信息的任務(wù)(包括語言領(lǐng)域和視覺領(lǐng)域的標(biāo)準(zhǔn)基準(zhǔn)測(cè)試)而言,這類方法的性能有時(shí)并不優(yōu)于完全注意力或稀釋注意力機(jī)制。

盡管高效 Transformer 的發(fā)展相當(dāng)迅速,一些提出的架構(gòu)只適用于雙向模型?;?Transformer 的自回歸模型已經(jīng)在語言建模 、圖像合成 和文本轉(zhuǎn)圖像合成領(lǐng)域取得了巨大的成功。這些領(lǐng)域都涉及長(zhǎng)文本或高分辨率圖像。

因此,有必要設(shè)計(jì)一種同時(shí)適用于自回歸模型和雙向模型的高效 Transformer。

在白皮書《Transformer-LS:用于語言和視覺處理的高效 Transformer》中,研究把局部窗口注意力和新穎的長(zhǎng)距離注意力統(tǒng)一成單個(gè)高效注意力機(jī)制。展示這兩種注意力機(jī)制的互補(bǔ)效應(yīng),能在多種語言和視覺任務(wù)中為自回歸模型和雙向模型帶來優(yōu)異的效果。

原文標(biāo)題:白皮書 | 《Transformer-LS:用于語言和視覺處理的高效Transformer》

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:彭菁
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1714

    瀏覽量

    47443
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    154

    瀏覽量

    6801

原文標(biāo)題:白皮書 | 《Transformer-LS:用于語言和視覺處理的高效Transformer》

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    C語言在嵌入式開發(fā)的應(yīng)用

    對(duì)外部事件做出響應(yīng)并完成任務(wù)的系統(tǒng),對(duì)任務(wù)的響應(yīng)時(shí)間和執(zhí)行時(shí)間有著嚴(yán)格的要求。C 語言在實(shí)時(shí)系統(tǒng)開發(fā)具有重要的地位,它能夠滿足實(shí)時(shí)系統(tǒng)對(duì)高效
    發(fā)表于 11-21 08:09

    C語言和單片機(jī)C語言有什么差異

    單片機(jī)c語言相對(duì)于普通C語言增加了一些基本的指令,還有變量的賦值是16進(jìn)制,當(dāng)然單片機(jī)c語言只牽涉到普通c語言非?;A(chǔ)部分。 主要的差異具體體現(xiàn)在: 1、單片機(jī)
    發(fā)表于 11-14 07:55

    Aux-Think打破視覺語言導(dǎo)航任務(wù)的常規(guī)推理范式

    視覺語言導(dǎo)航(VLN)任務(wù)的核心挑戰(zhàn),是讓機(jī)器人在復(fù)雜環(huán)境中聽懂指令、看懂世界,并果斷行動(dòng)。我們系統(tǒng)性地引入推理任務(wù),探索其在導(dǎo)航策略學(xué)習(xí)
    的頭像 發(fā)表于 07-08 10:00 ?397次閱讀
    Aux-Think打破<b class='flag-5'>視覺</b><b class='flag-5'>語言</b>導(dǎo)航<b class='flag-5'>任務(wù)</b>的常規(guī)推理范式

    C語言精彩編程百例-364頁

    內(nèi)容提要 C是一種通用的程序設(shè)計(jì)語言,它包含了緊湊的表達(dá)式、豐富的運(yùn)算符集合、現(xiàn)代控制流以及數(shù)據(jù)結(jié)構(gòu)等四個(gè)部分。C語言功能豐富,衣達(dá)能力強(qiáng),使用起來靈活方便:它應(yīng)用面廣,可移植性強(qiáng),網(wǎng)時(shí)具有高級(jí)語言和
    發(fā)表于 06-13 17:28

    ?VLM(視覺語言模型)?詳細(xì)解析

    的詳細(xì)解析: 1. 核心組成與工作原理 視覺編碼器 :提取圖像特征,常用CNN(如ResNet)或視覺Transformer(ViT)。 語言模型 :
    的頭像 發(fā)表于 03-17 15:32 ?7494次閱讀
    ?VLM(<b class='flag-5'>視覺</b><b class='flag-5'>語言</b>模型)?詳細(xì)解析

    全志視覺芯片V821接入DeepSeek和豆包視覺大模型

    帶來一款全志新的視覺芯片V821,通過網(wǎng)絡(luò)接入的方式打通DeepSeek-R1滿血版模型和豆包視覺大模型,并展示其語言和視覺交互的能力和多樣
    的頭像 發(fā)表于 02-21 09:27 ?3572次閱讀

    一文詳解視覺語言模型

    視覺語言模型(VLM)是一種多模態(tài)、生成式 AI 模型,能夠理解和處理視頻、圖像和文本。
    的頭像 發(fā)表于 02-12 11:13 ?3174次閱讀
    一文詳解<b class='flag-5'>視覺</b><b class='flag-5'>語言</b>模型

    如何使用MATLAB構(gòu)建Transformer模型

    LanguageProcessing, NLP)的序列到序列任務(wù),如機(jī)器翻譯。Transformer 通過引入自注意力機(jī)制使得處理長(zhǎng)距離依賴關(guān)系時(shí)變得
    的頭像 發(fā)表于 02-06 10:21 ?5703次閱讀
    如何使用MATLAB構(gòu)建<b class='flag-5'>Transformer</b>模型

    新品| LLM630 Compute Kit,AI 大語言模型推理開發(fā)平臺(tái)

    處理器,集成了3.2TOPs@INT8算力的高能效NPU,提供強(qiáng)大的AI推理能力,能夠高效執(zhí)行復(fù)雜的視覺(CV)及大語言模型(LLM)任務(wù)
    的頭像 發(fā)表于 01-17 18:48 ?1187次閱讀
    新品| LLM630 Compute Kit,AI 大<b class='flag-5'>語言</b>模型推理開發(fā)平臺(tái)

    Triton編譯器支持的編程語言

    Triton編譯器支持的編程語言主要包括以下幾種: 一、主要編程語言 Python :Triton編譯器通過Python接口提供了對(duì)Triton語言和編譯器的訪問,使得用戶可以在Python環(huán)境
    的頭像 發(fā)表于 12-24 17:33 ?1431次閱讀

    小米汽車接入VLM視覺語言大模型,OTA更新帶來多項(xiàng)升級(jí)

    小米汽車近日宣布,其SU7車型的1.4.5版OTA(空中升級(jí))已經(jīng)開始推送。此次更新帶來了多項(xiàng)新增功能和體驗(yàn)優(yōu)化,旨在進(jìn)一步提升用戶的駕駛體驗(yàn)。 其中最引人注目的是,小米汽車正式接入了VLM視覺語言
    的頭像 發(fā)表于 12-24 09:52 ?1443次閱讀

    NaVILA:加州大學(xué)與英偉達(dá)聯(lián)合發(fā)布新型視覺語言模型

    (VLM)是一種具備多模態(tài)生成能力的先進(jìn)AI模型。它能夠智能地處理文本、圖像以及視頻等多種提示,并通過復(fù)雜的推理過程,實(shí)現(xiàn)對(duì)這些信息的準(zhǔn)確理解和應(yīng)用。NaVILA正是基于這一原理,通過將大型語言模型(LLM)與
    的頭像 發(fā)表于 12-13 10:51 ?949次閱讀

    如何使用自然語言處理分析文本數(shù)據(jù)

    媒體、新聞報(bào)道、用戶評(píng)論等)收集你感興趣的文本數(shù)據(jù)。 數(shù)據(jù)清洗 :去除無關(guān)字符(如HTML標(biāo)簽、特殊符號(hào)等),確保文本數(shù)據(jù)干凈且一致。 2. 預(yù)處理 分詞 :將文本分割成有意義的單元(單詞、短語或句子),這取決于使用的語言和分析需求。 英文
    的頭像 發(fā)表于 12-05 15:27 ?2369次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    Learning,簡(jiǎn)稱ML)是人工智能的一個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測(cè)或決策。自然語言處理與機(jī)器學(xué)習(xí)之間有著密切的關(guān)系,因?yàn)闄C(jī)器學(xué)習(xí)提供了一種強(qiáng)大的工具,用于從大量文本數(shù)據(jù)中提取模式和知識(shí),從而提高NLP系
    的頭像 發(fā)表于 12-05 15:21 ?2524次閱讀

    語言模型開發(fā)語言是什么

    在人工智能領(lǐng)域,大語言模型(Large Language Models, LLMs)背后,離不開高效的開發(fā)語言和工具的支持。下面,AI部落小編為您介紹大語言模型開發(fā)所依賴的主要編程
    的頭像 發(fā)表于 12-04 11:44 ?1027次閱讀