chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

加速ViT模型新思路!Meta推出Token Merging

OpenCV學(xué)堂 ? 來源:新智元 ? 作者:新智元 ? 2022-12-06 15:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導(dǎo)讀】由Meta AI的研究人員推出Token Merging(ToMe),無需訓(xùn)練即可加速 ViT 模型。更重要的是,這個模型不需對token進(jìn)行剪枝。

視覺變換器(ViT)在兩年前進(jìn)入大眾視野,并成為計(jì)算機(jī)視覺研究的核心組成部分。 它成功將一個在自然語言處理領(lǐng)域的Transformer模型遷移到計(jì)算機(jī)視覺領(lǐng)域。從那時起,計(jì)算機(jī)視覺領(lǐng)域的進(jìn)步已經(jīng)加速。

盡管在成本與性能方面被超越,Vanilla ViT仍有許多優(yōu)點(diǎn)。

它們是由簡單的矩陣乘法組成的,這使得它們的速度比它們的原始運(yùn)算量所顯示的要快。

此外,它們支持強(qiáng)大的自監(jiān)督預(yù)訓(xùn)練技術(shù),如MAE(掩碼自動編碼器),可以產(chǎn)生最先進(jìn)的結(jié)果,同時可以進(jìn)行快速訓(xùn)練。

而且由于它們不對數(shù)據(jù)進(jìn)行假設(shè),它們可以幾乎不加改變地應(yīng)用在圖片、音頻、文本等諸多模式中。

當(dāng)然,理想很豐滿,現(xiàn)實(shí)很骨感。ViT模型的規(guī)模大,有較大延時。在資源有限的設(shè)備上,運(yùn)行這個復(fù)雜模型會產(chǎn)生很大問題。

Token剪枝:變好了,但沒完全好 針對運(yùn)算慢的問題,研究人員給出了多個解決方案。其中一種常見的加速視覺 Transformer模型的方法是對進(jìn)行token剪枝。 在運(yùn)行時修剪標(biāo)記,通過修剪不太重要的token產(chǎn)生高效的Transformer。如DynamicViT分層修剪冗余token,從而在分類任務(wù)中實(shí)現(xiàn)FLOPs減少。

然而,token剪枝有幾個問題,其中最主要的,是由于修剪token會產(chǎn)生信息損失,因此,人們對ViT模型token的剪枝數(shù)量是有限的,為了減少信息損失,只能對不重要的token進(jìn)行修剪。

而且,為了使修剪過的token有效,人們需要再次訓(xùn)練模型。這就造成額外的資源消耗。

更重要的是,token剪枝是動態(tài)的過程,需要根據(jù)不同的圖像或句子確定token剪枝的不同數(shù)量。雖然這有利于提高準(zhǔn)確性,但卻不夠?qū)嵱脤?shí)用性,因?yàn)檫@種情況下,數(shù)據(jù)不能再進(jìn)行批處理。

為了解決這個問題,人們需要在剪枝過程中添加掩碼,而這會進(jìn)一步影響效率的提升。

簡單來說,token剪枝確實(shí)讓ViT跑得更快,但這是在信息損耗的代價上實(shí)現(xiàn)的。

TokenMerging:換個想法

怎樣才能使ViT的速度類似于剪枝,但保持比剪枝更高的準(zhǔn)確度呢?Meta AI研究團(tuán)隊(duì)給出了新的解題思路:Token Merging(ToMe)。

70f4dd92-74ad-11ed-8abf-dac502259ad0.png

論文鏈接:https://arxiv.org/pdf/2210.09461.pdf

Token Merging選擇將token結(jié)合,而非進(jìn)行剪枝。由于其定制的匹配算法,它和剪枝一樣快,同時更準(zhǔn)確。另外,它的工作不需要任何額外的訓(xùn)練,所以你可以在巨大的模型上使用它來加快它們的速度,而不會犧牲很多準(zhǔn)確性。

Meta的目標(biāo)是在現(xiàn)有的ViT中插入一個Token Merging的模塊,通過合并冗余的token,在不需要額外訓(xùn)練的前提下提高訓(xùn)練和推理的吞吐量。

基本思路是:在Transformer模型中,通過合并,使每層減少r個token。假設(shè)一個Transformer模型有L層,那么通過合并就可以減少rL個token。變量r的大小決定了速度和精度的關(guān)系,因?yàn)楦俚臉?biāo)記意味著更低的準(zhǔn)確度但更高的吞吐量。

值得注意的是,在Token Merging中,無論圖像的內(nèi)容如何,都會減少rL標(biāo)記。這完美解決了token剪枝中無法進(jìn)行批處理的問題。

通過ToMe,類似的token批在每個Transformer塊中被合并:例如,狗的皮毛被合并成一個token。

7110d9f2-74ad-11ed-8abf-dac502259ad0.png

Token Merging被插入每個attention塊和每個Transformer塊。這也與token剪枝的工作流程形成對比。后者傾向于將剪枝步驟放在每個Transformer塊的開頭。

7137d688-74ad-11ed-8abf-dac502259ad0.png

通過Token Merging,需要被合并的token的信息可以得到傳播,ViT也能夠借助attention塊中的特征來決定需要合并哪些token。

具體做法

合并的第一步是確定相似的token。在Transformer中的QKV(query, key, value)已被提取的條件下,通過消融實(shí)驗(yàn),研究團(tuán)隊(duì)發(fā)現(xiàn)使用key可以最好衡量token之間的相似度(下圖紫色部分)。

7149485a-74ad-11ed-8abf-dac502259ad0.png

因?yàn)閗ey已經(jīng)總結(jié)了每個token中包含的信息,以便用于Attention中的dot-product來衡量token間的相似度。

除了研究哪個指標(biāo)更好衡量token相似度外,還需要知道什么距離衡量相似度。通過實(shí)驗(yàn)研究團(tuán)隊(duì)發(fā)現(xiàn),使用使用余弦距離來衡量toke之間的相似度可以獲得最好的精度和速度的關(guān)系。

71602b60-74ad-11ed-8abf-dac502259ad0.png

確定了token的相似性,接下來需要一個快速的方法來確定哪些token需要匹配,以減少總數(shù)的r。

Meta團(tuán)隊(duì)沒有使用kmeans聚類算法或圖分割算法,而是使用匹配算法,因?yàn)楹笳卟粌H可以精準(zhǔn)匹配每一層token的數(shù)量,還能快速執(zhí)行上千次匹配。這些都是迭代聚類算法無法完成的。

因此,Meta團(tuán)隊(duì)提出了一個更有效的解決方案。

設(shè)計(jì)目標(biāo)如下。1.)避免任何無法并行化的迭代,2.)希望合并的變化是漸進(jìn)的,因?yàn)榫垲悓Χ嗌賯€標(biāo)記可以合并到一個組中沒有限制(這可能會對網(wǎng)絡(luò)產(chǎn)生不利影響),而匹配則使大多數(shù)標(biāo)記沒有被合并。

7192354c-74ad-11ed-8abf-dac502259ad0.png

將所有token分為相同大小的2個集合A與B。

把從集合A中的每個token到B中與其最相似的token畫一條邊。

只留下最相似的r條邊, 其余刪掉。

融合仍然相連的邊(特征取均值)。

把這兩個集合拼在一起, 得到最終的合并結(jié)果。

通過這項(xiàng)獨(dú)特的技術(shù),可以提高ViT模型的吞吐量和實(shí)際訓(xùn)練速度。使用Token Merging可以將訓(xùn)練速度提高一倍。它可以用于圖像、視頻和音頻任務(wù),并且仍然可以達(dá)到最先進(jìn)的準(zhǔn)確性。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3687

    瀏覽量

    51943
  • Meta
    +關(guān)注

    關(guān)注

    0

    文章

    318

    瀏覽量

    12390
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    629

    瀏覽量

    14624

原文標(biāo)題:加速ViT模型新思路!Meta推出Token Merging,不靠剪枝靠合并

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    數(shù)字音頻放大器新思路:MAX98360全方位解析

    數(shù)字音頻放大器新思路:MAX98360全方位解析 在數(shù)字化浪潮的推動下,音頻設(shè)備市場對音質(zhì)、效率和成本的要求日益嚴(yán)苛。在這個背景下,我們迎來了Analog Devices推出的MAX98360系列
    的頭像 發(fā)表于 01-16 14:15 ?83次閱讀

    Meta的AI慢性病,靠Manus能治嗎?

    Meta
    腦極體
    發(fā)布于 :2026年01月08日 16:58:02

    NVIDIA 推出 Nemotron 3 系列開放模型

    token 數(shù)。 ● Nemotron 通過先進(jìn)的強(qiáng)化學(xué)習(xí)技術(shù)以及大規(guī)模并行多環(huán)境后訓(xùn)練,實(shí)現(xiàn)了卓越的準(zhǔn)確率。 ● NVIDIA 率先推出整套前沿的開放模型、訓(xùn)練數(shù)據(jù)集及強(qiáng)化學(xué)習(xí)環(huán)境與
    的頭像 發(fā)表于 12-16 09:27 ?517次閱讀
    NVIDIA <b class='flag-5'>推出</b> Nemotron 3 系列開放<b class='flag-5'>模型</b>

    PowerVR上的LLM加速:LLM性能解析

    作者:AlexPim,Imagination軟件架構(gòu)Fellow在Imagination,我們致力于加速大語言模型在日常設(shè)備上的運(yùn)行。在本系列關(guān)于大語言模型性能與加速的兩篇博客的首篇中
    的頭像 發(fā)表于 12-10 08:34 ?245次閱讀
    PowerVR上的LLM<b class='flag-5'>加速</b>:LLM性能解析

    Arm與Meta深化戰(zhàn)略合作

    智能的毫瓦級設(shè)備,到訓(xùn)練全球最先進(jìn) AI 模型的兆瓦級系統(tǒng),此次合作將推動 AI 覆蓋多種計(jì)算類型、工作負(fù)載及使用體驗(yàn),為 Meta 的全球平臺提供核心支撐。
    的頭像 發(fā)表于 10-24 17:54 ?1587次閱讀

    NVIDIA Spectrum-X 以太網(wǎng)交換機(jī)助力 Meta 和 Oracle 加速網(wǎng)絡(luò)性能

    超大規(guī)模企業(yè)廣泛采用 NVIDIA 網(wǎng)絡(luò)解決方案,驅(qū)動十億瓦級(Giga-Scale)高性能 AI 數(shù)據(jù)中心 Meta 推出基于 NVIDIA Spectrum 以太網(wǎng)的交換機(jī),用于
    的頭像 發(fā)表于 10-14 10:26 ?1601次閱讀
    NVIDIA Spectrum-X 以太網(wǎng)交換機(jī)助力 <b class='flag-5'>Meta</b> 和 Oracle <b class='flag-5'>加速</b>網(wǎng)絡(luò)性能

    今日看點(diǎn)丨Meta 正式推出全新一代智能眼鏡;三星首次將光掩模生產(chǎn)外包

    Meta 正式推出全新一代智能眼鏡 Meta 正式推出全新一代智能眼鏡「Meta Ray-Ban Display」,并同步亮相創(chuàng)新交互設(shè)備「
    發(fā)表于 09-18 11:00 ?1386次閱讀

    成都匯陽投資關(guān)于大模型白熱化,應(yīng)用加速分化

    Gemini 2.5 Flash Image登頂 多主流圖像榜,Meta 也從 Midjourney 授權(quán) AI 圖像模型;視頻領(lǐng)域,阿里字節(jié)等刷新能力高度 ,谷歌將視頻模型推進(jìn)至實(shí)時交互通用世界
    的頭像 發(fā)表于 09-09 09:30 ?824次閱讀

    Cognizant加速AI模型企業(yè)級開發(fā)

    -Cognizant推出AI Training Data Services,助力企業(yè)級AI模型加速開發(fā) Cognizant是數(shù)據(jù)與AI模型訓(xùn)練合作伙伴,長期深受大型數(shù)字原生先鋒企業(yè)信賴
    的頭像 發(fā)表于 07-31 17:25 ?646次閱讀

    Token經(jīng)濟(jì),風(fēng)起隴東

    以萬全之力,筑成東數(shù)西算的token經(jīng)濟(jì)走廊
    的頭像 發(fā)表于 04-01 09:46 ?2352次閱讀
    <b class='flag-5'>Token</b>經(jīng)濟(jì),風(fēng)起隴東

    自動駕駛大模型中常提的Token是個啥?對自動駕駛有何影響?

    、多模態(tài)傳感器數(shù)據(jù)的實(shí)時處理與決策。在這一過程中,大模型以其強(qiáng)大的特征提取、信息融合和預(yù)測能力為自動駕駛系統(tǒng)提供了有力支持。而在大模型的中,有一個“Token”的概念,有些人看到后或許會問:
    的頭像 發(fā)表于 03-28 09:16 ?1147次閱讀

    如何將Cycle模型轉(zhuǎn)換為中間表示 (IR)?

    轉(zhuǎn)換后的 TensorFlow* 1 Cycle ECLIPSE 非凍結(jié)模型。 mo --input_meta_graph cyclegan.model-2002.meta 收到錯誤
    發(fā)表于 03-06 07:56

    無法在OVMS上運(yùn)行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運(yùn)行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運(yùn)行 llama_chat Python* Demo 時遇到錯誤。
    發(fā)表于 03-05 08:07

    Meta組建四大專研小組,深入探索DeepSeek模型

    。其中,兩個小組致力于解析幻方量化如何降低DeepSeek模型的訓(xùn)練和運(yùn)行成本,以期從中汲取經(jīng)驗(yàn),優(yōu)化Meta自身的成本結(jié)構(gòu)。第三個研究小組則聚焦于幻方量化訓(xùn)練DeepSeek模型所使用的數(shù)據(jù),試圖揭示其數(shù)據(jù)選擇的獨(dú)特之處,為
    的頭像 發(fā)表于 02-05 14:02 ?773次閱讀

    Meta拓展可穿戴設(shè)備領(lǐng)域,計(jì)劃推出Oakley智能眼鏡

    據(jù)外媒最新報(bào)道,Meta公司正積極拓展其可穿戴設(shè)備領(lǐng)域,致力于升級并推出更多創(chuàng)新產(chǎn)品。其中,備受矚目的智能眼鏡項(xiàng)目將迎來全新升級,同時Meta還在探索智能手表和帶攝像頭的耳機(jī)等新型可穿戴設(shè)備的研發(fā)。
    的頭像 發(fā)表于 01-23 15:11 ?1067次閱讀