chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

小模型也能進行上下文學(xué)習(xí)!字節(jié)&華東師大聯(lián)合提出自進化文本識別器

CVer ? 來源:CVer ? 2023-11-27 16:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大語言模型(LLM)能夠以一種無需微調(diào)的方式從少量示例中學(xué)習(xí),這種方式被稱為 "上下文學(xué)習(xí)"(In-context Learning)。目前只在大模型上觀察到上下文學(xué)習(xí)現(xiàn)象,那么,常規(guī)大小的模型是否具備類似的能力呢?GPT4、Llama等大模型在非常多的領(lǐng)域中都表現(xiàn)出了杰出的性能,但很多場景受限于資源或者實時性要求較高,無法使用大模型。為了探索小模型的上下文學(xué)習(xí)能力,字節(jié)和華東師大的研究團隊在場景文本識別任務(wù)上進行了研究。

場景文本識別(Scene Text Recognition)的目標(biāo)是將圖像中的文本內(nèi)容提取出來。實際應(yīng)用場景中,場景文本識別面臨著多種挑戰(zhàn):不同的場景、文字排版、形變、光照變化、字跡模糊、字體多樣性等,因此很難訓(xùn)練一個能應(yīng)對所有場景的統(tǒng)一的文本識別模型。一個直接的解決辦法是收集相應(yīng)的數(shù)據(jù),然后在特定場景下對模型進行微調(diào)。但是這一過程需要重新訓(xùn)練模型,當(dāng)場景變多、領(lǐng)域任務(wù)變得復(fù)雜時,實際的訓(xùn)練、存儲、維護資源則呈幾何倍增長。如果文本識別模型也能具備上下文學(xué)習(xí)能力,面對新的場景,只需少量標(biāo)注數(shù)據(jù)作為提示,就能提升在新場景上的性能,那么上面的問題就迎刃而解。然而,場景文本識別是一個資源敏感型任務(wù),將大模型當(dāng)作文本識別器非常耗費資源,并且通過初步的實驗,研究人員發(fā)現(xiàn)傳統(tǒng)的訓(xùn)練大模型的方法在場景文本識別任務(wù)上并不適用。

為了解決這個問題,來自字節(jié)和華東師大的研究團隊提出了自進化文本識別器,ESTR(Ego-Evolving Scene Text Recognizer),一個融合了上下文學(xué)習(xí)能力的常規(guī)大小文本識別器,無需微調(diào)即可快速適應(yīng)不同的文本識別場景。ESTR配備了一種上下文訓(xùn)練和上下文推理模式,不僅在常規(guī)數(shù)據(jù)集上達到了SOTA的水平,而且可以使用單一模型提升在各個場景中的識別性能,實現(xiàn)對新場景的快速適應(yīng),甚至超過了經(jīng)過微調(diào)后專用模型的識別性能。ESTR證明,常規(guī)大小的模型足以在文本識別任務(wù)中實現(xiàn)有效的上下文學(xué)習(xí)能力。ESTR在各種場景中無需微調(diào)即可表現(xiàn)出卓越的適應(yīng)性,甚至超過了經(jīng)過微調(diào)后的識別性能。

8e61a640-8c75-11ee-939d-92fbcf53809c.png

論文地址:https://arxiv.org/pdf/2311.13120

方法

圖1介紹了ESTR的訓(xùn)練和推理流程。

8e777d4e-8c75-11ee-939d-92fbcf53809c.png

1.基礎(chǔ)文本識別訓(xùn)練

基礎(chǔ)文本識別訓(xùn)練階段采用自回歸框架訓(xùn)練視覺編碼器和語言解碼器:

8e992818-8c75-11ee-939d-92fbcf53809c.png

2.上下文訓(xùn)練

上下文訓(xùn)練階段ESTR 將根據(jù)文中提出的上下文訓(xùn)練范式進行進一步訓(xùn)練。在這一階段,ESTR 會學(xué)習(xí)理解不同樣本之間的聯(lián)系,從而從上下文提示中獲益。

8ea68454-8c75-11ee-939d-92fbcf53809c.png

如圖2所示,這篇文章提出 ST 策略,在場景文本數(shù)據(jù)中進行隨機的分割和轉(zhuǎn)換,從而生成一組 "子樣本"。子樣本在視覺和語言方面都是內(nèi)在聯(lián)系的。這些內(nèi)在聯(lián)系的樣本被拼接成一個序列,模型從這些語義豐富的序列中學(xué)習(xí)上下文知識,從而獲取上下文學(xué)習(xí)的能力。這一階段同樣采用自回歸框架進行訓(xùn)練:

8eb82718-8c75-11ee-939d-92fbcf53809c.png

3.上下文推理

針對一個測試樣本,該框架會從上下文提示池中選擇 個樣本,這些樣本在視覺隱空間與測試樣本具有最高的相似度。具體來說,這篇文章通過對視覺token序列做平均池化,計算出圖像embedding 。然后,從上下文池中選擇圖像嵌入與 的余弦相似度最高的前 N 個樣本,從而形成上下文提示。

8ec51a9a-8c75-11ee-939d-92fbcf53809c.png

上下文提示和測試樣本拼接在一起送入模型,ESTR便會以一種無訓(xùn)練的方式從上下文提示中學(xué)得新知識,提升測試樣本的識別準(zhǔn)確率。值得注意的是,上下文提示池只保留了視覺編碼器輸出的token,使得上下文提示的選擇過程非常高效。此外,由于上下文提示池很小,而且ESTR不需要訓(xùn)練就能直接進行推理,因此額外的消耗也降到了最低限度。

實驗

實驗從三個角度進行:

1.傳統(tǒng)數(shù)據(jù)集

從訓(xùn)練集中隨機抽取很少的樣本(1000個,訓(xùn)練集 0.025% 的樣本數(shù)量)組成上下文提示池,在12個常見的場景文本識別測試集中進行的測試,結(jié)果如下:

8eef0760-8c75-11ee-939d-92fbcf53809c.png

2.跨域場景

跨域場景下每個測試集僅提供100個域內(nèi)訓(xùn)練樣本,無訓(xùn)練和微調(diào)對比結(jié)果如下。ESTR甚至超過了SOTA方法的微調(diào)結(jié)果。

8f0ad454-8c75-11ee-939d-92fbcf53809c.png

3.困難樣本修正

研究人員收集了一批困難樣本,對這些樣本提供了10%~20%的標(biāo)注,對比ESTR的無訓(xùn)練學(xué)習(xí)方法和SOTA方法的微調(diào)學(xué)習(xí)方法,結(jié)果如下:

8f2a9f82-8c75-11ee-939d-92fbcf53809c.png

可以發(fā)現(xiàn),ESTR-ICL大大降低了困難樣本的錯誤率。

未來展望

ESTR證明了使用合適的訓(xùn)練和推理策略,小模型也可以擁有和LLM類似的In-context Learning的能力。在一些實時性要求比較強的任務(wù)中,使用小模型也可以對新場景進行快速的適應(yīng)。更重要的是,這種使用單一模型來實現(xiàn)對新場景快速適應(yīng)的方法使得構(gòu)建統(tǒng)一高效的小模型更近了一步。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3645

    瀏覽量

    51685
  • 識別器
    +關(guān)注

    關(guān)注

    0

    文章

    23

    瀏覽量

    7825
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3435

    瀏覽量

    4958

原文標(biāo)題:小模型也能進行上下文學(xué)習(xí)!字節(jié)&華東師大聯(lián)合提出自進化文本識別器

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    請問riscv中斷還需要軟件保存上下文和恢復(fù)嗎?

    的處理在進入和退出中斷處理模式時沒有硬件自動保存和恢復(fù)上下文(通用寄存)的操作,因此需要軟件明確地使用(匯編語言編寫的)指令進行上下文
    發(fā)表于 10-20 09:56

    米爾RK3576部署端側(cè)多模態(tài)多輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    配置模型路徑、max_new_tokens(生成內(nèi)容最大 token 數(shù))、max_context_len(最大上下文長度)、top_k、特殊 token 等關(guān)鍵參數(shù);隨后加載視覺編碼模型
    發(fā)表于 09-05 17:25

    HarmonyOSAI編程編輯區(qū)代碼續(xù)寫

    場景),便于模型能理解代碼上下文。 代碼生成設(shè)置 進入File > Settings > CodeGenie &amp
    發(fā)表于 08-21 15:43

    HarmonyOS AI輔助編程工具(CodeGenie)代碼續(xù)寫

    注釋行場景),便于模型能理解代碼上下文。 二、代碼生成設(shè)置 進入File > Settings > CodeGenie &
    發(fā)表于 07-15 16:15

    鴻蒙NEXT-API19獲取上下文,在class中和ability中獲取上下文,API遷移示例-解決無法在EntryAbility中無法使用最新版

    摘要:隨著鴻蒙系統(tǒng)API升級至16版本(modelVersion5.1.1),多項API已廢棄。獲取上下文需使用UIContext,具體方法包括:在組件中使用getUIContext(),在類中使
    的頭像 發(fā)表于 07-01 10:57 ?569次閱讀
    鴻蒙NEXT-API19獲取<b class='flag-5'>上下文</b>,在class中和ability中獲取<b class='flag-5'>上下文</b>,API遷移示例-解決無法在EntryAbility中無法使用最新版

    新知|Verizon與AT&amp;amp;amp;T可以手機直接連接衛(wèi)星了

    近日,Verizon與AT&amp;T宣布,手機直連衛(wèi)星方面取得重要進展,使用普通手機實現(xiàn)了通過衛(wèi)星的視頻通話。很顯然,Verizon與AT&amp;T的這一舉措是針對此前T-Mobile
    的頭像 發(fā)表于 06-19 07:07 ?882次閱讀
    新知|Verizon與AT&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;T<b class='flag-5'>也</b>可以手機直接連接衛(wèi)星了

    S32K在AUTOSAR中使用CAT1 ISR,是否需要執(zhí)行上下文切換?

    如果我們在 AUTOSAR 中使用 CAT1 ISR,是否需要執(zhí)行上下文切換?另外,是否需要返回指令才能跳回到作系統(tǒng)?您有沒有帶有 CAT1 ISR 的 S32K3x4 微控制的示例?
    發(fā)表于 03-27 07:34

    DeepSeek推出NSA機制,加速長上下文訓(xùn)練與推理

    的特性,專為超快速的長上下文訓(xùn)練和推理而設(shè)計。 NSA通過針對現(xiàn)代硬件的優(yōu)化設(shè)計,顯著加快了推理速度,并大幅度降低了預(yù)訓(xùn)練成本,同時保持了卓越的性能表現(xiàn)。這一機制在確保效率的同時,并未犧牲模型的準(zhǔn)確性或功能。 在廣泛的基準(zhǔn)測試、涉及長
    的頭像 發(fā)表于 02-19 14:01 ?898次閱讀

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】RAG基本概念

    多路召回策略從海量數(shù)據(jù)中初步篩選相關(guān)信息,利用語義相似度計算深入評估信息與需求的匹配程度,再通過上下文相關(guān)性過濾確保信息的精準(zhǔn)度。大模型集成層,為了能與主流的大語言模型(LLM)順利對接,進行
    發(fā)表于 02-08 00:22

    阿里云通義開源長文本模型Qwen2.5-1M

    近日,阿里云通義宣布了一項重大開源舉措,推出了支持100萬Tokens上下文的Qwen2.5-1M模型。這一新模型在處理長文本任務(wù)中展現(xiàn)出了卓越的性能,穩(wěn)定超越了GPT-4o-mini
    的頭像 發(fā)表于 02-05 14:01 ?763次閱讀

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+Embedding技術(shù)解讀

    與文檔庫中每個文檔向量的相似度,來檢索最相關(guān)的文檔。這一過程依賴于Embedding模型文本語義的準(zhǔn)確捕捉。檢索到的文檔與用戶的問題一起被Embedding模型轉(zhuǎn)換為向量,形成新的上下文
    發(fā)表于 01-17 19:53

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    。對于文本數(shù)據(jù),可以采用同義詞替換、句法變換、上下文擴展等技術(shù)。微調(diào)策略和方法全參數(shù)微調(diào):對模型的所有參數(shù)進行再訓(xùn)練。雖然需要大量的計算資源,但它可以充分適應(yīng)特定任務(wù)。輕量級微調(diào)方法:
    發(fā)表于 01-14 16:51

    新品| Atomic Echo Base 語音識別底座 &amp;amp;amp; GroveY Cable 連接線

    新品:AtomicEchoBase&amp;GroveYCable01AtomicEchoBaseFEATURESAtomicEchoBase是一款專為M5Atom系列主機設(shè)計的語音識別底座,集成
    的頭像 發(fā)表于 12-27 18:35 ?1317次閱讀
    新品| Atomic Echo Base 語音<b class='flag-5'>識別</b>底座 &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>; GroveY Cable 連接線

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    的應(yīng)用。MAML算法通過二階優(yōu)化找到對任務(wù)變化敏感的模型參數(shù),實現(xiàn)了快速適應(yīng)。上下文學(xué)習(xí)則引入了注意力機制,使模型能夠根據(jù)當(dāng)前場景動態(tài)調(diào)整行為策略。在預(yù)訓(xùn)練-微調(diào)范式中,我們要注意任務(wù)表示的重要性:好的表示
    發(fā)表于 12-24 15:03

    Kaggle知識點:使用大模型進行特征篩選

    方法依賴于數(shù)據(jù)集中的樣本點進行統(tǒng)計推斷,而基于文本的方法需要描述性的上下文以更好地在特征和目標(biāo)變量之間建立語義關(guān)聯(lián)。這種方法利用了大型語言模型(LLMs)中豐富的語
    的頭像 發(fā)表于 12-03 01:06 ?2191次閱讀
    Kaggle知識點:使用大<b class='flag-5'>模型</b><b class='flag-5'>進行</b>特征篩選