chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在檢索任務(wù)中訓(xùn)練數(shù)據(jù)在推理時(shí)也大有用處

深度學(xué)習(xí)自然語言處理 ? 來源:NewBeeNLP ? 作者:h1654155273.8628 ? 2022-06-15 10:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

從大規(guī)模數(shù)據(jù)中檢索通常比較耗時(shí),僅從訓(xùn)練數(shù)據(jù)中也能有巨大收益。具體做法是檢索與輸入文本最相似的訓(xùn)練樣例,拼接后作為輸入喂入模型,然后生成結(jié)果。結(jié)果在摘要、翻譯、語言模型和QA上都取得了不錯(cuò)的效果。

論文:Training Data is More Valuable than You Think: A Simple and Effective Method by Retrieving from Training Data[1]

Code:microsoft/REINA[2]

一句話概述:在檢索任務(wù)中訓(xùn)練數(shù)據(jù)在推理時(shí)也大有用處。

文章上來就給我們呈現(xiàn)了整體的結(jié)構(gòu):

b2e83ada-ebed-11ec-ba43-dac502259ad0.jpg

有點(diǎn)類似 Prompt 學(xué)習(xí),但本文主要關(guān)注有監(jiān)督學(xué)習(xí)的設(shè)置。結(jié)果不僅效果很好,而且很容易擴(kuò)展(只要增加有標(biāo)注訓(xùn)練數(shù)據(jù)就行),計(jì)算代價(jià)也小。我覺得本文相對(duì)最有意思的一個(gè)發(fā)現(xiàn)是文中所寫:即便有成噸的參數(shù),一個(gè)模型也不能記住訓(xùn)練數(shù)據(jù)中的所有模式。所以,重新捕獲相關(guān)的訓(xùn)練數(shù)據(jù)作為一個(gè)手拉手提示器,就可以提供明確的信息來提高模型(推理)的性能。

整體架構(gòu)如下圖所示(REINA):

b316d20a-ebed-11ec-ba43-dac502259ad0.jpg

一張圖其實(shí)已經(jīng)很清楚地表達(dá)出意思了:對(duì)不同的任務(wù)構(gòu)造不同的輸入,但都會(huì)將訓(xùn)練數(shù)據(jù)拼接上后再喂入模型,得到最后的答案,這里的答案是通過語言模型生成的。檢索算法使用 BM25。

形式化模型為:

其中,M 表示生成模型,x 是輸入,大括號(hào)里的就是 top K 個(gè)檢索到的最相似的訓(xùn)練數(shù)據(jù)。

對(duì) QA 任務(wù),將輸入文本和每個(gè)選項(xiàng)拼接后作為 query,然后獲取相關(guān)的訓(xùn)練數(shù)據(jù)。如果需要加入外部知識(shí),則調(diào)整為:

其中,C 表示選項(xiàng)。拼接實(shí)體字典定義和關(guān)系 R,用來為一個(gè) Q 構(gòu)造知識(shí) K。

Ex 表示與 Q 相關(guān)的實(shí)體,Ec 表示與 A 相關(guān)的實(shí)體。本文的相關(guān)指:在句子中出現(xiàn)。

用人話簡單描述一下就是:給定 Q,在訓(xùn)練數(shù)據(jù)中找到相似的 QA 對(duì),對(duì)每個(gè) QA 對(duì),找到其中所涉及的實(shí)體和關(guān)系,然后將實(shí)體的定義和關(guān)系也拼接進(jìn)去,最后組成一長串文本作為模型輸入。

相似檢索使用 Lucene Index,模型訓(xùn)練使用 Transformers。實(shí)驗(yàn)結(jié)果(以文本摘要為例)如下:

b3394fe2-ebed-11ec-ba43-dac502259ad0.jpg

結(jié)果顯示,REINA 可以顯著提升(幾乎所有數(shù)據(jù)集)使用不同預(yù)訓(xùn)練模型初始化的基線。在 case 分析時(shí),作者發(fā)現(xiàn) REINA 的數(shù)據(jù)和真實(shí)標(biāo)簽之間有很強(qiáng)的相關(guān)性。

總之,本文的思路非常簡單,但效果卻不錯(cuò),在工業(yè)上可以一試,尤其是生成式文本摘要和 QA 任務(wù)。不過,感覺這好像也算是一種 prompt 吧,使用訓(xùn)練數(shù)據(jù)來「拉近」輸入和真實(shí)標(biāo)簽之間的距離。

本文參考資料

[1]

Training Data is More Valuable than You Think: A Simple and Effective Method by Retrieving from Training Data: https://arxiv.org/abs/2203.08773

[2]

microsoft/REINA: https://github.com/microsoft/REINA

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7318

    瀏覽量

    94127
  • 檢索
    +關(guān)注

    關(guān)注

    0

    文章

    27

    瀏覽量

    13387

原文標(biāo)題:ACL2022 | 微軟:永遠(yuǎn)不要低估你的訓(xùn)練數(shù)據(jù)!

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Ubuntu20.04系統(tǒng)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享Ubuntu20.04系統(tǒng)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是
    發(fā)表于 10-22 07:03

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    學(xué)習(xí)、大規(guī)模數(shù)據(jù)分析等前沿技術(shù)。DeepSeek-R1具備卓越的邏輯推理、多模態(tài)分析(文本/圖像/語音)和實(shí)時(shí)交互能力,能夠高效處理代碼生成、復(fù)雜問題求解、跨模態(tài)學(xué)習(xí)等高階任務(wù)。憑借其開源、高效、多
    發(fā)表于 07-16 15:29

    Aux-Think打破視覺語言導(dǎo)航任務(wù)的常規(guī)推理范式

    視覺語言導(dǎo)航(VLN)任務(wù)的核心挑戰(zhàn),是讓機(jī)器人在復(fù)雜環(huán)境中聽懂指令、看懂世界,并果斷行動(dòng)。我們系統(tǒng)性地引入推理任務(wù),探索其導(dǎo)航策略學(xué)習(xí)
    的頭像 發(fā)表于 07-08 10:00 ?461次閱讀
    Aux-Think打破視覺語言導(dǎo)航<b class='flag-5'>任務(wù)</b>的常規(guī)<b class='flag-5'>推理</b>范式

    使用MicroPython部署的ocrrec_image.py推理得到的輸出結(jié)果很差,如何解決呢?

    使用在線平臺(tái)訓(xùn)練OCR識(shí)別任務(wù),測(cè)試結(jié)果表現(xiàn)很好。 期待結(jié)果和實(shí)際結(jié)果 實(shí)際的推理結(jié)果很差,推理不出任何信息。
    發(fā)表于 04-29 06:54

    陣列云從訓(xùn)練推理

    云場景下,陣列云(分布式計(jì)算集群)從模型訓(xùn)練推理的完整技術(shù)流程可結(jié)構(gòu)化分解如下: 一、訓(xùn)練階段技術(shù)實(shí)現(xiàn) 1,資源動(dòng)態(tài)編排? 基于Kubernetes集群或云廠商彈性計(jì)算服務(wù)(如AW
    的頭像 發(fā)表于 03-28 08:32 ?563次閱讀

    數(shù)據(jù)標(biāo)注服務(wù)—奠定大模型訓(xùn)練數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。大模型訓(xùn)練,數(shù)據(jù)
    的頭像 發(fā)表于 03-21 10:30 ?2386次閱讀

    標(biāo)貝數(shù)據(jù)標(biāo)注服務(wù):奠定大模型訓(xùn)練數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。大模型訓(xùn)練,數(shù)據(jù)
    的頭像 發(fā)表于 03-21 10:27 ?905次閱讀
    標(biāo)貝<b class='flag-5'>數(shù)據(jù)</b>標(biāo)注服務(wù):奠定大模型<b class='flag-5'>訓(xùn)練</b>的<b class='flag-5'>數(shù)據(jù)</b>基石

    YOLOv5類rgb888p_size這個(gè)參數(shù)要與模型推理訓(xùn)練的尺寸一致嗎?一致會(huì)達(dá)到更好的效果?

    YOLOv5類rgb888p_size這個(gè)參數(shù)要與模型推理訓(xùn)練的尺寸一致嗎,一致會(huì)達(dá)到更好的效果
    發(fā)表于 03-11 08:12

    壁仞科技支持DeepSeek-V3滿血版訓(xùn)練推理

    DeepSeek開源周開源了部分關(guān)鍵模塊的代碼及推理系統(tǒng)參考架構(gòu),再次引發(fā)行業(yè)震動(dòng),但目前尚未開源DeepSeek-V3 滿血版完整訓(xùn)練代碼。壁仞科技憑借八大自主創(chuàng)新技術(shù),實(shí)現(xiàn)
    的頭像 發(fā)表于 03-04 14:01 ?1962次閱讀

    DeepSeek推出NSA機(jī)制,加速長上下文訓(xùn)練推理

    的特性,專為超快速的長上下文訓(xùn)練推理而設(shè)計(jì)。 NSA通過針對(duì)現(xiàn)代硬件的優(yōu)化設(shè)計(jì),顯著加快了推理速度,并大幅度降低了預(yù)訓(xùn)練成本,同時(shí)保持了卓越的性能表現(xiàn)。這一機(jī)制
    的頭像 發(fā)表于 02-19 14:01 ?948次閱讀

    AI大模型汽車應(yīng)用推理、降本與可解釋性研究

    ,加強(qiáng)大模型對(duì)復(fù)雜任務(wù)處理能力和自主決策能力。 部分大模型公司的推理模型發(fā)布情況 來源:佐思汽研《2024-2025年AI大模型及其汽車領(lǐng)域的應(yīng)用研究報(bào)告》 推理模型的密集上線,是為
    的頭像 發(fā)表于 02-18 15:02 ?1905次閱讀
    AI大模型<b class='flag-5'>在</b>汽車應(yīng)用<b class='flag-5'>中</b>的<b class='flag-5'>推理</b>、降本與可解釋性研究

    FP8大模型訓(xùn)練的應(yīng)用

    。如果在訓(xùn)練時(shí)使用 FP8 精度,可以更方便快速的將 FP8 部署到推理側(cè),使 FP8 訓(xùn)練可以更容易順暢地與低精度推理相結(jié)合等。
    的頭像 發(fā)表于 01-23 09:39 ?1944次閱讀
    FP8<b class='flag-5'>在</b>大模型<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>中</b>的應(yīng)用

    智譜GLM-Zero深度推理模型預(yù)覽版正式上線

    。 GLM-Zero-Preview專注于提升AI的推理能力,擅長處理數(shù)理邏輯、代碼以及需要深度推理的復(fù)雜問題。據(jù)官方介紹,與同基座模型相比,GLM-Zero-Preview不顯著降低通用
    的頭像 發(fā)表于 01-02 10:55 ?841次閱讀

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    布外任務(wù)展示出多樣化和復(fù)雜的推廣能力。 知識(shí)載體 知識(shí)嵌入訓(xùn)練期間學(xué)習(xí)的模型參數(shù)。 知識(shí)載體是記憶和隱藏狀態(tài),專注于上下文學(xué)習(xí)和適應(yīng)。 可擴(kuò)展性 通過擴(kuò)展參數(shù)和預(yù)
    發(fā)表于 12-24 15:03

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+數(shù)據(jù)具身人工智能的價(jià)值

    活動(dòng)挖掘互聯(lián)網(wǎng)數(shù)據(jù),但 EAI 數(shù)據(jù)必須在各種且通常不可預(yù)測(cè)的環(huán)境捕獲無數(shù)物理交互。 例如,雖然易于訪問的聊天數(shù)據(jù)允許使用 570 GB
    發(fā)表于 12-24 00:33