chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

雙塔模型擴(kuò)量負(fù)樣本的方法比較

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:NewBeeNLP ? 作者:雨下 ? 2022-07-08 10:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

之前有一段時(shí)間做過(guò)雙塔的召回模型[1],線上各個(gè)指標(biāo)有了不錯(cuò)的提升。目前雙塔模型也是被各大公司鐘愛(ài)的召回模型。對(duì)主流召回模型的分享整理在:總結(jié)下自己做過(guò)的深度召回模型

雙塔模型在訓(xùn)練時(shí)是對(duì)一個(gè)batch內(nèi)樣本訓(xùn)練。一個(gè)batch內(nèi)每個(gè)樣本 (user和item對(duì))為正樣本,該user與batch內(nèi)其它item為負(fù)樣本。這樣訓(xùn)練的方式可能有以下問(wèn)題:

負(fù)樣本的個(gè)數(shù)不足。訓(xùn)練時(shí)負(fù)樣本個(gè)數(shù)限制在了batch內(nèi)樣本數(shù)減1,而線上serving時(shí)需要在所有候選集中召回用戶感興趣的樣本。模型只能從當(dāng)前batch內(nèi)區(qū)分出batch內(nèi)正樣本,無(wú)法很好地從所有候選集中區(qū)分正樣本。

未點(diǎn)擊的item沒(méi)有做負(fù)樣本。由于batch內(nèi)的item都是被點(diǎn)擊過(guò)的,因此沒(méi)有被點(diǎn)擊item無(wú)法成為負(fù)樣本,在線上serving容易它們被召回出來(lái)。一種解決方法是之前沒(méi)被點(diǎn)擊過(guò)的item不導(dǎo)出到候選集中,然而這樣存在的問(wèn)題是召回的item很多是之前點(diǎn)擊的熱門item,而很多冷門的item沒(méi)有機(jī)會(huì)召回。

最近,有兩篇文章提出了雙塔模型擴(kuò)量負(fù)樣本的方法。這兩種方法我也曾嘗試過(guò),線下線上指標(biāo)也有一定的提升。

一、Two Tower Model

再介紹其它方法之前,先回顧一下經(jīng)典的雙塔模型建模過(guò)程。

用 表示雙塔模型計(jì)算的user 和item 的相似性:

是表示user塔,輸出user表示向量; 是item,輸出item表示向量。最后相似性是兩個(gè)向量的余弦值。batch內(nèi)概率計(jì)算公式為:表示一個(gè)batch的意思。損失函數(shù)是交叉熵。

作者在計(jì)算user和item的相似度時(shí),用了兩個(gè)優(yōu)化方法:

。 可以擴(kuò)大相似度范圍,擴(kuò)大差距。

。 是item 在隨機(jī)樣本中被采樣的概率,也就是被點(diǎn)擊的概率。

關(guān)于優(yōu)化2的解釋有很多。論文中說(shuō)熱門item出現(xiàn)在batch內(nèi)概率較大,因此會(huì)被大量做負(fù)樣本。另一種解釋是增加對(duì)冷門item的相似度。相比熱門item,冷門item更能反映用戶興趣。

圖1反映了雙塔模型的batch采樣過(guò)程。query也可以表示user。我們采樣一個(gè)batch的user和對(duì)應(yīng)正樣本的item,計(jì)算各自的embedding后,通過(guò)點(diǎn)乘得到logits(B*B)的矩陣。label矩陣是一個(gè)單位矩陣。logit矩陣與label矩陣的每對(duì)行向量一起求交叉熵。

e387cbe6-f6d4-11ec-ba43-dac502259ad0.png

圖1:雙塔模型batch采樣

二、Mixed Negative Samping(MNS)

MNS[2]與雙塔模型[1]出自谷歌團(tuán)隊(duì)的同一批作者。用一個(gè)batch數(shù)據(jù)訓(xùn)練時(shí),MNS還會(huì)在所有的數(shù)據(jù)集中采樣出 個(gè)item。這樣可以讓所有的item參與到訓(xùn)練中,一些曝光未點(diǎn)擊的item也會(huì)當(dāng)作負(fù)樣本。同時(shí),雙塔模型中使用的 等于訓(xùn)練樣本中的頻率加上所有數(shù)據(jù)集中的頻率分布。概率公式重新定義如下:

作者在這里只對(duì)負(fù)樣本的相似性減去了頻率的log值。

MNS的batch采樣方法見(jiàn)圖2。最終計(jì)算的logits和label矩陣是一個(gè)B*(B+B')維的。其實(shí)就是在圖1展示的基礎(chǔ)上再增加B'列。logits的最后B'列是user與B‘內(nèi)的item計(jì)算的相似性,label的最后B'列是全0矩陣。

相比于每個(gè)樣本都隨機(jī)采樣出一定量的負(fù)樣本,為每個(gè)batch都采樣出B‘個(gè)負(fù)樣本的不僅有先前雙塔模型的計(jì)算效率,也緩和負(fù)樣本不足的問(wèn)題,并且讓每個(gè)樣本均有機(jī)會(huì)做負(fù)樣本。

e3a3695a-f6d4-11ec-ba43-dac502259ad0.png

圖2:MNS的batch采樣

三、Cross Batch Negative Samping(CBNS)

CBNS[2]是清華大學(xué)和華為合作提出的方法。文中提到,雙塔模型的計(jì)算優(yōu)勢(shì)在于利用了batch內(nèi)的負(fù)樣本,減小的計(jì)算量。如果我們想擴(kuò)大batch內(nèi)樣本個(gè)數(shù),加大負(fù)樣本個(gè)數(shù),需要很多的內(nèi)存。因此,作者提出一個(gè)使用之前訓(xùn)練過(guò)的item作為負(fù)樣本的方法。

神經(jīng)網(wǎng)絡(luò)訓(xùn)練達(dá)到一定輪數(shù)后,會(huì)對(duì)相同的樣本產(chǎn)生穩(wěn)定的向量。作者在論文中定義了這個(gè)想法。因此把之前訓(xùn)練過(guò)的item作為當(dāng)前訓(xùn)練的負(fù)樣本時(shí),模型只需要把這些item的向量拿過(guò)來(lái)使用,不需要再輸出到神經(jīng)網(wǎng)絡(luò)中產(chǎn)生新的向量,畢竟這兩種向量的差距較小。

作者使用了FIFO(先進(jìn)先出)隊(duì)列,item塔輸出向量時(shí),會(huì)放進(jìn)FIFO中。當(dāng)warm-up training達(dá)到一定的輪數(shù)后,訓(xùn)練模型時(shí),會(huì)從FIFO拿出一批向量作為負(fù)樣本的向量。這樣做不僅減少了計(jì)算量,在擴(kuò)充負(fù)樣本的時(shí)候也減少了內(nèi)存的使用。計(jì)算公式與MNS差別不大:

也就是內(nèi)容一中的優(yōu)化2。B'在這里是從FIFO中取出的一批向量。

圖3展示了CBNS與只用batch內(nèi)負(fù)樣本的不同。CBNS維持了一個(gè)memory bank。在訓(xùn)練時(shí),會(huì)從里面拿出一定量的向量。

然而,CBNS的負(fù)樣本只有點(diǎn)擊過(guò)的樣本,未點(diǎn)擊的樣本無(wú)法作為負(fù)樣本。

e3b87548-f6d4-11ec-ba43-dac502259ad0.png

圖3:CBNS采樣方法

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103685
  • fifo
    +關(guān)注

    關(guān)注

    3

    文章

    402

    瀏覽量

    44823

原文標(biāo)題:雙塔模型如何選擇負(fù)樣本?

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    模型推理顯存和計(jì)算估計(jì)方法研究

    過(guò)程中需要占用大量顯存,導(dǎo)致推理速度變慢,甚至無(wú)法進(jìn)行。 計(jì)算量過(guò)大:大模型的計(jì)算較大,導(dǎo)致推理速度慢,難以滿足實(shí)時(shí)性要求。 為了解決這些問(wèn)題,本文將針對(duì)大模型推理顯存和計(jì)算的估計(jì)
    發(fā)表于 07-03 19:43

    EastWave應(yīng)用:負(fù)折射現(xiàn)象實(shí)時(shí)演示

    本案例使用“自定義模式”演示負(fù)折射現(xiàn)象。 模型示意圖 本案例為二維結(jié)構(gòu),將Y、Z 方向設(shè)置為周期邊界,即Y、Z 方向?yàn)闊o(wú)限大拓展的平板,X 方向設(shè)置開(kāi)放邊界。本案例主要采用點(diǎn)光源入射到平板上來(lái)實(shí)時(shí)
    發(fā)表于 06-13 08:41

    嵌入式AI技術(shù)漫談:怎么為訓(xùn)練AI模型采集樣本數(shù)據(jù)

    Q 需要為嵌入式AI模型提供多少樣本數(shù)據(jù)? 我在向客戶介紹如何使用AI方法設(shè)計(jì)一款客戶產(chǎn)品時(shí),客戶理解,AI嵌入式項(xiàng)目的開(kāi)發(fā)都是圍繞數(shù)據(jù)展開(kāi)的,如此,我經(jīng)常會(huì)被問(wèn)到這樣的問(wèn)題:客戶的工程師需要采集
    的頭像 發(fā)表于 06-11 16:30 ?612次閱讀

    ADHV4702擴(kuò)壓電路和擴(kuò)流電路是否可以同時(shí)使用嗎?

    ADHV4702擴(kuò)壓電路和擴(kuò)流電路是否可以同時(shí)使用嗎,芯片8腳和5腳是否可以NC
    發(fā)表于 03-21 06:25

    請(qǐng)問(wèn)是否有任何OpenVINO?樣本可以推斷批次大小大于1的檢測(cè)模型

    是否有任何OpenVINO?樣本可以推斷批次大小大于 1 的檢測(cè)模型?
    發(fā)表于 03-06 07:19

    ??低暟l(fā)布多模態(tài)大模型文搜存儲(chǔ)系列產(chǎn)品

    多模態(tài)大模型為安防行業(yè)帶來(lái)重大技術(shù)革新,基于觀瀾大模型技術(shù)體系,??低晫⒋髤?shù)量、大樣本的圖文多模態(tài)大模型與嵌入式智能硬件深度融合,發(fā)布
    的頭像 發(fā)表于 02-18 10:33 ?687次閱讀

    EastWave應(yīng)用:負(fù)折射現(xiàn)象實(shí)時(shí)演示

    本案例使用“自定義模式”演示負(fù)折射現(xiàn)象。 模型示意圖 本案例為二維結(jié)構(gòu),將Y、Z 方向設(shè)置為周期邊界,即Y、Z 方向?yàn)闊o(wú)限大拓展的平板,X 方向設(shè)置開(kāi)放邊界。本案例主要采用點(diǎn)光源入射到平板上來(lái)實(shí)時(shí)
    發(fā)表于 02-17 09:48

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    重復(fù)項(xiàng)或使用編輯距離算法比較文本相似度。數(shù)據(jù)標(biāo)注:高質(zhì)量的數(shù)據(jù)標(biāo)注直接影響模型的性能。標(biāo)注過(guò)程應(yīng)遵循明確標(biāo)注規(guī)則、選擇合適的標(biāo)注工具、進(jìn)行多輪審核和質(zhì)量控制等原則。數(shù)據(jù)增強(qiáng):提高模型泛化能力的有效
    發(fā)表于 01-14 16:51

    Kaggle知識(shí)點(diǎn):使用大模型進(jìn)行特征篩選

    方法依賴于數(shù)據(jù)集中的樣本點(diǎn)進(jìn)行統(tǒng)計(jì)推斷,而基于文本的方法需要描述性的上下文以更好地在特征和目標(biāo)變量之間建立語(yǔ)義關(guān)聯(lián)。這種方法利用了大型語(yǔ)言模型
    的頭像 發(fā)表于 12-03 01:06 ?1728次閱讀
    Kaggle知識(shí)點(diǎn):使用大<b class='flag-5'>模型</b>進(jìn)行特征篩選

    云端語(yǔ)言模型開(kāi)發(fā)方法

    云端語(yǔ)言模型的開(kāi)發(fā)是一個(gè)復(fù)雜而系統(tǒng)的過(guò)程,涉及數(shù)據(jù)準(zhǔn)備、模型選擇、訓(xùn)練優(yōu)化、部署應(yīng)用等多個(gè)環(huán)節(jié)。下面,AI部落小編為您分享云端語(yǔ)言模型的開(kāi)發(fā)方法。
    的頭像 發(fā)表于 12-02 10:48 ?694次閱讀

    RNN與LSTM模型比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(長(zhǎng)短期記憶網(wǎng)絡(luò))模型在深度學(xué)習(xí)領(lǐng)域都具有處理序列數(shù)據(jù)的能力,但它們?cè)诮Y(jié)構(gòu)、功能和應(yīng)用上存在顯著的差異。以下是對(duì)RNN與LSTM模型比較分析: 一、基本原理與結(jié)構(gòu)
    的頭像 發(fā)表于 11-15 10:05 ?2229次閱讀

    常見(jiàn)AI大模型比較與選擇指南

    在選擇AI大模型時(shí),明確具體需求、了解模型的訓(xùn)練數(shù)據(jù)、計(jì)算資源要求和成本,并考慮模型的可解釋性和社區(qū)支持情況等因素至關(guān)重要。以下是對(duì)常見(jiàn)AI大模型
    的頭像 發(fā)表于 10-23 15:36 ?2677次閱讀

    AI大模型的性能優(yōu)化方法

    AI大模型的性能優(yōu)化是一個(gè)復(fù)雜而關(guān)鍵的任務(wù),涉及多個(gè)方面和策略。以下是一些主要的性能優(yōu)化方法: 一、模型壓縮與優(yōu)化 模型蒸餾(Model Distillation) 原理:通過(guò)訓(xùn)練一個(gè)
    的頭像 發(fā)表于 10-23 15:01 ?2428次閱讀

    氣密性檢測(cè):為什么在負(fù)壓測(cè)試中泄漏是正值,什么時(shí)候出現(xiàn)負(fù)值

    本文介紹了氣密性檢測(cè)的基本原理,解釋了為什么在正壓和負(fù)壓測(cè)試中泄漏都顯示為正值,還揭示了差壓氣密性檢測(cè)結(jié)果出現(xiàn)負(fù)值的有趣現(xiàn)象。通視頻案例,幫助讀者輕松理解氣密性檢測(cè)中的各種情況,提高實(shí)際工作中解決問(wèn)題的能力。
    的頭像 發(fā)表于 08-22 16:59 ?1541次閱讀
    氣密性檢測(cè):為什么在<b class='flag-5'>負(fù)</b>壓測(cè)試中泄漏<b class='flag-5'>量</b>是正值,什么時(shí)候出現(xiàn)負(fù)值

    OPA564能否補(bǔ)償擴(kuò)寬增益帶寬積?

    OPA564有無(wú)方法擴(kuò)寬增益帶寬積,若無(wú),是否有能滿足2Mhz正弦偏置電流輸出能力的方法
    發(fā)表于 07-30 07:16