chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

針對電商場景調(diào)優(yōu)BERT的論文

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2020-09-25 16:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近跟幾個做電商NLP的朋友們聊天,有不少收獲。我之前從來沒想過【搜索】在電商里的地位是如此重要,可能GMV的50%以上都是從搜索來的。巨大的經(jīng)濟價值也極大地推動了技術(shù)的發(fā)展,他們的工作做得很細(xì)致,畢竟一個百分點的點擊率后購買率提升也許對應(yīng)的就是幾百億的成交額。

其實之前做的汽車領(lǐng)域NLP工作跟電商有很多相似的地方,場景先驗都非常重要。直接使用開放域語料預(yù)訓(xùn)練的語言模型效果并不好。我們也嘗試過一些方法,例如用本領(lǐng)域語料訓(xùn)練語言模型,結(jié)合一些詞庫詞典等等。今天介紹最近看到的一篇針對電商場景調(diào)優(yōu)BERT的論文《E-BERT: Adapting BERT to E-commerce with Adaptive Hybrid Masking and Neighbor Product Reconstruction》[1],其中的一些方法應(yīng)該對細(xì)分領(lǐng)域NLP有一些啟發(fā)。

方法

論文的創(chuàng)新方法主要有兩個:Adaptive Hybrid Masking(AHM,自適應(yīng)混合掩碼)和Neighbor Product Reconstruction(NPR,相似商品重構(gòu))。

E-BERT總覽

AHM

第一個方法AHM其實是對已有掩碼方式的改進。原始版本的BERT采用的是隨機mask,這個大家應(yīng)該都比較清楚。這種mask方式針對的是token,而眾所周知token是由單詞通過wordpiece tokenizer分割而來。所以這種方式遮蓋住的可能是單詞的一個部分,學(xué)習(xí)這種類似看三個字母猜剩下四個字母的任務(wù)不是很符合大家的直覺。隨后就誕生了更加符合人類認(rèn)知的Whole Word Masking,這個方法就是說要遮就遮整個詞。這里用一個網(wǎng)上的例子幫大家理解

InputText:themanjumpedup,puthisbasketonphil##am##mon'shead OriginalMaskedInput:[MASK]man[MASK]up,puthis[MASK]onphil[MASK]##mon'shead WholeWordMaskedInput:theman[MASK]up,puthisbasketon[MASK][MASK][MASK]'shead

philammon是一個詞,他會被tokenizer分解成三個token,這時就體現(xiàn)了普通mask和WWM的區(qū)別。

怎么繼續(xù)改進遮蓋方法呢,一個比較直觀的方向是繼續(xù)提高遮蓋的整體性。前面是從token走到了word,可以繼續(xù)往前走一步到phrase。這個方向其實之前有人做了,比如SpanBert[2]隨機mask一小段,ERNIE[3]mask實體等等。這篇論文做了兩個工作,一個是進一步提升遮蓋phrase的質(zhì)量,用了一種叫AutoPhrase[4]的方法來構(gòu)建高質(zhì)量的電商短語集合;第二個是設(shè)計了一套自適應(yīng)機制,讓模型訓(xùn)練在詞語遮蓋和短語遮蓋間切換,兩個方面合在一起就叫做AHM。

AHM總體的流程如下圖所示。對于一句輸入,首先用兩種方式進行mask,左邊是常規(guī)word mask,右邊是phrase mask,然后輸入到BERT,分別得到MLM的loss,Lw和Lp。然后用一個函數(shù)f,根據(jù)兩個loss計算變量,跟預(yù)設(shè)的超參數(shù)進行比較,如果就用word masking,反之就用phrase masking。的計算其實可以有很多方法,論文也沒有在這塊做對比實驗,我也就不展開,大家有興趣可以去看原文。

AHM總體流程

NPR

NPR是個比較有意思的部分,直觀的解釋是希望能通過一個商品重建出另一個相似商品的隱空間表示。具體的做法是把兩個商品a和b的文本內(nèi)容送進Bert,得到各自的embedding矩陣;然后對這兩個句子做交叉注意力,得到注意力矩陣,然后用注意力矩陣加權(quán)a的embedding得到重構(gòu)后的b的embedding,反過來也從b重構(gòu)a。得到重構(gòu)后的embedding后再和原embedding計算距離作為loss,論文采用的是歐氏距離。只做相似商品重構(gòu)還不夠,論文還引入了不相似商品(隨機采樣)作為負(fù)樣本,采用triplet loss來計算最終的重構(gòu)損失。

NPR示意圖

效果

論文的實驗和結(jié)果比較部分做的比較全面。

先介紹一下對照實驗涉及的模型。baseline是裸BERT(BERT Raw),用電商數(shù)據(jù)finetune過的Bert外加SpanBERT作為對照組,finetune有兩種方法,分別是word masking的Bert和phrase masking的Bert-NP。實驗組是各種配置的E-Bert,包括只使用phrase masking的E-Bert-DP,使用AHM的E-Bert-AHM和AHM+NPR的E-Bert。

評估效果使用了4個電商場景場景的下游任務(wù),Review-based Question Answering(基于評論的問答),Review Aspect Extraction(評論方面抽取?),Review Aspect Sentiment Classification(評論情感分類)和Product Classification(商品類別分類)。

不同模型在不同任務(wù)上的結(jié)果如下圖

模型結(jié)果比較

從結(jié)果可以看出E-BERT在各種任務(wù)上都大幅領(lǐng)先裸BERT,甚至也大幅領(lǐng)先基于領(lǐng)域語料預(yù)訓(xùn)練過的BERT。文章的方法其實可以在任何的垂直領(lǐng)域中使用,可以說相當(dāng)?shù)膶嵱谩?/p>

最近一個討論比較多的問題是在BERT時代,NLP算法工程師的價值是什么?我想這個結(jié)果可以從一個側(cè)面給答案,知道如何在模型中引入行業(yè)先驗知識是可以大大提高模型在特定場景的表現(xiàn)的,即使如BERT這樣自身很強的超級模型也不例外。

參考資料

[1]

E-BERT: Adapting BERT to E-commerce with Adaptive Hybrid Masking and Neighbor Product Reconstruction: https://arxiv.org/pdf/2009.02835

[2]

SpanBERT: Improving Pre-training by Representing and Predicting Spans: http://arxiv.org/abs/1907.10529

[3]

ERNIE: Enhanced Language Representation with Informative Entities: http://arxiv.org/abs/1905.07129

[4]

AutoPhrase: https://github.com/shangjingbo1226/AutoPhrase

責(zé)任編輯:xj

原文標(biāo)題:E-BERT: 電商領(lǐng)域語言模型優(yōu)化實踐

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    566

    瀏覽量

    11177
  • AHM
    AHM
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    7586
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23042

原文標(biāo)題:E-BERT: 電商領(lǐng)域語言模型優(yōu)化實踐

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    HarmonyOSAI編程智慧調(diào)優(yōu)

    DevEco Studio提供智慧調(diào)優(yōu)能力,支持通過自然語言交互,分析并解釋當(dāng)前實例或項目中存在的性能問題,幫助開發(fā)者快速定位影響性能的具體原因。該功能從DevEco Studio 6.0.0
    發(fā)表于 09-01 15:15

    HarmonyOS AI輔助編程工具(CodeGenie)智慧調(diào)優(yōu)

    DevEco Studio提供智慧調(diào)優(yōu)能力,支持通過自然語言交互,分析并解釋當(dāng)前實例或項目中存在的性能問題,幫助開發(fā)者快速定位影響性能的具體原因。該功能從DevEco Studio 6.0.0
    發(fā)表于 08-14 11:12

    Linux網(wǎng)絡(luò)性能調(diào)優(yōu)方案

    在當(dāng)今高并發(fā)、大流量的互聯(lián)網(wǎng)環(huán)境下,網(wǎng)絡(luò)性能往往成為系統(tǒng)的瓶頸。作為一名資深運維工程師,我在生產(chǎn)環(huán)境中遇到過無數(shù)次因為TCP/IP參數(shù)配置不當(dāng)導(dǎo)致的性能問題。今天分享一套完整的Linux網(wǎng)絡(luò)性能調(diào)優(yōu)方案,幫助大家徹底解決網(wǎng)絡(luò)性能瓶頸。
    的頭像 發(fā)表于 08-06 18:01 ?736次閱讀

    Linux內(nèi)核參數(shù)調(diào)優(yōu)方案

    在高并發(fā)微服務(wù)環(huán)境中,網(wǎng)絡(luò)性能往往成為K8s集群的瓶頸。本文將深入探討如何通過精細(xì)化的Linux內(nèi)核參數(shù)調(diào)優(yōu),讓你的K8s節(jié)點網(wǎng)絡(luò)性能提升30%以上。
    的頭像 發(fā)表于 08-06 17:50 ?560次閱讀

    Linux系統(tǒng)性能調(diào)優(yōu)方案

    關(guān)鍵要點預(yù)覽:本文將深入解析Linux系統(tǒng)性能瓶頸的根本原因,提供可直接落地的調(diào)優(yōu)方案,讓你的系統(tǒng)性能提升30-50%!
    的頭像 發(fā)表于 08-06 17:49 ?461次閱讀

    MySQL配置調(diào)優(yōu)技巧

    上個月,我們公司的核心業(yè)務(wù)系統(tǒng)突然出現(xiàn)大面積超時,用戶投訴電話不斷。經(jīng)過緊急排查,發(fā)現(xiàn)是MySQL服務(wù)器CPU飆升到99%,大量慢查詢堆積。通過一系列配置調(diào)優(yōu)和SQL優(yōu)化,最終在30分鐘內(nèi)恢復(fù)了服務(wù)。
    的頭像 發(fā)表于 07-31 10:27 ?266次閱讀

    Nginx在企業(yè)環(huán)境中的調(diào)優(yōu)策略

    Nginx作為現(xiàn)代互聯(lián)網(wǎng)架構(gòu)中最重要的Web服務(wù)器和反向代理服務(wù)器,其性能調(diào)優(yōu)對企業(yè)級應(yīng)用的穩(wěn)定性和效率至關(guān)重要。本指南將從運維實踐角度出發(fā),詳細(xì)介紹Nginx在企業(yè)環(huán)境中的各種調(diào)優(yōu)
    的頭像 發(fā)表于 07-14 11:13 ?315次閱讀

    手把手教你如何調(diào)優(yōu)Linux網(wǎng)絡(luò)參數(shù)

    在高并發(fā)網(wǎng)絡(luò)服務(wù)場景中,Linux內(nèi)核的默認(rèn)網(wǎng)絡(luò)參數(shù)往往無法滿足需求,導(dǎo)致性能瓶頸、連接超時甚至服務(wù)崩潰。本文基于真實案例分析,從參數(shù)解讀、問題診斷到優(yōu)化實踐,手把手教你如何調(diào)優(yōu)Linux網(wǎng)絡(luò)參數(shù),支撐百萬級并發(fā)連接。
    的頭像 發(fā)表于 05-29 09:21 ?450次閱讀

    HarmonyOS NEXT 原生應(yīng)用/元服務(wù)-DevEco Profiler整體界面布局及概念

    DevEco Profiler工具的界面分為兩大區(qū)域: ①會話區(qū):負(fù)責(zé)調(diào)優(yōu)會話的管理。會話區(qū)提供了性能實時監(jiān)控工具Realtime Monitor來幫助開發(fā)者先明確問題場景,完成問題的發(fā)現(xiàn)和初步
    發(fā)表于 02-17 14:55

    xgboost超參數(shù)調(diào)優(yōu)技巧 xgboost在圖像分類中的應(yīng)用

    一、XGBoost超參數(shù)調(diào)優(yōu)技巧 XGBoost(eXtreme Gradient Boosting)是一種基于梯度提升決策樹(GBDT)的高效梯度提升框架,在機器學(xué)習(xí)競賽和實際業(yè)務(wù)應(yīng)用中取得了卓越
    的頭像 發(fā)表于 01-31 15:16 ?1843次閱讀

    針對步進電機的專用驅(qū)動方案MD400系列調(diào)

    MD400系列調(diào)針對步進電機的專用驅(qū)動方案,自帶磁編碼器芯片,采用FOC方式驅(qū)動步進電機,支持欠壓、過壓、過流和堵轉(zhuǎn)保護等功能,支持UART、RS-485、CAN通信控制和脈沖方式控制,支持標(biāo)準(zhǔn)
    的頭像 發(fā)表于 01-23 14:13 ?730次閱讀
    <b class='flag-5'>針對</b>步進電機的專用驅(qū)動方案MD400系列<b class='flag-5'>電</b><b class='flag-5'>調(diào)</b>

    用VESC調(diào)代替STLink給VESC調(diào)刷固件 可刷所有的基于VESC的調(diào)固件

    一、設(shè)備準(zhǔn)備1.1、VESC調(diào)準(zhǔn)備一個能夠正常運行的VESC,另外準(zhǔn)備一個需要用用SWD的方式刷固件的調(diào)(可以是更換了新的MCU芯片的調(diào)
    發(fā)表于 12-01 21:31

    MCF8316A調(diào)優(yōu)指南

    電子發(fā)燒友網(wǎng)站提供《MCF8316A調(diào)優(yōu)指南.pdf》資料免費下載
    發(fā)表于 11-20 17:21 ?2次下載
    MCF8316A<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>指南

    MCT8316A調(diào)優(yōu)指南

    電子發(fā)燒友網(wǎng)站提供《MCT8316A調(diào)優(yōu)指南.pdf》資料免費下載
    發(fā)表于 11-13 13:49 ?0次下載
    MCT8316A<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>指南

    MCT8315A調(diào)優(yōu)指南

    電子發(fā)燒友網(wǎng)站提供《MCT8315A調(diào)優(yōu)指南.pdf》資料免費下載
    發(fā)表于 11-12 14:14 ?1次下載
    MCT8315A<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>指南