chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

用于中文縮略詞預測的序列生成模型研究

深度學習自然語言處理 ? 來源:知識工場 ? 作者:曹愷燕 ? 2022-11-14 14:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

研究背景

縮略詞是單詞或短語的縮寫形式。為了方便寫作和表達,在文本中提及某個實體時,人們傾向于使用縮寫名稱而不是它的完整形式(名稱)。理解縮略詞,尤其是實體的縮寫名稱,是知識圖譜構建和應用的關鍵步驟??s略詞處理主要包括三個任務:縮略詞擴展,縮略詞識別和提取,以及縮略詞預測。毫無疑問,縮略詞處理在各種自然語言處理 (NLP) 任務中發(fā)揮著重要作用例如信息檢索、實體鏈接等任務。

在本文中,我們重點關注縮略詞處理的第三個任務,即縮略詞預測,其目標是預測實體完整形式的可能縮寫形式。縮略詞實際上是一個子序列,由一個詞或一些字符按完整形式的順序排列。不同于英文縮略詞(通常是首字母縮略詞),中文縮略詞形式更加復雜多樣。

如表 1 所示,縮略詞可以是位于實體完整形式中的第一個詞(“復旦”)也可以是最后一個詞(“迪士尼”),并且可能包含實體中一些不連續(xù)但有序的字符(“北大”)。而且,一個實體的縮略詞可以有多種形式(“央視”或“中央臺”)。因此,作為一項更具挑戰(zhàn)性的任務,中文縮略詞預測已成為近年來的研究熱點。

▲ 表1. 中文縮略詞的幾個實例

現(xiàn)有的中文縮略詞預測方法可以被認為是基于特征的方法。它們通常是將縮略詞預測作為序列標記問題,即對每個 token 作二分類,去判斷是否該字符是否應保留在縮略詞中。盡管取得了成就,但以前的方法仍然有以下缺點:一方面,他們只使用轉移矩陣來尋找最高概率的標簽,未能充分利用標簽依賴關系;另一方面,他們忽略了實體相關文本的豐富信息,只利用實體本身的語義。事實上,我們可以獲取足夠的與給定實體相關的文本例如百度百科文本、景點 POI 實體評論和 query 文本,能提供模型預測縮寫的信號。

為了解決這些問題,我們將中文縮略詞預測看作從全稱實體序列到縮略詞序列的定長機器翻譯任務。貢獻包括,首先,我們提出了一種用于中文縮略詞預測的序列生成模型。其次,我們將實體相關上下文納入中文縮略詞預測任務,為模型提供了更多語義信息。最后,我們構建了旅游中文縮略詞數(shù)據(jù)集。此外,我們在飛豬搜索系統(tǒng)上部署的縮略詞實現(xiàn)了 2.03% 的轉化率提升。

研究框架

問題建模:針對給定的一個全稱實體 和其對應的相關文本,CETAR 能生成一個其對應的縮略詞序列。

模型框架:我們的模型框架由上下文增強編碼器和縮略-恢復解碼器組成。圖 2 是 CETAR 模型架構框架圖。

▲ 圖2:基于上下文增強和縮略-恢復策略的縮略詞transformer框架圖

2.1 上下文增強編碼器

首先,將實體的完整形式 x 及其相關文本 d 都輸入到這個模塊。使用與 BERT 相同的初始化操作得到初始 embedding,以及它們的位置 embedding 一起輸入 transformer encoder block,生成一些重要的特征表示。為了減少數(shù)據(jù)的噪音,最終只取實體對應的隱狀態(tài)輸入到解碼器當中,以便后續(xù)的解碼。

2.2 縮略-恢復解碼器

這是我們模型生成縮略詞序列的關鍵模塊。它是用 transformer decoder block 和縮寫及恢復策略對應的兩個分類器分別構成。整個解碼過程是實際上是一個迭代的過程。具體來說,在每一輪開始時,輸入上一輪過程輸出的由 n+2 個 token 組成的 token 序列。然后,每個 token 的初始 embedding 附加其位置 embedding,伴隨著解碼器的輸出 H, 然后輸入第一個 transformer decoder block。最后,我們將最后一個 block 輸出的隱藏狀態(tài)作為后續(xù)兩個分類器的輸入。

隨著所有標記的隱藏狀態(tài),縮寫分類器或恢復分類器判斷序列中哪個 token 應該縮寫或恢復。在第k輪解碼過程中,縮寫分類器首先判斷序列中的每個 token 是否應該縮寫。類似地,恢復分類器判斷序列中每個特殊的縮略詞*是應該保留還是恢復到相同位置的源 token。如下式所示,其中:

縮略分類器:

恢復分類器:

最后,縮略詞序列中的所有 * 都被刪除,并且因此我們得到了源實體的最終縮略詞。

實驗結果

我們將 CETAR 與基線模型在三個中文縮寫數(shù)據(jù)集上進行了比較,其中兩個屬于通用領域,一個屬于特定的景點領域。后者是基于阿里飛豬景點 POI 實體及其別名構建的中文縮略詞數(shù)據(jù)集。對于通用領域的數(shù)據(jù)集中的實體,我們選取了其百度百科描述性文本的第一句話作為相關文本;而對于飛豬中文縮略詞數(shù)據(jù)集中的景點 POI 實體,我們則是以其最相關的評論文本及 query 文本作為相關文本。

至于評價指標,首先,我們使用 Hit 作為指標來比較模型的性能。測試樣本被視為命中樣本如果它的預測縮寫和它 ground-truth 縮寫一模一樣。而 Hit score 是命中樣本占所有測試樣本的比例。此外,考慮到一些實體有多個縮寫,我們進一步考慮了以下指標,這些指標是基于對從測試集中隨機選擇的 500 個樣本的人工評估計算得出的,包括正確樣本、NA、NW 和 WOM 在所有人類評估樣本中的比例。

具體來說,NA 表示預測的縮略詞是正確的,但和 ground-truth 的縮略詞不同。NW 代表錯誤且語言結構異常的預測縮略詞,而 WOM 代表錯誤但語言結構正常的預測縮略詞。具體實例可見表 2。

▲ 表2: 縮略詞的四種不同形式實例

▲ 表3: 數(shù)據(jù)集一各模型表現(xiàn)

▲ 表4: 數(shù)據(jù)集二和數(shù)據(jù)集三各模型表現(xiàn)

從表 3 和表 4,我們得到以下結論:

1. 在命中率和準確性方面,我們的 CETAR 在通用領域數(shù)據(jù)集( 和 )和特定領域數(shù)據(jù)集()上都優(yōu)于所有基線。

2. 所有模型的 NW 分數(shù)幾乎都高于其 WOM 分數(shù),說明不正確的分詞是導致錯誤預測的主要原因。因此,單詞邊界的信息對于準確的縮略詞預測非常重要。

3. 我們還發(fā)現(xiàn),大多數(shù)模型在 上的準確度得分都優(yōu)于 和 。這是因為旅游 POI 的縮寫通常由完整形式的連續(xù)標記組成,例如“杭州西湖風景區(qū)-西湖”,而一般領域的實體縮略詞通常由不連續(xù)的標記組成。前者更容易讓模型實現(xiàn)準確的預測。

▲ 表5: CETAR 針對數(shù)據(jù)集二中輸入實體不同長度的文本(摘要)預測結果

3.1 消融實驗

事實上,輸入過多的文本可能會產生過多的噪音,也會消耗更多的計算資源。為了尋求輸入文本的最佳長度,我們比較了 CETAR 在 D2 上輸入百度百科實體摘要的前 1~4 個句子時的性能。

表 5 表明,輸入摘要的第一句表現(xiàn)最好。通過對從數(shù)據(jù)集中隨機抽取的 300 個樣本的調查,我們發(fā)現(xiàn)大約 75.33% 的第一句話提到了源實體的類型。這也證明了實體類型是促使 CETAR 生成正確縮略詞序列的關鍵信息。

▲ 表6: CETAR 針對數(shù)據(jù)集三中輸入實體不同長度的文本(評論)預測結果

▲ 表7: CETAR 針對數(shù)據(jù)集三中輸入實體不同長度的文本(query)預測結果

同樣,作為數(shù)據(jù)集三(表 6 & 表 7),CETAR 在將語義最相關(第一個)的評論或查詢集作為相關文本時取得了最佳性能。通過深入調查,我們發(fā)現(xiàn)熱門評論(查詢)更有可能包含目標實體的縮略詞,幫助 CETAR 實現(xiàn)更準確的預測。

3.2 應用

為了驗證縮略詞在搜索系統(tǒng)中提高召回率和準確捕捉用戶搜索意圖的有效性,我們將 CETAR 預測的 56,190 個 POI 實體的縮略詞部署到飛豬的搜索系統(tǒng)中。然后,我們進行了持續(xù) 4 天的大規(guī)模 A/B 測試,發(fā)現(xiàn)處理桶與對照桶相比,獲得了 2.03% 的 CVR 提升。那為什么有意義呢?例如,基于精確關鍵字匹配的搜索系統(tǒng)不會為查詢“迪士尼樂園”返回酒店“上海迪士尼樂園酒店”,因為酒店的名稱與查詢不完全匹配。但是,如果預先將“迪士尼”識別為“迪士尼度假區(qū)”的縮略詞,則可以更輕松地將酒店與查詢相關聯(lián)。

總結

在本文中,我們提出了用于中文縮略詞預測的 CETAR,它利用了與源實體相關的信息上下文。CETAR 通過迭代解碼過程生成準確的縮略詞序列,其中縮略分類器和恢復分類器交替工作。我們的實驗證明了 CETAR 優(yōu)于 SOTA 方法的中文縮略詞預測。此外,我們在景點領域成功構建了一個中文縮略詞數(shù)據(jù)集,并已部署在現(xiàn)實世界的飛豬搜索系統(tǒng)上。系統(tǒng)的在線A/B測試實現(xiàn)了CVR的顯著提升,驗證了縮略詞在促進業(yè)務方面的價值。

審核編輯:郭婷


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • nlp
    nlp
    +關注

    關注

    1

    文章

    491

    瀏覽量

    23243

原文標題:CIKM2022 | 基于文本增強和縮略-恢復策略的縮略詞Transformer

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    從數(shù)據(jù)到模型:如何預測細節(jié)距鍵合的剪切力?

    預估其剪切力?行業(yè)內的研究數(shù)據(jù)為我們揭示了可能性。今天,科準測控小編將帶您了解如何基于實驗數(shù)據(jù)建立并應用預測模型,實現(xiàn)從“測量”到“預估”的關鍵跨越。 一、從平方定律到經驗公式 直觀上,我們可能會假設
    發(fā)表于 01-08 09:45

    模型支撐后勤保障方案生成系統(tǒng):功能特點與平臺架構解析

    ? ? 大模型支撐后勤保障方案生成系統(tǒng):功能特點與平臺架構解析 ? ?大模型支撐后勤保障方案生成系統(tǒng)憑借智能預測、動態(tài)調度、路徑優(yōu)化、庫存管
    的頭像 發(fā)表于 12-17 15:49 ?239次閱讀

    世界模型是讓自動駕駛汽車理解世界還是預測未來?

    做了什么? 世界模型,其實是一個“內部表征+動態(tài)預測”的組合。簡單理解,世界模型就是將感知到的東西(圖像、點云、雷達、文本、動作歷史)壓縮成一套內部狀態(tài),然后用這套內部狀態(tài)去生成
    的頭像 發(fā)表于 12-16 09:27 ?746次閱讀
    世界<b class='flag-5'>模型</b>是讓自動駕駛汽車理解世界還是<b class='flag-5'>預測</b>未來?

    一文讀懂LSTM與RNN:從原理到實戰(zhàn),掌握序列建模核心技術

    在AI領域,文本翻譯、語音識別、股價預測等場景都離不開序列數(shù)據(jù)處理。循環(huán)神經網絡(RNN)作為最早的序列建模工具,開創(chuàng)了“記憶歷史信息”的先河;而長短期記憶網絡(LSTM)則通過創(chuàng)新設計,突破
    的頭像 發(fā)表于 12-09 13:56 ?1038次閱讀
    一文讀懂LSTM與RNN:從原理到實戰(zhàn),掌握<b class='flag-5'>序列</b>建模核心技術

    ATA-D60090功率放大器在時間調制序列生成中的應用

    利用計算機生成波束掃描所需的的波束掃描的時間編碼序列。根據(jù)時間編碼序列,任意信號發(fā)生器產生的方波信號通過功率放大器產生控制電壓信號。
    的頭像 發(fā)表于 11-30 14:27 ?366次閱讀
    ATA-D60090功率放大器在時間調制<b class='flag-5'>序列</b><b class='flag-5'>生成</b>中的應用

    基于全局預測歷史的gshare分支預測器的實現(xiàn)細節(jié)

    是否被執(zhí)行以及它們的起跳地址。分支地址是指該條件分支指令的PC值。 下圖為GShare分支預測機制的原理流程圖。 當處理器執(zhí)行到分支指令時,GShare預測模塊可以將分支歷史和分支地址結合起來,生成
    發(fā)表于 10-22 06:50

    如何讓大模型生成你想要的測試用例?

    應用大模型生成測試用例,常見的知識庫,測試大模型,微調,RAG等技術門檻都不低,甚至很難,因此對于應用者而言,最快的方式就是應用好提示,調教屬于個人風格的測試用例智能
    的頭像 發(fā)表于 09-26 10:01 ?809次閱讀
    如何讓大<b class='flag-5'>模型</b><b class='flag-5'>生成</b>你想要的測試用例?

    小白學大模型:大模型加速的秘密 FlashAttention 1/2/3

    在Transformer架構中,注意力機制的計算復雜度與序列長度(即文本長度)呈平方關系()。這意味著,當模型需要處理更長的文本時(比如從幾千個到幾萬個),計算時間和所需的內存會急
    的頭像 發(fā)表于 09-10 09:28 ?4577次閱讀
    小白學大<b class='flag-5'>模型</b>:大<b class='flag-5'>模型</b>加速的秘密 FlashAttention 1/2/3

    模型推理顯存和計算量估計方法研究

    方法。 一、引言 大模型推理是指在已知輸入數(shù)據(jù)的情況下,通過深度學習模型進行預測或分類的過程。然而,大模型的推理過程對顯存和計算資源的需求較高,這給實際應用帶來了以下挑戰(zhàn): 顯存不足:
    發(fā)表于 07-03 19:43

    ?Diffusion生成式動作引擎技術解析

    Diffusion生成式動作引擎 Diffusion生成式動作引擎是一種基于擴散模型(Diffusion Models)的生成式人工智能技術,專注于
    的頭像 發(fā)表于 03-17 15:14 ?2887次閱讀

    使用OpenVINO GenAI和LoRA適配器進行圖像生成

    借助生成式 AI 模型(如 Stable Diffusion 和 FLUX.1),用戶可以將平平無奇的文本提示轉換為令人驚艷的視覺效果。
    的頭像 發(fā)表于 03-12 13:49 ?1743次閱讀
    使用OpenVINO GenAI和LoRA適配器進行圖像<b class='flag-5'>生成</b>

    請問是否可以在模型服務器中使用REST請求OpenVINO?預測

    是否可以在模型服務器中使用 REST 請求OpenVINO?預測?
    發(fā)表于 03-05 08:06

    使用BP神經網絡進行時間序列預測

    使用BP(Backpropagation)神經網絡進行時間序列預測是一種常見且有效的方法。以下是一個基于BP神經網絡進行時間序列預測的詳細步驟和考慮因素: 一、數(shù)據(jù)準備 收集數(shù)據(jù) :
    的頭像 發(fā)表于 02-12 16:44 ?1417次閱讀

    信道預測模型在數(shù)據(jù)通信中的作用

    信道預測模型是一種數(shù)學模型,用于預測無線通信信道的未來狀態(tài)。這些模型通?;跉v史數(shù)據(jù)和當前的信
    的頭像 發(fā)表于 01-22 17:16 ?1459次閱讀

    生成式人工智能模型的安全可信評測

    近些年來,生成式人工智能技術取得了飛躍發(fā)展。隨著各式各樣的大模型不斷迭代升級,從一般通用生成能力,到各種專有領域的細分能力,再到更注重與用戶的實際交互,大模型的各項能力顯著提升,人工智
    的頭像 發(fā)表于 01-22 13:55 ?1681次閱讀
    <b class='flag-5'>生成</b>式人工智能<b class='flag-5'>模型</b>的安全可信評測