chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深蘭在自然語言處理領域歐洲頂會上取得好成績

電子工程師 ? 來源:DeepBlue深蘭科技 ? 作者:DeepBlue深蘭科技 ? 2021-04-23 11:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2021年4月19-23日,EACL2021因疫情影響于線上正式召開,這是計算語言學和自然語言處理領域的重要國際會議,在Google Scholar計算語言學刊物指標中排名第七。深蘭科技DeepBlueAI團隊參加了Shared Task on Sarcasm and Sentiment Detection in Arabic 比賽,并在其兩個子任務諷刺檢測和情感識別中,分別獲得了第二名和第三名的好成績,在深蘭榮譽榜上再添新篇。

29afae82-a39c-11eb-aece-12bb97331649.jpg

29afae82-a39c-11eb-aece-12bb97331649.jpg

獲獎技術方案分享

任務介紹

諷刺檢測要求識別一段文字中是否包含諷刺的內容,諷刺是當前情感分析系統的主要挑戰(zhàn)之一,因為具有諷刺性的句子通常用積極的表達方式去表示消極的情感。文本所表達的情感以及作者真正想表達的情感之間存在不同,這種情況給情感分析系統帶來了巨大的挑戰(zhàn)。

諷刺檢測、情感識別在其他語言中引起了很大的關注,但是在阿拉伯語上則沒有太多進展,該任務則是針對阿拉伯語,針對給定的一個推特文本,判斷是積極、消極或者中立情感,以及是否具有諷刺性。

數據分析

任務數據集名字為ArSarcasm-v2[1],數據包含以下幾個字段,tweet, sarcasm, sentiment, dialect,tweet代表推特文本,sarcasm為諷刺檢測的標簽,sentiment為情感分類的標簽,dialect表示當前文本確切屬于阿拉伯語中的哪個方言。

2a040f40-a39c-11eb-aece-12bb97331649.png

數據集統計如上圖所示,Arsarcasm-V2 共有12548條訓練文本,其中MSA占比達到了68.2%,Maghrebi占比較少,僅有42條。此外我們還分析了具有諷刺文本中的情感分布情況,占比如下圖所示。可以看出諷刺文本中89%具有消極情感,只有3%具有正面情感,可見諷刺一般情況下傳遞消極的信息。

2a1afd68-a39c-11eb-aece-12bb97331649.png

模型

模型采用當前比較流行的預訓練模型,因為語言為阿拉伯語,我們采用了專門針對阿拉伯語的預訓練模型bert-large-arabertv02[2],以及多語言預訓練模型xlm-roberta-large[3]。其中模型結構如下,選取模型多層[CLS]位置的輸出進行加權平均得到[CLS]位置向量,然后經過全連接層,之后經過Multi-sample dropout[4]得到損失。對于諷刺檢測為二分類,我們采用Binary Cross Entropy 損失函數,對于情感識別為三分類,我們采用Cross Entropy損失函數。

2a3a4db2-a39c-11eb-aece-12bb97331649.png

Multi-sample dropout 是dropout的一種變種,傳統 dropout 在每輪訓練時會從輸入中隨機選擇一組樣本(稱之為 dropout 樣本),而 multi-sample dropout 會創(chuàng)建多個 dropout 樣本,然后平均所有樣本的損失,從而得到最終的損失,multi-sample dropout 共享中間的全連接層權重。通過綜合 M 個 dropout 樣本的損失來更新網絡參數,使得最終損失比任何一個 dropout 樣本的損失都低。這樣做的效果類似于對一個 minibatch 中的每個輸入重復訓練 M 次。因此,它大大減少訓練迭代次數,從而大幅加快訓練速度。因為大部分運算發(fā)生在 dropout 層之前的BERT層中,Multi-sample dropout 并不會重復這些計算,所以對每次迭代的計算成本影響不大。實驗表明,multi-sample dropout 還可以降低訓練集和驗證集的錯誤率和損失。

訓練策略

任務自適應預訓練(TAPT)[5],在當前和任務相關的數據集上進行掩碼語言模型(MLM)訓練,提升預訓練模型在當前數據集上的性能。

對抗訓練是一種引入噪聲的訓練方式,可以對參數進行正則化,從而提升模型的魯棒性和泛化能力。我們采用FGM (Fast Gradient Method)[6],通過在嵌入層加入擾動,從而獲得更穩(wěn)定的單詞表示形式和更通用的模型,以此提升模型效果。

知識蒸餾[7]由Hinton在2015年提出,主要應用在模型壓縮上,通過知識蒸餾用大模型所學習到的有用信息來訓練小模型,在保證性能差不多的情況下進行模型壓縮。我們將利用模型壓縮的思想,采用模型融合的方案,融合多個不同的模型作為teacher模型,將要訓練的作為student模型。

假設:采用arabertv模型,F1得分為70,采用不同參數、不同隨機數,訓練多個arabertv 模型融合后F1可以達到71;在采用xlm-roberta模型,訓練多個模型后與arabertv模型進行融合得到最終的F1為72?;谧詈笕诤系亩鄠€模型,采用交叉驗證的方式給訓練集打上 soft label,此時的soft label已經包含多個模型學到的知識。隨后再去訓練arabertv模型,模型同時學習soft label以及本來hard label,學習soft label采用MSE損失函數,學習hard label依舊采用交叉熵損失,通過這種方式訓練出來的arabertv模型的F1可以達到71點多,最后將蒸餾學出來的模型再與原來的模型融合,得到最后的結果。

模型融合

為了更好地利用數據,我們采用7折交叉驗證,針對每一折我們使用了兩種預訓練模型,又通過改變不同的參數隨機數種子以及不同的訓練策略訓練了多個模型,之后對訓練集和測試集進行預測。為了更好地融合模型,我們針對諷刺檢測采用了線性回歸模型進行融合,針對情感識別模型,采用支持向量機SVM進行融合。

實驗結果

評價標準,針對諷刺檢測,只評價諷刺類的F1,針對情感分類則對各個類的F1求平均,為了更好地評估模型的好壞,我們采用7折交叉驗證的形式,以下結果是交叉驗證結果的平均。

從下表中可以看出,無論是諷刺檢測任務還是情感分類任務都是XLM-Roberta 模型相對好一些,經過TAPT和知識蒸餾后效果都有著顯著提升。對于諷刺檢測因為不同模型之間分數相差比較大,直接求平均效果不行,而采用線性回歸后則達到了一個不錯的水平,由于諷刺檢測類別不平衡,我們將閾值調整為0.41,即大于0.41為1類。同樣在情感分類任務中,由于多個模型之間的性能相差較大直接求平均也會造成性能的下降,我們最終采用SVM進行模型融合。

2a5b6a6a-a39c-11eb-aece-12bb97331649.png

原文標題:賽道 | 深蘭載譽自然語言處理領域歐洲頂會EACL2021

文章出處:【微信公眾號:DeepBlue深蘭科技】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    90

    文章

    38225

    瀏覽量

    297115
  • 自然語言
    +關注

    關注

    1

    文章

    292

    瀏覽量

    13926

原文標題:賽道 | 深蘭載譽自然語言處理領域歐洲頂會EACL2021

文章出處:【微信號:kmdian,微信公眾號:深蘭科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    后摩智能六篇論文入選四大國際

    2025年以來,后摩智能在多項前沿研究領域取得突破性進展,近期NeurIPS、ICCV、AAAI、ACMMM四大國際會上有 6 篇論文入
    的頭像 發(fā)表于 11-24 16:42 ?747次閱讀
    后摩智能六篇論文入選四大國際<b class='flag-5'>頂</b>會

    云知聲論文入選自然語言處理會EMNLP 2025

    近日,自然語言處理(NLP)領域國際權威會議 ——2025 年計算語言學與自然語言處理國際會議(
    的頭像 發(fā)表于 11-10 17:30 ?547次閱讀
    云知聲論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b><b class='flag-5'>頂</b>會EMNLP 2025

    深蘭科技發(fā)布AI法務大模型產品

    近日,深蘭科技發(fā)布面向律所與企業(yè)法務部門的AI法務大模型產品——“深蘭律師辦公自動化系統(AI版)”。通過AI技術賦能法律服務行業(yè),它能夠顯著提升法律文書處理效率與事務性工作自動化水平,為律所和法務團隊帶來全新的工作體驗。
    的頭像 發(fā)表于 10-23 17:58 ?954次閱讀

    HarmonyOSAI編程自然語言代碼生成

    安裝CodeGenie后,在下方對話框內,輸入代碼需求描述,將根據描述智能生成代碼,生成內容可一鍵復制或一鍵插入至編輯區(qū)當前光標位置。 提問示例 使用ArkTs語言寫一段代碼,頁面中間部分
    發(fā)表于 09-05 16:58

    【HZ-T536開發(fā)板免費體驗】5- 無需死記 Linux 命令!用 CangjieMagic HZ-T536 開發(fā)板上搭建 MCP 服務器,自然語言輕松控板

    引言:為什么需要 “自然語言控板”? 痛點引入 :嵌入式開發(fā)中,開發(fā)者常需通過 SSH 等工具登錄開發(fā)板,手動輸入復雜的 Linux 命令(如ls -l、gpio readall、ifconfig等
    發(fā)表于 08-23 13:10

    云知聲四篇論文入選自然語言處理會ACL 2025

    結果正式公布。云知聲在此次國際學術盛會中表現卓越,共有4篇論文被接收,其中包括2篇主會論文(Main Paper)和2篇Findings。入選的4篇論文聚焦大語言模型知識溯源、圖文音多模態(tài)大模型、大語言模型可解釋性等關鍵領域,提
    的頭像 發(fā)表于 05-26 14:15 ?1066次閱讀
    云知聲四篇論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b><b class='flag-5'>頂</b>會ACL 2025

    深蘭科技醫(yī)療大模型榮獲MedBench評測第一

    近日,國內權威醫(yī)療大模型評測平臺MedBench官網更新了榜單,多個知名醫(yī)療AI產品及研究團隊入榜,其中深蘭DeepBlue-MR-v1醫(yī)療大模型以復雜醫(yī)學推理評測第一的成績領跑MedBench醫(yī)療大模型權威榜單。
    的頭像 發(fā)表于 04-30 16:08 ?719次閱讀

    自然語言處理的發(fā)展歷程和應用場景

    你是否曾經對著手機說:“嘿,Siri,今天天氣怎么樣?”或者在出國旅行時,打開翻譯軟件,對著菜單說:“請把這道菜翻譯成英文”。
    的頭像 發(fā)表于 04-17 11:40 ?1157次閱讀

    自然語言提示原型英特爾Vision大會上首次亮相

    英特爾Vision大會上,Network Optix首次展示了自然語言提示原型,該方案將重新定義視頻管理,為各行各業(yè)由AI驅動的洞察和效率提速。
    的頭像 發(fā)表于 04-09 09:30 ?796次閱讀

    一種基于正交與縮放變換的大模型量化方法

    近年來,大規(guī)模語言模型(Large Language Models, LLMs)自然語言處理領域取得
    的頭像 發(fā)表于 03-04 11:10 ?929次閱讀
    一種基于正交與縮放變換的大模型量化方法

    中科馭數DPU助力大模型訓練和推理

    隨著深度學習技術的快速發(fā)展,大模型(如GPT、BERT等)自然語言處理、計算機視覺等領域取得了顯著成果。然而,大模型的參數量和計算量極其龐
    的頭像 發(fā)表于 02-19 09:48 ?1084次閱讀
    中科馭數DPU助力大模型訓練和推理

    DeepSeekFPGA/IC領域的創(chuàng)新應用及未來展望

    憑借其強大的自然語言處理、代碼生成和邏輯推理能力,展現出顛覆傳統開發(fā)流程的潛力。本文將深入探討DeepSeek在這一領域的應用場景、技術優(yōu)勢及未來發(fā)展方向。(以上由DeepSeek生成,這語言
    的頭像 發(fā)表于 02-09 17:05 ?2584次閱讀
    DeepSeek<b class='flag-5'>在</b>FPGA/IC<b class='flag-5'>領域</b>的創(chuàng)新應用及未來展望

    科技2024年業(yè)績大幅增長

    。 這份亮眼的成績單背后,是匯科技2024年全年營收保持穩(wěn)定的堅實基礎。盡管面臨嚴峻的市場環(huán)境,匯科技依然實現了43.7億元的年營收,與2023年持平。這一
    的頭像 發(fā)表于 02-08 15:29 ?1085次閱讀

    望獲實時Linux系統與大語言模型深度融合,開創(chuàng)實時智能無限可能!

    語言模型的崛起為智能化應用開辟了新的可能性。借助深度學習技術,這些模型能夠理解和生成自然語言處理復雜的文本和語義信息。這使得它們諸如人機問答、內容生成和數據分析等
    的頭像 發(fā)表于 01-08 13:44 ?1049次閱讀

    【「大模型啟示錄」閱讀體驗】如何在客服領域應用大模型

    訓練模型如BERT、GPT等。這些模型在理解自然語言、生成文本、處理對話等方面具有不同的能力。因此,選擇模型時,需要了解每個模型的特點和優(yōu)勢,以便根據企業(yè)需求進行選擇。大型模型通常需要較大的計算資源
    發(fā)表于 12-17 16:53