chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Byte Cup 2018國際機(jī)器學(xué)習(xí)競賽奪冠記

IEEE電氣電子工程師 ? 來源:lq ? 2019-02-14 09:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

9月份,我們兩位同學(xué)一起組隊(duì),參加Byte Cup 2018國際機(jī)器學(xué)習(xí)競賽。本次比賽由中國人工智能學(xué)會和字節(jié)跳動主辦,IEEE中國代表處聯(lián)合組織。比賽的任務(wù)是文章標(biāo)題自動生成。最終,我們隊(duì)伍獲得了第一名。

1.比賽介紹

本次比賽的任務(wù)是給定文章文本內(nèi)容,自動生成標(biāo)題。本質(zhì)上和文本摘要任務(wù)比較類似。本次比賽有100多萬篇文章的訓(xùn)練數(shù)據(jù)。

1.1數(shù)據(jù)介紹

詳細(xì)參見:https://biendata.com/competition/bytecup2018/data/。

本次競賽使用的訓(xùn)練集包括了約130萬篇文本的信息,驗(yàn)證集1000篇文章,

測試集800篇文章。

1.2數(shù)據(jù)處理

文章去重,訓(xùn)練數(shù)據(jù)中包含一些重復(fù)數(shù)據(jù),清洗,去重;

清洗非英文文章。

1.3評價指標(biāo)

本次比賽將使用Rouge(Recall-Oriented Understudy for Gisting Evaluation)作為模型評估度量。Rough是評估自動文摘以及機(jī)器翻譯的常見指標(biāo)。它通過將自動生成的文本與人工生成的文本(即參考文本)進(jìn)行比較,根據(jù)相似度得出分值。

2.模型介紹

本次比賽主要嘗試了seq2seq的方法。參考的模型包括Transformer模型和pointer-generator模型。

模型如下圖:

(其實(shí)就是將pointer-generator的copy機(jī)制加到transformer模型上)。

同時,嘗試了將ner-tagger和pos-tagger信息加入到模型中,如下圖所示:

3.問題分析

最開始我們嘗試了最基本的transformer模型,通過查看數(shù)據(jù),遇到以下幾類明顯錯誤:

OOV(out of vocabulary);

數(shù)字,人名,地名預(yù)測錯誤;

詞形預(yù)測錯誤。

OOV問題,主要原因是數(shù)據(jù)集詞表太大,但是,模型能夠?qū)嶋H使用的詞表較小;數(shù)字,人名,地名預(yù)測錯誤,主要原因是低頻詞embedding學(xué)習(xí)不充分;詞形預(yù)測錯誤,主要原因是模型中沒有考慮詞的形態(tài)問題(當(dāng)然,如果訓(xùn)練數(shù)據(jù)足夠大,是能避免這個問題的)。

為了解決這些問題,我們嘗試了以下方法。

4.重要組件

4.1copy機(jī)制

對于很多低頻詞,通過生成式方法生成,其實(shí)是很不靠譜的。為此,我們借鑒Pointer-generator的方法,在生成標(biāo)題的單詞的時候,通過Attention的概率分布,從原文中拷貝詞。

4.2subword

為了避免oov問題,我們采用subword的方法,處理文本。這樣,可以將詞表大小減小到20k,同時,subword會包含一些單詞詞形結(jié)構(gòu)的信息。

4.3ner-tagger和pos-tagger信息

因?yàn)閎aseline在數(shù)字,人名,地名,詞形上預(yù)測錯誤率較高,所以我們考慮能不能將ner-tagger和pos-tagger信息加入到模型中。如上圖所示。實(shí)驗(yàn)證明通過加入這兩個序列信息能夠大大加快模型的收斂速度(訓(xùn)練收斂后,指標(biāo)上基本沒差異)。

4.4Gradient Accumulation

在實(shí)驗(yàn)過程中,我們發(fā)現(xiàn)transformer模型對batch_size非常敏感。之前,有研究者在機(jī)器翻譯任務(wù)中,通過實(shí)驗(yàn)也證明了這一觀點(diǎn)。然而,對于文章標(biāo)題生成任務(wù),因?yàn)槊總€sample的文章長度較長,所以,并不能使用超大batch_size來訓(xùn)練模型,所以,我們用Gradient Accumulation的方法模擬超大batch_size。

4.5ensemble

采用了兩層融合。第一層,對于每一個模型,將訓(xùn)練最后保存的N個模型參數(shù)求平均值(在valid集上選擇最好的N)。第二層,通過不同隨機(jī)種子得到的兩個模型,一個作為生成候選標(biāo)題模型(選擇不同的beam_width, length_penalty), 一個作為打分模型,將候選標(biāo)題送到模型打分,選擇分?jǐn)?shù)最高的標(biāo)題。

5.失敗的方法

將copy機(jī)制加入到transformer遇到一些問題,我們直接在decoder倒數(shù)第二層加了一層Attention層作為copy機(jī)制需要的概率分布,訓(xùn)練模型非常不穩(wěn)定,并且結(jié)果比baseline還要差很多;

我們嘗試了bert,我們將bert-encoder抽出的feature拼接到我們模型的encoder的最后一層,結(jié)果并沒有得到提升;

word-embedding的選擇,我們使用glove和fasttext等預(yù)訓(xùn)練的詞向量,模型收斂速度加快,但是,結(jié)果并沒有random的方法好。

6.結(jié)束語

非常感謝主辦方舉辦本次比賽,通過本次比賽,我們探索,學(xué)習(xí)到了很多算法方法和調(diào)參技巧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1811

    文章

    49497

    瀏覽量

    258159
  • 機(jī)器翻譯
    +關(guān)注

    關(guān)注

    0

    文章

    141

    瀏覽量

    15373
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1229

    瀏覽量

    25912

原文標(biāo)題:Byte Cup 2018國際機(jī)器學(xué)習(xí)競賽奪冠記

文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    第六屆TE Connectivity AI Cup全球競賽圓滿收官

    近日,在全球行業(yè)技術(shù)領(lǐng)先企業(yè)TE Connectivity(以下簡稱“TE”)主辦的第六屆TE AI Cup全球競賽中,中國西南財(cái)經(jīng)大學(xué)團(tuán)隊(duì)與華南理工大學(xué)團(tuán)隊(duì)?wèi){借出色表現(xiàn)雙雙奪冠。作為聚焦培養(yǎng)高校
    的頭像 發(fā)表于 08-25 14:13 ?0次閱讀

    中國兩大高校團(tuán)隊(duì)斬獲第六屆TE Connectivity AI Cup全球競賽桂冠

    中國上海,2025年8月4日 ——近日,在全球行業(yè)技術(shù)領(lǐng)先企業(yè)TE Connectivity(以下簡稱“TE”)主辦的第六屆TE AI Cup全球競賽中,中國西南財(cái)經(jīng)大學(xué)團(tuán)隊(duì)與華南理工大學(xué)團(tuán)隊(duì)?wèi){借
    的頭像 發(fā)表于 08-05 15:03 ?740次閱讀
    中國兩大高校團(tuán)隊(duì)斬獲第六屆TE Connectivity AI <b class='flag-5'>Cup</b>全球<b class='flag-5'>競賽</b>桂冠

    FPGA在機(jī)器學(xué)習(xí)中的具體應(yīng)用

    隨著機(jī)器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場可編程門陣列)作為一種靈活且高效的硬件加速平臺
    的頭像 發(fā)表于 07-16 15:34 ?2333次閱讀

    機(jī)器學(xué)習(xí)模型市場前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計(jì)算能力的飛速提升,機(jī)器學(xué)習(xí)模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機(jī)器學(xué)習(xí)模型市場的未來發(fā)展。
    的頭像 發(fā)表于 02-13 09:39 ?514次閱讀

    嵌入式機(jī)器學(xué)習(xí)的應(yīng)用特性與軟件開發(fā)環(huán)境

    作者:DigiKey Editor 在許多嵌入式系統(tǒng)中,必須采用嵌入式機(jī)器學(xué)習(xí)(Embedded Machine Learning)技術(shù),這是指將機(jī)器學(xué)習(xí)模型部署在資源受限的設(shè)備(如微
    的頭像 發(fā)表于 01-25 17:05 ?980次閱讀
    嵌入式<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的應(yīng)用特性與軟件開發(fā)環(huán)境

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章中,我們介紹了機(jī)器學(xué)習(xí)的關(guān)鍵概念術(shù)語。在本文中,我們會介紹傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識和多種算法特征,供各位老師選擇。 01 傳統(tǒng)機(jī)器
    的頭像 發(fā)表于 12-30 09:16 ?1580次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    云天勵飛助力國際青少年機(jī)器競賽IYRC圓滿落幕

    近日,由云天勵飛與華嶺韓端共同主辦的第十二屆IYRC青少年數(shù)字創(chuàng)意機(jī)器國際邀請展示活動暨2024開源鴻蒙數(shù)字創(chuàng)意文化產(chǎn)業(yè)高峰論壇在深圳舉行。
    的頭像 發(fā)表于 12-26 10:39 ?913次閱讀

    如何選擇云原生機(jī)器學(xué)習(xí)平臺

    當(dāng)今,云原生機(jī)器學(xué)習(xí)平臺因其彈性擴(kuò)展、高效部署、低成本運(yùn)營等優(yōu)勢,逐漸成為企業(yè)構(gòu)建和部署機(jī)器學(xué)習(xí)應(yīng)用的首選。然而,市場上的云原生機(jī)器
    的頭像 發(fā)表于 12-25 11:54 ?610次閱讀

    zeta在機(jī)器學(xué)習(xí)中的應(yīng)用 zeta的優(yōu)缺點(diǎn)分析

    在探討ZETA在機(jī)器學(xué)習(xí)中的應(yīng)用以及ZETA的優(yōu)缺點(diǎn)時,需要明確的是,ZETA一詞在不同領(lǐng)域可能有不同的含義和應(yīng)用。以下是根據(jù)不同領(lǐng)域的ZETA進(jìn)行的分析: 一、ZETA在機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 12-20 09:11 ?1456次閱讀

    螞蟻數(shù)科與浙大團(tuán)隊(duì)榮獲NeurIPS競賽冠軍

    近日,在機(jī)器學(xué)習(xí)領(lǐng)域的頂級國際會議NeurIPS的特設(shè)競賽中,螞蟻數(shù)科旗下的摩斯聯(lián)合浙江大學(xué)計(jì)算機(jī)體系結(jié)構(gòu)實(shí)驗(yàn)室陳文智、魏成坤團(tuán)隊(duì)組成的“Morse ARCLab”參賽隊(duì)伍憑借出色的表
    的頭像 發(fā)表于 11-26 10:27 ?1112次閱讀

    什么是機(jī)器學(xué)習(xí)?通過機(jī)器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機(jī)器學(xué)習(xí)”最初的研究動機(jī)是讓計(jì)算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實(shí)現(xiàn)人工智能。因?yàn)闆]有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?1341次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?通過<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問題?

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對計(jì)算資源的需求也在不斷增長。NPU作為一種專門為深度學(xué)習(xí)機(jī)器
    的頭像 發(fā)表于 11-15 09:19 ?1663次閱讀

    電子設(shè)計(jì)競賽準(zhǔn)備經(jīng)歷分享

    在我大學(xué)生涯中,參加電子設(shè)計(jì)競賽無疑是一段難忘且充滿挑戰(zhàn)的經(jīng)歷。從最初的迷茫與不安,到最終的收獲與成長,這段旅程讓我深刻體會到了團(tuán)隊(duì)合作的力量,以及不斷學(xué)習(xí)與探索的重要性。以下是我個人參加電子設(shè)計(jì)競賽的準(zhǔn)備經(jīng)歷,希望能為即將參賽
    的頭像 發(fā)表于 11-06 10:49 ?803次閱讀
    電子設(shè)計(jì)<b class='flag-5'>競賽</b>準(zhǔn)備經(jīng)歷分享

    具身智能與機(jī)器學(xué)習(xí)的關(guān)系

    具身智能(Embodied Intelligence)和機(jī)器學(xué)習(xí)(Machine Learning)是人工智能領(lǐng)域的兩個重要概念,它們之間存在著密切的關(guān)系。 1. 具身智能的定義 具身智能是指智能體
    的頭像 發(fā)表于 10-27 10:33 ?1375次閱讀

    人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個很大的子集是機(jī)器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)。
    發(fā)表于 10-24 17:22 ?3316次閱讀
    人工智能、<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別