chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌開源了一個強大的NLP深度學習框架Lingvo

DPVg_AI_era ? 來源:lq ? 2019-02-27 09:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌近日開源了一個強大的NLP深度學習框架Lingvo,側(cè)重于語言相關(guān)任務(wù)的序列模型,如機器翻譯、語音識別和語音合成。過去兩年來,谷歌已經(jīng)發(fā)表了幾十篇使用Lingvo獲得SOTA結(jié)果的論文。

近日,谷歌開源了一個內(nèi)部 NLP 的秘密武器 ——Lingvo。

這是一個強大的 NLP 框架,已經(jīng)在谷歌數(shù)十篇論文的許多任務(wù)中實現(xiàn) SOTA 性能!

Lingvo 在世界語中意為 “語言”。這個命名暗指了 Lingvo 框架的根源 ——它是使用 TensorFlow 開發(fā)的一個通用深度學習框架,側(cè)重于語言相關(guān)任務(wù)的序列模型,如機器翻譯、語音識別和語音合成。

Lingvo 框架在谷歌內(nèi)部已經(jīng)獲得青睞,使用它的研究人員數(shù)量激增。過去兩年來,谷歌已經(jīng)發(fā)表了幾十篇使用 Lingvo 獲得 SOTA 結(jié)果的論文,未來還會有更多。

包括 2016 年機器翻譯領(lǐng)域里程碑式的《谷歌神經(jīng)機器翻譯系統(tǒng)》論文 (Google’s Neural Machine Translation System: Bridging the Gap between Human and Machine Translation),也是使用 Lingvo。該研究開啟了機器翻譯的新篇章,宣告機器翻譯正式從 IBM 的統(tǒng)計機器翻譯模型 (PBMT,基于短語的機器翻譯),過渡到了神經(jīng)網(wǎng)絡(luò)機器翻譯模型。該系統(tǒng)使得機器翻譯誤差降低了 55%-85% 以上,極大地接近了普通人的翻譯水平。

除了機器翻譯之外,Lingvo 框架也被用于語音識別、語言理解、語音合成、語音 - 文本轉(zhuǎn)寫等任務(wù)。

谷歌列舉了 26 篇使用 Lingvo 框架的 NLP 論文,發(fā)表于 ACL、EMNLP、ICASSP 等領(lǐng)域頂會,取得多個 SOTA 結(jié)果。全部論文見文末列表。

Lingvo 支持的架構(gòu)包括傳統(tǒng)的RNN 序列模型、Transformer 模型以及包含 VAE 組件的模型,等等。

谷歌表示:“為了表明我們對研究界的支持并鼓勵可重復(fù)的研究工作,我們公開了該框架的源代碼,并開始發(fā)布我們論文中使用的模型?!?/p>

此外,谷歌還發(fā)布了一篇概述 Lingvo 設(shè)計的論文,并介紹了框架的各個部分,同時提供了展示框架功能的高級特性的示例。

相關(guān)論文:

https://arxiv.org/pdf/1902.08295.pdf

強悍的貢獻者列表 ——91 位作者!

摘要

Lingvo 是一個 Tensorflow 框架,為協(xié)作式深度學習研究提供了一個完整的解決方案,特別側(cè)重于sequence-to-sequence模型。Lingvo 模型由靈活且易于擴展的模塊化構(gòu)建塊組成,實驗配置集中且高度可定制。該框架直接支持分布式訓(xùn)練和量化推理,包含大量實用工具、輔助函數(shù)和最新研究思想的現(xiàn)有實現(xiàn)。論文概述了 Lingvo 的基礎(chǔ)設(shè)計,并介紹了框架的各個部分,同時提供了展示框架功能的高級特性的示例。

為協(xié)作研究設(shè)計、靈活、快速

Lingvo 框架概覽:概述了如何實例化、訓(xùn)練和導(dǎo)出模型以進行評估和服務(wù)。

Lingvo 是在考慮協(xié)作研究的基礎(chǔ)下構(gòu)建的,它通過在不同任務(wù)之間共享公共層的實現(xiàn)來促進代碼重用。此外,所有層都實現(xiàn)相同的公共接口,并以相同的方式布局。這不僅可以生成更清晰、更易于理解的代碼,還可以非常簡單地將其他人為其他任務(wù)所做的改進應(yīng)用到自己的任務(wù)中。強制實現(xiàn)這種一致性的代價是需要更多的規(guī)則和樣板,但是 Lingvo 試圖將其最小化,以確保研究期間的快速迭代時間。

協(xié)作的另一個方面是共享可重現(xiàn)的結(jié)果。Lingvo 為檢入模型超參數(shù)配置提供了一個集中的位置。這不僅可以記錄重要的實驗,還可以通過訓(xùn)練相同的模型,為其他人提供一種簡單的方法來重現(xiàn)你的結(jié)果。

Lingvo 中的任務(wù)配置示例。每個實驗的超參數(shù)都在它自己的類中配置,與構(gòu)建網(wǎng)絡(luò)的代碼分開,并檢入版本控制。

雖然 Lingvo 最初的重點是 NLP,但它本質(zhì)上非常靈活,并且研究人員已經(jīng)使用該框架成功地實現(xiàn)了圖像分割和點云分類等任務(wù)的模型。它還支持 Distillation、GANs 和多任務(wù)模型。

同時,該框架不犧牲速度,并且具有優(yōu)化的輸入 pipeline 和快速分布式訓(xùn)練。

最后,Lingvo 的目的是實現(xiàn)簡單生產(chǎn),甚至有一條明確定義的為移動推理移植模型的路徑。

使用Lingvo的已發(fā)表論文列表

Translation:

The Best of Both Worlds: Combining Recent Advances in Neural Machine Translation.Mia X. Chen, Orhan Firat, Ankur Bapna, Melvin Johnson, Wolfgang Macherey, George Foster, Llion Jones, Mike Schuster, Noam Shazeer, Niki Parmar, Ashish Vaswani, Jakob Uszkoreit, Lukasz Kaiser, Zhifeng Chen, Yonghui Wu, and Macduff Hughes. ACL 2018.

Revisiting Character-Based Neural Machine Translation with Capacity and Compression.Colin Cherry, George Foster, Ankur Bapna, Orhan Firat, and Wolfgang Macherey. EMNLP 2018.

Training Deeper Neural Machine Translation Models with Transparent Attention.Ankur Bapna, Mia X. Chen, Orhan Firat, Yuan Cao and Yonghui Wu. EMNLP 2018.

Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation.Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, ?ukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Technical Report, 2016.

Speech Recognition:

A comparison of techniques for language model integration in encoder-decoder speech recognition.Shubham Toshniwal, Anjuli Kannan, Chung-Cheng Chiu, Yonghui Wu, Tara N. Sainath, Karen Livescu. IEEE SLT 2018.

Deep Context: End-to-End Contextual Speech Recognition.Golan Pundak, Tara N. Sainath, Rohit Prabhavalkar, Anjuli Kannan, Ding Zhao. IEEE SLT 2018.

Speech recognition for medical conversations.Chung-Cheng Chiu, Anshuman Tripathi, Katherine Chou, Chris Co, Navdeep Jaitly, Diana Jaunzeikare, Anjuli Kannan, Patrick Nguyen, Hasim Sak, Ananth Sankar, Justin Tansuwan, Nathan Wan, Yonghui Wu, and Xuedong Zhang. Interspeech 2018.

Compression of End-to-End Models.Ruoming Pang, Tara Sainath, Rohit Prabhavalkar, Suyog Gupta, Yonghui Wu, Shuyuan Zhang, and Chung-Cheng Chiu. Interspeech 2018.

Contextual Speech Recognition in End-to-End Neural Network Systems using Beam Search.Ian Williams, Anjuli Kannan, Petar Aleksic, David Rybach, and Tara N. Sainath. Interspeech 2018.

State-of-the-art Speech Recognition With Sequence-to-Sequence Models.Chung-Cheng Chiu, Tara N. Sainath, Yonghui Wu, Rohit Prabhavalkar, Patrick Nguyen, Zhifeng Chen, Anjuli Kannan, Ron J. Weiss, Kanishka Rao, Ekaterina Gonina, Navdeep Jaitly, Bo Li, Jan Chorowski, and Michiel Bacchiani. ICASSP 2018.

End-to-End Multilingual Speech Recognition using Encoder-Decoder Models.Shubham Toshniwal, Tara N. Sainath, Ron J. Weiss, Bo Li, Pedro Moreno, Eugene Weinstein, and Kanishka Rao. ICASSP 2018.

Multi-Dialect Speech Recognition With a Single Sequence-to-Sequence Model.Bo Li, Tara N. Sainath, Khe Chai Sim, Michiel Bacchiani, Eugene Weinstein, Patrick Nguyen, Zhifeng Chen, Yonghui Wu, and Kanishka Rao. ICASSP 2018.

Improving the Performance of Online Neural Transducer Models.Tara N. Sainath, Chung-Cheng Chiu, Rohit Prabhavalkar, Anjuli Kannan, Yonghui Wu, Patrick Nguyen, and Zhifeng Chen. ICASSP 2018.

Minimum Word Error Rate Training for Attention-based Sequence-to-Sequence Models.Rohit Prabhavalkar, Tara N. Sainath, Yonghui Wu, Patrick Nguyen, Zhifeng Chen, Chung-Cheng Chiu, and Anjuli Kannan. ICASSP 2018.

No Need for a Lexicon? Evaluating the Value of the Pronunciation Lexica inEnd-to-End Models.Tara N. Sainath, Rohit Prabhavalkar, Shankar Kumar, Seungji Lee, Anjuli Kannan, David Rybach, Vlad Schogol, Patrick Nguyen, Bo Li, Yonghui Wu, Zhifeng Chen, and Chung-Cheng Chiu. ICASSP 2018.

Learning hard alignments with variational inference.Dieterich Lawson, Chung-Cheng Chiu, George Tucker, Colin Raffel, Kevin Swersky, and Navdeep Jaitly. ICASSP 2018.

Monotonic Chunkwise Attention.Chung-Cheng Chiu, and Colin Raffel. ICLR 2018.

An Analysis of Incorporating an External Language Model into a Sequence-to-Sequence Model.Anjuli Kannan, Yonghui Wu, Patrick Nguyen, Tara N. Sainath, Zhifeng Chen, and Rohit Prabhavalkar. ICASSP 2018.

Language understanding

Semi-Supervised Learning for Information Extraction from Dialogue.Anjuli Kannan, Kai Chen, Diana Jaunzeikare, and Alvin Rajkomar. Interspeech 2018.

CaLcs: Continuously Approximating Longest Common Subsequence for Sequence Level Optimization.Semih Yavuz, Chung-Cheng Chiu, Patrick Nguyen, and Yonghui Wu. EMNLP 2018.

Speech synthesis

Hierarchical Generative Modeling for Controllable Speech Synthesis.Wei-Ning Hsu, Yu Zhang, Ron J. Weiss, Heiga Zen, Yonghui Wu, Yuxuan Wang, Yuan Cao, Ye Jia, Zhifeng Chen, Jonathan Shen, Patrick Nguyen, Ruoming Pang. Submitted to ICLR 2019.

Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis.Ye Jia, Yu Zhang, Ron J. Weiss, Quan Wang, Jonathan Shen, Fei Ren, Zhifeng Chen, Patrick Nguyen, Ruoming Pang, Ignacio Lopez Moreno, Yonghui Wu. NIPS 2018.

Natural TTS Synthesis By Conditioning WaveNet On Mel Spectrogram Predictions.Jonathan Shen, Ruoming Pang, Ron J. Weiss, Mike Schuster, Navdeep Jaitly, Zongheng Yang, Zhifeng Chen, Yu Zhang, Yuxuan Wang, RJ Skerry-Ryan, Rif A. Saurous, Yannis Agiomyrgiannakis, Yonghui Wu. ICASSP 2018.

On Using Backpropagation for Speech Texture Generation and Voice Conversion.Jan Chorowski, Ron J. Weiss, Rif A. Saurous, Samy Bengio. ICASSP 2018.

Speech-to-text translation

Leveraging weakly supervised data to improve end-to-end speech-to-text translation.Ye Jia, Melvin Johnson, Wolfgang Macherey, Ron J. Weiss, Yuan Cao, Chung-Cheng Chiu, Naveen Ari, Stella Laurenzo, Yonghui Wu. Submitted to ICASSP 2019.

Sequence-to-Sequence Models Can Directly Translate Foreign Speech.Ron J. Weiss, Jan Chorowski, Navdeep Jaitly, Yonghui Wu, and Zhifeng Chen. Interspeech 2017.

https://github.com/tensorflow/lingvo/blob/master/PUBLICATIONS.md

開源地址:

https://github.com/tensorflow/lingvo

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6247

    瀏覽量

    110717
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5594

    瀏覽量

    124142
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23243

原文標題:谷歌重磅開源NLP通用框架,20多篇最新論文都用了它

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    谷歌評論卡,碰碰即可完成谷歌評論 #谷歌評論卡 #NFC標簽 #nfc卡

    谷歌
    深圳市融智興科技有限公司
    發(fā)布于 :2026年01月15日 17:02:00

    機器學習深度學習中需避免的 7 常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作段時間,機器學習深度學習中都存在些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不
    的頭像 發(fā)表于 01-07 15:37 ?108次閱讀
    機器<b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b>中需避免的 7 <b class='flag-5'>個</b>常見錯誤與局限性

    泰凌微:布局端側(cè)AI,產(chǎn)品支持谷歌LiteRT、TVM開源模型

    ?電子發(fā)燒友網(wǎng)報道(文/李彎彎)泰凌微近日表示,公司與谷歌在智能家居、音頻等多個領(lǐng)域開展具體項目合作。其與谷歌已從單的遙控器芯片供應(yīng),發(fā)展為涵蓋音頻、智能家居、端側(cè)AI等多領(lǐng)域的深度
    的頭像 發(fā)表于 12-15 08:21 ?9991次閱讀

    人工智能AI必備的5款開源軟件推薦!

    開發(fā)領(lǐng)域里幾乎“人手必備”的軟件——它們不僅讓學習更輕松,也讓產(chǎn)品更快落地。 、TensorFlow:深度學習界的“老將” 提起智能算法的訓(xùn)練框架
    的頭像 發(fā)表于 11-19 15:35 ?449次閱讀
    人工智能AI必備的5款<b class='flag-5'>開源</b>軟件推薦!

    NVIDIA助力新代機器人開發(fā)開源框架

    今年的 ROSCon 在新加坡舉辦,并于 10 月 29 日順利閉幕。大會吸引全球機器人操作系統(tǒng)(ROS)領(lǐng)域開發(fā)者的關(guān)注。ROS 是目前全球應(yīng)用最廣泛的機器人開發(fā)開源框架
    的頭像 發(fā)表于 11-06 11:55 ?894次閱讀

    開放原子開源基金會發(fā)布150余開源項目應(yīng)用案例

    。案例覆蓋電力、通信、醫(yī)療、教育、金融、交通等10余關(guān)系國計民生的關(guān)鍵行業(yè),彰顯開源技術(shù)在促進產(chǎn)業(yè)升級、行業(yè)創(chuàng)新方面的強大動力,標志著開源
    的頭像 發(fā)表于 07-28 17:10 ?1119次閱讀

    寧暢與與百度文心大模型展開深度技術(shù)合作

    近日,百度正式開源文心大模型4.5系列模型。作為文心開源合作伙伴,寧暢在模型開源首日即實現(xiàn)即刻部署,做到“開源即接入、發(fā)布即可用”。據(jù)悉,文心4.5
    的頭像 發(fā)表于 07-07 16:26 ?758次閱讀

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命 Google 發(fā)布 Ironwood,這是其第七代張量處理單元 (TPU),專為推理而設(shè)計。這款功能強大的 AI
    的頭像 發(fā)表于 04-12 11:10 ?3405次閱讀
    <b class='flag-5'>谷歌</b>第七代TPU Ironwood<b class='flag-5'>深度</b>解讀:AI推理時代的硬件革命

    百度飛槳框架3.0正式版發(fā)布

    、推理等任務(wù)都離不開深度學習框架的優(yōu)化與支撐。 飛槳框架3.0,從設(shè)計理念上實現(xiàn)從底層硬件適配到頂層開發(fā)體驗的全面進化,在訓(xùn)練效率、性能、
    的頭像 發(fā)表于 04-02 19:03 ?1109次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    嵌入式AI技術(shù)之深度學習:數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學習的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)機器學習,網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學習框架,可以
    的頭像 發(fā)表于 04-02 18:21 ?1409次閱讀

    深度解讀英偉達Newton機器人平臺:技術(shù)革新與跨界生態(tài)構(gòu)建

    的基礎(chǔ)上,它使機器人能夠學習如何以更高的精度處理復(fù)雜的任務(wù),與MuJoCo Playground或 NVIDIA Isaac Lab 等學習框架兼容,這是
    的頭像 發(fā)表于 03-20 15:15 ?2700次閱讀
    <b class='flag-5'>深度</b>解讀英偉達Newton機器人平臺:技術(shù)革新與跨界生態(tài)構(gòu)建

    開源項目!教你如何制作開源教育機械臂

    前言 我們的計劃始于2016年,當時有簡單的問題:我們?nèi)绾巫寵C器人和編程對每個人都可用? 是學習電子和編程的最佳工具之,但使用帶有有線組件的試驗板對初學者來說可能具有挑戰(zhàn)性。為了
    發(fā)表于 03-10 11:22

    靈汐科技開源類腦深度學習應(yīng)用開發(fā)平臺BIDL

    富案例等問題,直制約著其廣泛應(yīng)用。為了突破這瓶頸,靈汐科技聯(lián)合腦啟社區(qū)正式宣布開源類腦深度學習應(yīng)用開發(fā)平臺BIDL(Brain-insp
    的頭像 發(fā)表于 03-05 09:13 ?1648次閱讀
    靈汐科技<b class='flag-5'>開源</b>類腦<b class='flag-5'>深度</b><b class='flag-5'>學習</b>應(yīng)用開發(fā)平臺BIDL

    軍事應(yīng)用中深度學習的挑戰(zhàn)與機遇

    ,并廣泛介紹深度學習在兩主要軍事應(yīng)用領(lǐng)域的應(yīng)用:情報行動和自主平臺。最后,討論相關(guān)的威脅、機遇、技術(shù)和實際困難。主要發(fā)現(xiàn)是,人工智能技
    的頭像 發(fā)表于 02-14 11:15 ?901次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學習的關(guān)系

    ),是種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、或多個隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度
    的頭像 發(fā)表于 02-12 15:15 ?1605次閱讀