chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌Transformer大進(jìn)化 機(jī)翻最強(qiáng)王者上線

DR2b_Aiobservat ? 來源:yxw ? 2019-06-18 10:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌Evolved Transformer通過AutoML技術(shù)進(jìn)行特定任務(wù)定制,在編碼器和解碼器模塊底部的卷積層以分支模式運(yùn)行,提高了語(yǔ)言建模的性能,目前在機(jī)器翻譯領(lǐng)域可以達(dá)到最先進(jìn)的結(jié)果。

Transformer是一種AI架構(gòu),最早是在2017年Google的科學(xué)家合著的論文《Attention Is All You Need》中介紹的,它比較擅長(zhǎng)撰寫散文和產(chǎn)品評(píng)論、合成聲音、以古典作曲家的風(fēng)格制作和聲。

但是,谷歌的一個(gè)研究小組認(rèn)為它可以更進(jìn)一步使用AutoML技術(shù),根據(jù)特定任務(wù)進(jìn)行定制翻譯。在一篇新發(fā)表的論文和博客中,研究人員描述了工作成果:與原始的Transformer相比,現(xiàn)在的Transformer既達(dá)到了最先進(jìn)的翻譯結(jié)果,也提高了語(yǔ)言建模的性能。

目前,他們已經(jīng)發(fā)布了新的模型Evolved Transformer——開放源代碼的AI模型和數(shù)據(jù)集庫(kù),來作為Tensor2Tensor(谷歌基于tensorflow新開源的深度學(xué)習(xí)庫(kù),該庫(kù)將深度學(xué)習(xí)所需要的元素封裝成標(biāo)準(zhǔn)化的統(tǒng)一接口,在使用其做模型訓(xùn)練時(shí)可以更加的靈活)的一部分。

一般意義上,AutoML方法是從控制器訓(xùn)練和評(píng)估質(zhì)量的隨機(jī)模型庫(kù)開始,該過程重復(fù)數(shù)千次,每次都會(huì)產(chǎn)生新的經(jīng)過審查的機(jī)器學(xué)習(xí)架構(gòu),控制器可以從中學(xué)習(xí)。最終,控制器開始為模型組件分配高概率,以便這些組件在驗(yàn)證數(shù)據(jù)集上更加準(zhǔn)確,而評(píng)分差的區(qū)域則獲得較低的概率。

研究人員稱,使用AutoML發(fā)現(xiàn)Evolved Transformer需要開發(fā)兩種新技術(shù),因?yàn)橛糜谠u(píng)估每種架構(gòu)性能的任務(wù)WMT'14英德語(yǔ)翻譯的計(jì)算成本很高。

第一種是通過暖啟動(dòng)(warm starting)的方式,將初始模型填充為Transformer架構(gòu)進(jìn)行播種,而不采用隨機(jī)模型,有助于實(shí)現(xiàn)搜索。第二種漸進(jìn)式動(dòng)態(tài)障礙(PDH)則增強(qiáng)了搜索功能,以便將更多的資源分配給能力最強(qiáng)的候選對(duì)象,若模型“明顯不良”,PDH就會(huì)終止評(píng)估,重新分配資源。

通過這兩種技術(shù),研究人員在機(jī)器翻譯上進(jìn)行大規(guī)模NAS,最終找到了Evolved Transformer。

(Evolved Transformer架構(gòu))

那么Evolved Transformer有什么特別之處呢?

與所有深度神經(jīng)網(wǎng)絡(luò)一樣,Evolved Transformer包含神經(jīng)元(函數(shù)),這些神經(jīng)元從輸入數(shù)據(jù)中傳輸“信號(hào),并緩慢調(diào)整每個(gè)連接的突觸強(qiáng)度(權(quán)重),這是模型提取特征和學(xué)習(xí)進(jìn)行預(yù)測(cè)的方式。此外,Evolved Transformer還能使每個(gè)輸出元件連接到每個(gè)輸入元件,并且動(dòng)態(tài)地計(jì)算它們之間的權(quán)重。

與大多數(shù)序列到序列模型一樣,Evolved Transformer包含一個(gè)編碼器,它將輸入數(shù)據(jù)(翻譯任務(wù)中的句子)編碼為嵌入(數(shù)學(xué)表示)和一個(gè)解碼器,同時(shí)使用這些嵌入來構(gòu)造輸出(翻譯)。

但研究人員也指出,Evolved Transformer也有一些部分與傳統(tǒng)模型不同:在編碼器和解碼器模塊底部的卷積層以分支模式運(yùn)行,即在合并到一起時(shí),輸入需要通過兩個(gè)單獨(dú)的的卷積層。

雖然最初的Transformer僅僅依賴于注意力,但Evolved Transformer是一種利用自我關(guān)注和廣泛卷積的優(yōu)勢(shì)的混合體。

(原始Transforme與Evolved Transformer的性能對(duì)比)

在測(cè)試中,研究人員將Evolved Transformer與原始Transformer在模型搜索期間使用的英德翻譯任務(wù)進(jìn)行了比較,發(fā)現(xiàn)前者在BLEU(評(píng)估機(jī)器翻譯文本質(zhì)量的算法)和Perplexity(衡量概率分布預(yù)測(cè)樣本的程度)上性能更好。

在較大的數(shù)據(jù)中,Evolved Transformer達(dá)到了最先進(jìn)的性能,BLEU得分為29.8分。在涉及不同語(yǔ)言對(duì)和語(yǔ)言建模的翻譯實(shí)驗(yàn)中,Evolved Transformer相比于原始Transformer的性能提升了兩個(gè)Perplexity。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108110
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35099

    瀏覽量

    279539
  • 機(jī)器翻譯
    +關(guān)注

    關(guān)注

    0

    文章

    140

    瀏覽量

    15191
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    151

    瀏覽量

    6516

原文標(biāo)題:谷歌Transformer大進(jìn)化,機(jī)翻最強(qiáng)王者上線

文章出處:【微信號(hào):Aiobservation,微信公眾號(hào):人工智能觀察】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Transformer架構(gòu)中編碼器的工作流程

    編碼器是Transformer體系結(jié)構(gòu)的基本組件。編碼器的主要功能是將輸入標(biāo)記轉(zhuǎn)換為上下文表示。與早期獨(dú)立處理token的模型不同,Transformer編碼器根據(jù)整個(gè)序列捕獲每個(gè)token的上下文。
    的頭像 發(fā)表于 06-10 14:27 ?279次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)中編碼器的工作流程

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學(xué)習(xí)領(lǐng)域正在經(jīng)歷一場(chǎng)翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語(yǔ)言處理(NLP)的標(biāo)準(zhǔn),而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發(fā)表于 06-10 14:24 ?337次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)概述

    日立建機(jī)MES制造執(zhí)行系統(tǒng)正式上線

    日前,日立建機(jī)(中國(guó))有限公司MES制造執(zhí)行系統(tǒng)上線動(dòng)員大會(huì)在安徽合肥隆重召開。日立建機(jī)中國(guó)區(qū)管理層、項(xiàng)目關(guān)鍵用戶及湃睿科技項(xiàng)目團(tuán)隊(duì)共同出席了本次會(huì)議。系統(tǒng)于2025年5月20日正式運(yùn)行,開啟智能管理新征程。
    的頭像 發(fā)表于 06-04 14:10 ?385次閱讀

    快手上線鴻蒙應(yīng)用高性能解決方案:數(shù)據(jù)反序列化性能提升90%

    近日,快手在Gitee平臺(tái)上線了鴻蒙應(yīng)用性能優(yōu)化解決方案“QuickTransformer”,該方案針對(duì)鴻蒙應(yīng)用開發(fā)中廣泛使用的三方庫(kù)“class-transformer”進(jìn)行了深度優(yōu)化,有效提升
    發(fā)表于 05-15 10:01

    快手上線鴻蒙應(yīng)用高性能解決方案

    近日,快手在Gitee平臺(tái)上線了鴻蒙應(yīng)用性能優(yōu)化解決方案“QuickTransformer”,該方案針對(duì)鴻蒙應(yīng)用開發(fā)中廣泛使用的三方庫(kù)“class-transformer”進(jìn)行了深度優(yōu)化,有效提升
    的頭像 發(fā)表于 05-14 09:11 ?501次閱讀
    快手<b class='flag-5'>上線</b>鴻蒙應(yīng)用高性能解決方案

    集特17.3英寸上式加固工業(yè)便攜機(jī)GDC-7001

    在工業(yè)自動(dòng)化、移動(dòng)辦公及特殊環(huán)境作業(yè)領(lǐng)域,對(duì)設(shè)備的便攜性、耐用性和性能提出了更高要求。集特智能推出的GDC-7001上式加固工業(yè)便攜機(jī),憑借其高可靠性、靈活配置及國(guó)產(chǎn)化技術(shù)生態(tài),成為國(guó)產(chǎn)工業(yè)計(jì)算設(shè)備中的標(biāo)桿產(chǎn)品。以下從設(shè)計(jì)、性能、應(yīng)用場(chǎng)景等多維度展開介紹。
    的頭像 發(fā)表于 02-18 16:44 ?357次閱讀

    如何使用MATLAB構(gòu)建Transformer模型

    Transformer 模型在 2017 年由 Vaswani 等人在論文《Attentionis All You Need》中首次提出。其設(shè)計(jì)初衷是為了解決自然語(yǔ)言處理(Nature
    的頭像 發(fā)表于 02-06 10:21 ?4010次閱讀
    如何使用MATLAB構(gòu)建<b class='flag-5'>Transformer</b>模型

    transformer專用ASIC芯片Sohu說明

    2022年,我們打賭說transformer會(huì)統(tǒng)治世界。 我們花了兩年時(shí)間打造Sohu,這是世界上第一個(gè)用于transformer(ChatGPT中的“T”)的專用芯片。 將transformer
    的頭像 發(fā)表于 01-06 09:13 ?1151次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說明

    AI眼鏡形態(tài)席卷可穿戴市場(chǎng)!谷歌眼鏡幾次“流產(chǎn)”,將靠AI

    ? 電子發(fā)燒友網(wǎng)報(bào)道(文/莫婷婷)在ChatGPT進(jìn)化史上,繞不開的一家廠商是谷歌。2024年12月,谷歌發(fā)布 Gemini 2.0,該產(chǎn)品被稱為登頂AI巔峰、秒殺ChatGPT O1。始終走在AI
    的頭像 發(fā)表于 12-26 00:12 ?3603次閱讀

    Transformer模型的具體應(yīng)用

    如果想在 AI 領(lǐng)域引領(lǐng)一輪新浪潮,就需要使用到 Transformer。
    的頭像 發(fā)表于 11-20 09:28 ?1558次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應(yīng)用

    Transformer模型能夠做什么

    盡管名為 Transformer,但它們不是電視銀幕上的變形金剛,也不是電線桿上垃圾桶大小的變壓器。
    的頭像 發(fā)表于 11-20 09:27 ?1010次閱讀
    <b class='flag-5'>Transformer</b>模型能夠做什么

    自動(dòng)駕駛中一直說的BEV+Transformer到底是個(gè)啥?

    在很多車企的自動(dòng)駕駛介紹中,都會(huì)聽到一個(gè)關(guān)鍵技術(shù),那就是BEV+Transformer,那BEV+Transformer到底是個(gè)啥?為什么很多車企在自動(dòng)駕駛技術(shù)中都十分追捧這項(xiàng)技術(shù)?其實(shí)“BEV
    的頭像 發(fā)表于 11-07 11:19 ?1372次閱讀
    自動(dòng)駕駛中一直說的BEV+<b class='flag-5'>Transformer</b>到底是個(gè)啥?

    英偉達(dá)推出歸一化Transformer,革命性提升LLM訓(xùn)練速度

    了新的突破。 相較于傳統(tǒng)的Transformer架構(gòu),nGPT在保持原有精度的同時(shí),直接將大型語(yǔ)言模型(LLM)的訓(xùn)練速度提升了高達(dá)20倍。這一顯著的性能提升,無(wú)疑將極大地推動(dòng)AI技術(shù)的發(fā)展和應(yīng)用。 在nGPT中,所有的向量(包括嵌入向量、多層感知機(jī)(MLP)向量、注意力
    的頭像 發(fā)表于 10-23 11:30 ?873次閱讀

    谷歌Chrome瀏覽器新增三大AI功能,提升用戶體驗(yàn)

    谷歌近日宣布,在其廣受歡迎的Chrome瀏覽器中引入了三項(xiàng)前沿的AI技術(shù)功能,旨在為用戶提供更加智能、便捷的瀏覽體驗(yàn)。這些新功能由Gemini技術(shù)強(qiáng)力驅(qū)動(dòng),目前已在Chrome桌面版上線,標(biāo)志著谷歌在AI與瀏覽器融合方面的又一重
    的頭像 發(fā)表于 08-05 11:26 ?1132次閱讀

    板液位計(jì)怎么用磁鐵校正

    板液位計(jì)是一種常用的液位測(cè)量裝置,它利用磁鐵和磁板的相互作用來實(shí)現(xiàn)液位的測(cè)量。在使用過程中,有時(shí)需要對(duì)磁板液位計(jì)進(jìn)行磁鐵校正,以確保測(cè)量的準(zhǔn)確性。以下是關(guān)于磁板液位計(jì)磁鐵校正
    的頭像 發(fā)表于 07-31 09:40 ?2012次閱讀