chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌如何利用深度學習來實現(xiàn)智能郵件助手

nlfO_thejiangme ? 來源:未知 ? 作者:胡薇 ? 2018-05-23 16:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌在不久前的I/O大會上推出了輔助人們高效撰寫郵件的智能寫作助手。在深度神經(jīng)網(wǎng)絡(luò)的幫助下,它可以根據(jù)用戶很少的輸入信息就推斷出接下來想要寫入文本,就如知心好友一般默契無間了!我們先來感受一下在它的幫助下寫郵件多么暢快:

智能寫作是基于一年前谷歌發(fā)布的智能回復(fù)功能進一步研發(fā)而成的。先前的智能回復(fù)功能通過分析郵件內(nèi)容來幫助用戶快速撰寫回復(fù)郵件使用戶在移動端處理郵件的效率有了大幅的提升。

它基于人類語言中的層級結(jié)構(gòu),從字母到單詞、從短語到句子、從段落到章節(jié)和整篇完整表達的內(nèi)容。研究人員們訓練出了了一系列層級模塊用于學習、記憶和識別一種特定的模式。在足夠多樣本的訓練下層級模型取得了比LSTM更好的效果,并具有了一定的語音表達能力。下圖中藍色字體就是模型分析郵件后為用戶生成出備選的恢復(fù)內(nèi)容。

但從智能回復(fù)到智能寫作助手的研發(fā)過程中,除了迅速響應(yīng)大規(guī)模用戶的需求、還需要兼顧公平和用戶的隱私。

首先在用戶撰寫郵件時,為了不使用戶感受到明顯的延遲,其響應(yīng)需要在100ms以內(nèi),這要求在模型的效率和復(fù)雜度上做有效的權(quán)衡;目前Gmail擁有14億以上的用戶,所以模型需要有足夠的容量滿足各種不同用戶的個性化需求;除了速度和規(guī)模外,還需要防止這一功能由于訓練數(shù)據(jù)產(chǎn)生偏見,并且也要符合嚴格的隱私規(guī)定,防止用戶的隱私信息泄露。由于研究人員不可以進入email中,所以所有的機器學習系統(tǒng)都是運行在他們不可讀的數(shù)據(jù)集上的。

尋找合適的模型

典型的語言生成模型包括N-Gram、神經(jīng)詞袋和循環(huán)神經(jīng)網(wǎng)絡(luò)語言模型,它們通過先前詞匯預(yù)測后續(xù)詞匯或者句子。然而在郵件中,模型只有當前郵件對話這一單一的信號來預(yù)測后續(xù)的詞匯。為了更好的理解用戶想要表達的內(nèi)容,模型同時還會分析郵件標題和之前郵件的內(nèi)容。

這種需要疊加上下文的文本分析會帶來一個seq2seq機器翻譯同樣的問題,其中源序列是主題和先前郵件內(nèi)容的組合、目標序列則是目前用戶正在撰寫的郵件。它雖然在但是卻無法滿足嚴格的時間要求。為了改進這一點,研究人員們將詞袋模型和循環(huán)神經(jīng)網(wǎng)絡(luò)語言模型結(jié)合起來,實現(xiàn)了比seq2seq更快的的速度,但只在預(yù)測質(zhì)量上做出了輕微的犧牲。

如上圖所示,在這一混合模型中標題和先前的郵件先用詞向量平均處理,而后將他們輸入到接下來的循環(huán)神經(jīng)網(wǎng)絡(luò)中去解碼。

加速模型訓練和服務(wù)

為了加速模型的訓練和調(diào)參,研究人員們使用了自家的大殺器TPU,只需要不到一年就能在幾十億的樣本上實現(xiàn)收斂。

雖然訓練速度提高了,但在實際使用時候的速度才是用戶最為關(guān)心的指標。通過將CPU的計算請求分配到TPU上得到了迅速的推理結(jié)果,同時由于CPU的算力得到了釋放,使得單機可以提供服務(wù)的用戶數(shù)量大幅增加。

公平性和隱私

對于機器學習來說,公平性和隱私是至關(guān)重要的問題。語言模型可以折射出人類的認知偏見,這樣會生成一系列不希望的句子補全。這些偏見和聯(lián)系主要來自于語言數(shù)據(jù),這對于構(gòu)建一個無偏模式是巨大的挑戰(zhàn)。于是研究人員們通過各種方式不斷減弱訓練過程中潛在的偏見。同時智能寫作助手是構(gòu)建于數(shù)十一個樣本上的訓練結(jié)果,只有同時被多個用戶確認的通用結(jié)果才會被模型記住。

語言模型中一種常見的性別偏見

在未來這一模型會被持續(xù)改進,并嘗試著加入一些先進的模型架構(gòu)(例如transformer和RNMT+等)和先進的訓練技術(shù),同時在生產(chǎn)中部署更多的先進模型來滿足實時性和要求。個人語言模型會在隨后加入以更精確的滿足個人的寫作風格和表達習慣。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108085
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122772

原文標題:谷歌如何利用深度學習來實現(xiàn)智能郵件助手,知你所想想你所寫?

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    巨頭押寶AI眼鏡,DPVR AI Glasses將成“現(xiàn)實助手”?

    在2025年谷歌I/O大會上,谷歌提出依托GeminiLive實現(xiàn)攝像頭共享與主動提醒功能,將智能眼鏡打造為“現(xiàn)實世界助手”的戰(zhàn)略方向。這一
    的頭像 發(fā)表于 05-30 10:49 ?252次閱讀

    思必馳天琴語音助手8.0深度融合DeepSeek

    智能汽車加速向場景化服務(wù)迭代的進程中,智能語音助手已成為駕駛體驗中不可或缺的一部分。思必馳天琴語音助手 8.0憑借其卓越的技術(shù)架構(gòu),深度
    的頭像 發(fā)表于 02-28 17:43 ?1444次閱讀

    軍事應(yīng)用中深度學習的挑戰(zhàn)與機遇

    人工智能尤其是深度學習技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學習技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變
    的頭像 發(fā)表于 02-14 11:15 ?530次閱讀

    谷歌發(fā)布“深度研究”AI工具,利用Gemini模型進行網(wǎng)絡(luò)信息檢索

    據(jù)外媒最新報道,谷歌近期發(fā)布了一款名為“深度研究”的先進AI工具。這款工具借助其內(nèi)部的Gemini大型語言模型,實現(xiàn)了對網(wǎng)絡(luò)信息的高效檢索與深度挖掘,進一步滿足了用戶對精準、詳盡信息的
    的頭像 發(fā)表于 12-16 09:35 ?717次閱讀

    NPU在深度學習中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1896次閱讀

    GPU深度學習應(yīng)用案例

    GPU在深度學習中的應(yīng)用廣泛且重要,以下是一些GPU深度學習應(yīng)用案例: 一、圖像識別 圖像識別是深度學習
    的頭像 發(fā)表于 10-27 11:13 ?1338次閱讀

    FPGA加速深度學習模型的案例

    :DE5Net_Conv_Accelerator 應(yīng)用場景 :面向深度學習的開源項目,實現(xiàn)了AlexNet的第一層卷積運算加速。 技術(shù)特點 : 采用了Verilog語言進行編程,與PCIe接口相集成,可以直接插入到
    的頭像 發(fā)表于 10-25 09:22 ?1209次閱讀

    AI大模型與深度學習的關(guān)系

    人類的學習過程,實現(xiàn)對復(fù)雜數(shù)據(jù)的學習和識別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計算資源進行訓練和推理。深度
    的頭像 發(fā)表于 10-23 15:25 ?2874次閱讀

    FPGA做深度學習能走多遠?

    的應(yīng)用場景。 ? 可重構(gòu)性:在深度學習高速迭代的情況下,F(xiàn)PGA 比一些專用芯片(如 ASIC)具有更強的靈活性。當深度學習算法或模型結(jié)構(gòu)發(fā)生變化時,F(xiàn)PGA 可以通過重新編程
    發(fā)表于 09-27 20:53

    如何利用ARMxy ARM嵌入式計算機的NPU進行深度學習模型的訓練和優(yōu)化?

    在正文開始前,我們先大致了解鋇錸的ARMxy ARM嵌入式計算機,再來說說我們?nèi)绾?b class='flag-5'>利用ARMxy ARM嵌入式計算機的NPU實現(xiàn)深度學習
    的頭像 發(fā)表于 08-20 13:43 ?751次閱讀
    如何<b class='flag-5'>利用</b>ARMxy ARM嵌入式計算機的NPU進行<b class='flag-5'>深度</b><b class='flag-5'>學習</b>模型的訓練和優(yōu)化?

    labview發(fā)郵件實現(xiàn)與遠程預(yù)警

    labview發(fā)郵件實現(xiàn)與遠程預(yù)警
    發(fā)表于 08-18 11:48

    深度學習模型有哪些應(yīng)用場景

    深度學習模型作為人工智能領(lǐng)域的重要分支,已經(jīng)在多個應(yīng)用場景中展現(xiàn)出其巨大的潛力和價值。這些應(yīng)用不僅改變了我們的日常生活,還推動了科技進步和產(chǎn)業(yè)升級。以下將詳細探討深度
    的頭像 發(fā)表于 07-16 18:25 ?4069次閱讀

    深度學習模型量化方法

    深度學習模型量化是一種重要的模型輕量化技術(shù),旨在通過減少網(wǎng)絡(luò)參數(shù)的比特寬度減小模型大小和加速推理過程,同時盡量保持模型性能。從而達到把模型部署到邊緣或者低算力設(shè)備上,實現(xiàn)降本增效的目
    的頭像 發(fā)表于 07-15 11:01 ?1099次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>模型量化方法

    深度學習算法在嵌入式平臺上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習算法在各個領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學習算法部署到資源受限的嵌入式平臺上,仍然是一個具有挑戰(zhàn)性的任
    的頭像 發(fā)表于 07-15 10:03 ?3170次閱讀

    利用Matlab函數(shù)實現(xiàn)深度學習算法

    在Matlab中實現(xiàn)深度學習算法是一個復(fù)雜但強大的過程,可以應(yīng)用于各種領(lǐng)域,如圖像識別、自然語言處理、時間序列預(yù)測等。這里,我將概述一個基本的流程,包括環(huán)境設(shè)置、數(shù)據(jù)準備、模型設(shè)計、訓練過程、以及測試和評估,并提供一個基于Mat
    的頭像 發(fā)表于 07-14 14:21 ?3619次閱讀