chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Google最新發(fā)布的一個用于幫助訓練和評估關鍵詞識別系統(tǒng)的口語詞匯組成的音頻數(shù)據(jù)集

8g3K_AI_Thinker ? 來源:未知 ? 作者:李倩 ? 2018-04-16 15:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在本文中,我們描述了Google最新發(fā)布的一個用于幫助訓練和評估關鍵詞識別系統(tǒng)的口語詞匯組成的音頻數(shù)據(jù)集。討論了為什么這個任務是一個有趣的挑戰(zhàn),以及為什么它需要一個專門的,與用于對完整句子進行自動語音識別的傳統(tǒng)數(shù)據(jù)集所不同的數(shù)據(jù)集。

我們提出了一種對該任務進行可重復、可比較的精確度指標度量方法。描述了數(shù)據(jù)是如何被收集和驗證的,它所包含的內容,以及其以前的版本和屬性。通過報告在該數(shù)據(jù)集上訓練的模型的基線結果而得出了結論。

一般說來,語音識別研究傳統(tǒng)上需要大學或企業(yè)等大型機構的資源來進行。在這些機構工作的人通??梢酝ㄟ^與語言數(shù)據(jù)聯(lián)盟(Linguistic Data Consortium)等組織達成協(xié)議,從而自由地訪問并使用學術數(shù)據(jù)集或者專有的商業(yè)數(shù)據(jù)。

隨著語音技術的成熟,想要訓練和評估識別模型的人數(shù)已經不僅只是這些傳統(tǒng)組織群體,但是數(shù)據(jù)集的可用性并沒有被擴展。正如ImageNet和計算機視覺領域中類似的集合所顯示的那樣,拓寬對數(shù)據(jù)集的訪問可以鼓勵跨組織的協(xié)作,并使得在不同方法之間能夠進行同類比較,幫助整個領域向前發(fā)展。

語音命令數(shù)據(jù)集(Speech Commands dataset)是為一類簡單的語音識別任務構建標準訓練和評估數(shù)據(jù)集的嘗試。它的主要目標是提供一種方法來構建和測試小模型,這些模型可以從背景噪音或不相關語音中以盡可能少的誤報(false positives),從一組10個或更少的目標單詞中檢測出單個單詞的使用時間,這個任務通常被稱為關鍵詞識別。

為了覆蓋到更廣泛的研究人員和開發(fā)人員,該數(shù)據(jù)集已經在“知識共享”(Creative Commons)4.0許可下被發(fā)布了出來。這使該數(shù)據(jù)集能夠很容易地被納入到教程和其他腳本中,可以被下載和使用,而不需要任何用戶干預(例如,在網(wǎng)站上注冊或向管理員發(fā)送電子郵件尋求許可)。該許可證在商業(yè)環(huán)境中也是眾所周知的,因此通常在需要批準的情況下可以由法律團隊快速處理。

圖1:數(shù)據(jù)集中每個單詞的記錄數(shù)量

▌相關研究

Mozilla的通用語音(Common Voice)數(shù)據(jù)集擁有2萬名不同的人的超過500個小時的語音,并且可以在“知識共享”Zero許可(類似于公共域)下使用。這個許可證使得構建它非常容易。它由句子對齊,并且是由志愿者通過網(wǎng)絡應用程序閱讀請求的短語而創(chuàng)建的。

LibriSpeech是一個1000小時的閱讀英語演講集,在“知識共享”4.0許可下發(fā)布,并使用受到廣泛支持的開源FLAC編碼器進行存儲。它的標簽只在句子級別上對齊,因此缺少詞級的對齊信息。這使得它比起關鍵詞識別更適合全自動語音識別。

TIDIGITS包含由300位不同說話者錄制的25,000位數(shù)字序列,由付費的參與者在安靜的房間錄制。該數(shù)據(jù)集只能在來自語言數(shù)據(jù)聯(lián)盟的商業(yè)許可下使用,并且以NIST SPHERE文件格式存儲,這種格式被證實難以使用現(xiàn)代軟件來解碼。我們關于關鍵詞識別的初始實驗是使用該數(shù)據(jù)集進行的。

CHiME-5擁有在人們家中錄制的50個小時的語音記錄,存儲為16 KHz的 WAV文件,并可以在有限的許可下使用。它在句子級別對齊。

許多語音接口依賴關鍵詞識別來啟動交互。例如,你可能會說”Hey Google"或"Hey Siri”開始查詢或命令你的手機。一旦設備知道你想要進行交互,就可以將音頻發(fā)送到Web服務以運行一個僅受商業(yè)考慮限制的模型,因為它可以在資源由云服務提供商控制的服務器上運行。雖然交互開始的初始檢測想要作為基于云的服務運行是不切實際的,因為它需要始終從所有設備通過網(wǎng)絡發(fā)送音頻數(shù)據(jù)。這樣維護成本會非常高,并且會增加該技術的隱私風險。

相反,大多數(shù)語音接口在手機或其他設備上本地運行識別模塊。這種連續(xù)監(jiān)聽來自麥克風的音頻輸入,并不是通過互聯(lián)網(wǎng)將數(shù)據(jù)發(fā)送到服務器,而是他們運行監(jiān)聽所需觸發(fā)短語的模型。一旦聽到可能的觸發(fā)信號后,就開始將音頻傳輸?shù)絎eb服務。由于本地模型在不受Web服務提供商控制的硬件上運行,因此設備模型必須尊重硬資源限制。其中最明顯的是,通常移動處理器所具有的總計算能力比大多數(shù)服務器要低得多,因此為了實現(xiàn)交互式響應,近似實時運行,設備模型的計算所需的計算量必須少于其等效云計算量。

更巧妙的是,移動設備的電池續(xù)航時間有限,而且持續(xù)運行的任何設備都需要非常節(jié)能,否則用戶會發(fā)現(xiàn)設備的耗電速度太快。這一考慮不適用于插電式家用設備,但這些設備在可以消散多少熱量上存在一定的限制,從而限制了本地模型可用的能源數(shù)量,并受到諸如能源之星(EnergyStar)等計劃的鼓勵,盡可能減少其整體用電量。最后需要考慮的是,用戶期望設備能夠做出快速響應,而網(wǎng)絡延遲可能會因環(huán)境而變化很大,因此,即使服務器的全部響應延遲,一些命令已收到的初始確認對于獲得良好體驗也很重要。

這些約束意味著,關鍵詞識別的任務與一旦發(fā)現(xiàn)交互后在服務器上執(zhí)行的語音識別是完全不同的:

關鍵詞識別模型必須更小,所涉及的計算量更少。

它們需要以非常節(jié)能的方式運行。

它們的大部分輸入是沉默或背景噪聲,而不是言語,所以誤報必須盡量減少。

大部分語音輸入與語音接口無關,因此模型不應觸發(fā)任意語音。

識別的重要單位是單個單詞或短語,而不是整個句子。

這些差異意味著設備內關鍵詞識別和一般語音識別模型之間的訓練和評估過程是完全不同的。有一些有發(fā)展前景的數(shù)據(jù)集可以支持通用的語音任務,例如Mozilla的通用語音,但它們不容易適用于關鍵詞識別。

此語音命令數(shù)據(jù)集旨在滿足構建和測試設備上模型的特殊需求,使模型作者能夠使用與其他模型相媲美的度量標準來演示其架構的精確度,并為團隊提供一種簡單的方法通過對相同數(shù)據(jù)進行訓練來重現(xiàn)基準模型。希望這將加速進展和協(xié)作,并提高可用模型的整體質量。

第二個重要受眾是硬件制造商。通過使用密切反映產品需求的公開可用任務,芯片供應商可以以潛在購買者易于比較的方式展示其產品的精確度和能源使用情況。這種增加的透明度應該會導致硬件更好地滿足產品要求。這些模型還應提供硬件工程師可用來優(yōu)化其芯片的清晰規(guī)范,并可能提出模型更改,以便提供更高效的實現(xiàn)。機器學習和硬件之間的這種協(xié)同設計可以是一個良性循環(huán),在各個領域之間增加有用信息的流動,而這對雙方都有幫助。

圖2:使用不同訓練數(shù)據(jù)的Top-One精確度評估結果

該數(shù)據(jù)集的版本1于2017年8月3日發(fā)布,包含1,881位演講者的64,727條發(fā)言。使用V1訓練數(shù)據(jù)對來自TensorFlow教程(基于卷積神經網(wǎng)絡的小尺寸關鍵詞識別)中的默認卷積模型進行訓練,當對V1的測試集進行評估時,TopOne得分為85.4%。使用本文中所記錄的數(shù)據(jù)集版本2對相同模型進行訓練,產生了一個模型,該模型在從V2數(shù)據(jù)中提取的訓練集中Top-One得分為88.2%。在V2數(shù)據(jù)上進行訓練,但是針對V1測試集進行評估的模型得到89.7%的Top-One得分,這表明V2訓練數(shù)據(jù)在精確度上比V1大大提高。圖2列出了完整結果。

總而言之,該語音命令數(shù)據(jù)集對于訓練和評估多種模型來說是非常有用的,而第二個版本顯示了相較于原始數(shù)據(jù)的等效測試數(shù)據(jù)的改進結果。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:Google發(fā)布最新「語音命令」數(shù)據(jù)集,可有效提高關鍵詞識別系統(tǒng)性能

文章出處:【微信號:AI_Thinker,微信公眾號:人工智能頭條】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    [討論]提高網(wǎng)站關鍵詞排名的28SEO小技巧

    提高網(wǎng)站關鍵詞排名的28SEO小技巧關鍵詞位置、密度、處理 URL中出現(xiàn)關鍵詞(英文) 網(wǎng)頁標題中出現(xiàn)關鍵詞(1-3
    發(fā)表于 12-01 17:08

    TF-IDF測量文章的關鍵詞相關性研究

    停用詞的移除、大小寫字母轉化和詞干提取。4)獲取查詢。獲取單詞權重,對于可疑文檔利用TF-IDF獲得關鍵詞,并排序得到相應的關鍵詞列表。排在前n關鍵詞組成
    發(fā)表于 01-26 10:38

    文讀懂語言識別技術原理1

    、卡內基梅隆大學(CMU)、斯坦福等學術界和工業(yè)界非常頂級的研究機構也都加入到語音識別的研究中去。其中,卡耐基梅隆大學研發(fā)出harpy語音識別系統(tǒng),該系統(tǒng)能夠識別1011
    發(fā)表于 06-28 11:27

    基于Cortex-M處理器的高精度關鍵詞識別實現(xiàn)

    更勝籌。關鍵詞識別神經網(wǎng)絡管道由于要保持“永遠在線”,KWS 應用的功耗預算受到很大限制。雖然 KWS 應用也可在專用 DSP 或高性能 CPU 上運行,但更適合在 Arm Cortex-M 微控制器
    發(fā)表于 07-23 06:59

    關鍵詞優(yōu)化有哪些實用的方法

    在這里就來和大家起來分享下。關鍵詞應該怎么去優(yōu)化,這是我們的思考,然后就要想對應的方法去做優(yōu)化,通常我們做
    發(fā)表于 08-11 01:19

    將cnc數(shù)控機床關鍵詞優(yōu)化到百度前三,詢盤無憂

    `CNC加工外貿如何找客戶,GOOGLE優(yōu)化推廣轉化率更高電話CNC數(shù)控加工國外客戶out了,我有妙計將cnc數(shù)控機床關鍵詞優(yōu)化到百度前三,詢盤無憂百度關鍵詞排名+網(wǎng)絡推廣代運營,兩者需要
    發(fā)表于 11-18 14:17

    如何在Cortex-M處理器上實現(xiàn)高精度關鍵詞識別

    如何在 Cortex-M 處理器上實現(xiàn)高精度關鍵詞識別
    發(fā)表于 02-05 07:14

    可分離卷積神經網(wǎng)絡在 Cortex-M 處理器上實現(xiàn)關鍵詞識別

    處理器可以在關鍵詞識別應用中達到很高的精度,同時通過調整網(wǎng)絡架構來限制內存和計算需求。DS-CNN 架構提供最高的精度,而且需要的內存和計算資源也低得多。代碼、模型定義和預訓練模型可從獲取。我們全新的提供
    發(fā)表于 07-26 09:46

    基于HMM的語音識別系統(tǒng)是怎么訓練

    基于HMM的語音識別系統(tǒng)是怎么訓練的?有哪些步驟?
    發(fā)表于 12-23 06:16

    example/speech_recognition/asr樣例寫了關鍵詞識別程序,關鍵詞識別后播放提升音失敗的原因?

    仿造example/speech_recognition/asr樣例寫了關鍵詞識別程序,識別關鍵詞
    發(fā)表于 03-10 06:18

    基于強度熵解決中文關鍵詞識別

    文本的關鍵詞識別是文本挖掘中的基本問題之。在研究現(xiàn)有基于復雜網(wǎng)絡的關鍵詞識別方法的基礎上,從整個復雜網(wǎng)絡拓撲結構特征的信息缺失角度來考察各
    發(fā)表于 11-24 09:54 ?7次下載
    基于強度熵解決中文<b class='flag-5'>關鍵詞</b><b class='flag-5'>識別</b>

    英特爾助力人工智能語言識別

    在近日舉行的NeurIPS大會上,發(fā)布了兩冊英特爾提供支持的關于口語數(shù)據(jù)的白皮書,其中,《人的語言》主要涉及到“自動語音識別”任務,另
    的頭像 發(fā)表于 01-18 15:31 ?1558次閱讀

    在Raspberry Pi4上實現(xiàn)面部表情識別系統(tǒng)

    在本教程中,我們將在 Raspberry Pi 4 上實現(xiàn)情緒識別系統(tǒng)或面部表情識別系統(tǒng)。我們將應用預訓練模型從實時視頻流中識別人的面部表情。 “ FER2013 ”??
    發(fā)表于 08-01 17:30 ?2751次閱讀
    在Raspberry Pi4上實現(xiàn)<b class='flag-5'>一</b><b class='flag-5'>個</b>面部表情<b class='flag-5'>識別系統(tǒng)</b>

    語音識別喚醒的技術與應用

    語音識別喚醒是指種特定的語音指令,能夠喚醒智能語音助手或語音識別系統(tǒng)。這種特定的語音指令通常是
    的頭像 發(fā)表于 06-24 04:02 ?2441次閱讀

    TinyML變得簡單:關鍵詞識別(KWS)

    電子發(fā)燒友網(wǎng)站提供《TinyML變得簡單:關鍵詞識別(KWS).zip》資料免費下載
    發(fā)表于 07-13 10:20 ?4次下載
    TinyML變得簡單:<b class='flag-5'>關鍵詞</b><b class='flag-5'>識別</b>(KWS)