往往在放下手機(jī)之后你才會(huì)意識(shí)到,電話那頭的客服其實(shí)是個(gè)機(jī)器人;或者準(zhǔn)確地說,是“一位”智能客服。
沒錯(cuò),今天越來越多的工作正在被交給人工智能技術(shù)去完成,文本轉(zhuǎn)語音(TTS,Text To Speech)就是其中非常成熟的一部分。它的發(fā)展,決定了今天我們聽到的許多“人聲”,是如此地逼真,以至于和真人發(fā)聲無異。
除了我們接觸最多的智能客服,智能家居中的語音助手、可以服務(wù)聽障人士的無障礙播報(bào),甚至是新聞播報(bào)和有聲朗讀等服務(wù),事實(shí)上都基于TTS這項(xiàng)技術(shù)。它是人機(jī)對話的一部分——簡單地說,就是讓機(jī)器說人話。
它被稱為同時(shí)運(yùn)用語言學(xué)和心理學(xué)的杰出之作。不過在今天,當(dāng)我們稱贊它的杰出時(shí),更多的是因?yàn)樗谠诰€語音生成中表現(xiàn)出的高效。
要提升語音合成效率當(dāng)然不是一件容易的事。這里的關(guān)鍵是如何讓神經(jīng)聲碼器高效地用于序列到序列聲學(xué)模型,來提高TTS質(zhì)量。
科學(xué)家已經(jīng)開發(fā)出了很多這樣的神經(jīng)網(wǎng)絡(luò)聲碼器,例如WaveNet、Parallel WaveNet、WaveRNN、LPCNet 和 Multiband WaveRNN等,它們各有千秋。
WaveNet聲碼器可以生成高保真音頻,但在計(jì)算上它那巨大的復(fù)雜性,限制了它在實(shí)時(shí)服務(wù)中的部署;
LPCNet聲碼器利用WaveRNN架構(gòu)中語音信號(hào)處理的線性預(yù)測特性,可在單個(gè)處理器內(nèi)核上生成超實(shí)時(shí)的高質(zhì)量語音;但可惜,這對在線語音生成任務(wù)而言仍不夠高效。
科學(xué)家們希望TTS能夠在和人的“交流”中,達(dá)到讓人無感的順暢——不僅是語調(diào)上的熱情、親切,或冷靜;更要“毫無”延遲。
新的突破出現(xiàn)在騰訊。騰訊 AI Lab(人工智能實(shí)驗(yàn)室)和云小微目前已經(jīng)率先開發(fā)出了一款基于WaveRNN多頻帶線性預(yù)測的全新神經(jīng)聲碼器FeatherWave。經(jīng)過測試,這款高效高保真神經(jīng)聲碼器可以幫助用戶顯著提高語音合成效率。
英特爾的工程團(tuán)隊(duì)也參與到了這項(xiàng)開發(fā)工作中。他們把面向第三代英特爾至強(qiáng)可擴(kuò)展處理器所做的優(yōu)化進(jìn)行了全面整合,并采用了英特爾深度學(xué)習(xí)加速技術(shù)(英特爾 DL Boost)中全新集成的 16 位 Brain Floating Point (bfloat16) 功能。
bfloat16是一個(gè)精簡的數(shù)據(jù)格式,與如今的32位浮點(diǎn)數(shù)(FP32)相比,bfloat16只通過一半的比特?cái)?shù)且僅需對軟件做出很小程度的修改,就可達(dá)到與FP32同等水平的模型精度;與半浮點(diǎn)精度 (FP16) 相比,它可為深度學(xué)習(xí)工作負(fù)載提供更大的動(dòng)態(tài)范圍;與此同時(shí),它無需使用校準(zhǔn)數(shù)據(jù)進(jìn)行量化/去量化操作,因此比 INT8 更方便。這些優(yōu)勢不僅讓它進(jìn)一步提升了模型推理能力,還讓它能為模型訓(xùn)練提供支持。
事實(shí)上,英特爾至強(qiáng)可擴(kuò)展處理器本就是專為運(yùn)行復(fù)雜的人工智能工作負(fù)載而設(shè)計(jì)的。借助英特爾深度學(xué)習(xí)加速技術(shù),英特爾志強(qiáng)可擴(kuò)展處理器將嵌入式 AI 性能提升至新的高度。目前,此種處理器現(xiàn)已支持英特爾高級(jí)矢量擴(kuò)展 512 技術(shù)(英特爾AVX-512 技術(shù))和矢量神經(jīng)網(wǎng)絡(luò)指令 (VNNI)。
在騰訊推出的全新神經(jīng)聲碼器FeatherWave 聲碼器中,就應(yīng)用了這些優(yōu)化技術(shù)。
FeatherWave 聲碼器框圖
利用英特爾AVX-512技術(shù)和bfloat16指令,騰訊的科學(xué)家們確保了GRU模塊和Dense運(yùn)算符中粗略部分/精細(xì)部分的所有SGEMV計(jì)算都使用512位矢量進(jìn)行矢量化,并采用bfloat16點(diǎn)積指令;對于按元素逐個(gè)加/乘等運(yùn)算以及其他非線性激活,都使用最新的英特爾AVX-512 指令運(yùn)行。
在最終都性能測試中,通過優(yōu)化,相同質(zhì)量水平(MOS4.5)的文本轉(zhuǎn)語音速度比FP32提升了高達(dá)1.54倍。
此外,騰訊還以 GAN 和 Parallel WaveNet (PWaveNet)為基礎(chǔ),推出了一種改進(jìn)后的模型,并基于第三代英特爾至強(qiáng)可擴(kuò)展處理器對模型性能進(jìn)行了優(yōu)化,最終使性能與采用FP32相比提升了高達(dá)1.89倍,同時(shí)質(zhì)量水平仍保持不變 (MOS4.4)。
騰訊在TTS領(lǐng)域的進(jìn)展顯示出了人工智能領(lǐng)域的一個(gè)趨勢,那就是科學(xué)家們越來越多開始利用英特爾深度學(xué)習(xí)加速技術(shù)在CPU平臺(tái)上開展工作。
就像騰訊在針對TTS的探索中獲得了性能提升那樣,第二代和第三代英特爾至強(qiáng)可擴(kuò)展處理器在集成了加速技術(shù)后,已經(jīng)顯著提升了人工智能工作負(fù)載的性能。
在更廣泛的領(lǐng)域內(nèi),我們已經(jīng)能夠清楚地看到這種變化——在效率表現(xiàn)上,由于針對常見人工智能軟件框架,如TensorFlow和PyTorch、庫和工具所做的優(yōu)化,CPU平臺(tái)可以幫助保持較高的性能功耗比和性價(jià)比。
尤其是擴(kuò)展性上,用戶在設(shè)計(jì)系統(tǒng)時(shí)可以利用如英特爾以太網(wǎng)700系列,和英特爾傲騰內(nèi)存存儲(chǔ)技術(shù),來優(yōu)化網(wǎng)絡(luò)和內(nèi)存配置。這樣一來,他們就可以在充分利用現(xiàn)有硬件投資的情況下,輕松擴(kuò)展人工智能訓(xùn)練的工作負(fù)載,獲得更高的吞吐量,甚至處理巨大的數(shù)據(jù)集。
不止于處理器平臺(tái)本身,英特爾目前在面向人工智能優(yōu)化的軟件,以及市場就緒型人工智能解決方案兩個(gè)維度,都建立起了差異化的市場優(yōu)勢。
例如在軟件方面,英特爾2019年2月進(jìn)行的 OpenVINO/ResNet50 INT8 性能測試顯示,使用 OpenVINO或TensorFlow和英特爾深度學(xué)習(xí)加速技術(shù)時(shí),人工智能推理性能可提高多達(dá) 3.75 倍。
今天,英特爾已經(jīng)攜手解決方案提供商,構(gòu)建了一系列的精選解決方案。這些方案預(yù)先進(jìn)行了配置,并對工作負(fù)載進(jìn)行了優(yōu)化。這就包括了如基于人工智能推理的英特爾精選解決方案,以及面向在面向在Apache Spark上運(yùn)行的BigDL的英特爾精選解決方案等。
這些變化和方案的出現(xiàn)對于那些希望能從整體業(yè)務(wù)視角,去觀察人工智能進(jìn)展的機(jī)構(gòu)或企業(yè)的管理層顯然也很有意義——如果只通過優(yōu)化,就能在一個(gè)通用平臺(tái)上完成所有人工智能的探索和落地,那么投資的價(jià)值就能夠?qū)崿F(xiàn)最大化。
許多企業(yè)做出了這樣的選擇,GE醫(yī)療就是其中一家。作為GE集團(tuán)旗下的醫(yī)療健康業(yè)務(wù)部門,它構(gòu)建了一個(gè)人工智能醫(yī)學(xué)影像部署架構(gòu)。
通過采用英特爾至強(qiáng)可擴(kuò)展處理器,和英特爾固態(tài)盤,以及多項(xiàng)英特爾關(guān)鍵技術(shù)——例如英特爾深度學(xué)習(xí)開發(fā)工具包,和面向深度神經(jīng)網(wǎng)絡(luò)的英特爾數(shù)學(xué)核心函數(shù)庫等;GE醫(yī)療收獲了未曾預(yù)料到的成果:
這一解決方案最終比基礎(chǔ)解決方案的推理速度提升了多達(dá)14倍,且超過了GE原定推理目標(biāo)5.9倍。
責(zé)任編輯:xj
-
機(jī)器人
+關(guān)注
關(guān)注
213文章
29748瀏覽量
212928 -
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4814瀏覽量
103645 -
智能化
+關(guān)注
關(guān)注
15文章
5128瀏覽量
57288
發(fā)布評(píng)論請先 登錄
用于LEGIC Advant UID/序列號(hào)的NFC讀卡器,為什么無法讀取這些卡的UID/序列號(hào)?
使用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測
如何使用MATLAB構(gòu)建Transformer模型

時(shí)空引導(dǎo)下的時(shí)間序列自監(jiān)督學(xué)習(xí)框架

循環(huán)神經(jīng)網(wǎng)絡(luò)的常見調(diào)參技巧
如何使用RNN進(jìn)行時(shí)間序列預(yù)測
如何使用Python構(gòu)建LSTM神經(jīng)網(wǎng)絡(luò)模型
LSTM神經(jīng)網(wǎng)絡(luò)在時(shí)間序列預(yù)測中的應(yīng)用
LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)
如何訪問UCD90XXX序列器GPIO

評(píng)論