chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

研究:Magenta的微分?jǐn)?shù)字信號(hào)處理

Tensorflowers ? 來(lái)源:TensorFlow ? 2020-09-27 14:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

簡(jiǎn)介

Sounds of India 是一款獨(dú)特而有趣的交互式音樂(lè)體驗(yàn)應(yīng)用,以印度傳統(tǒng)為靈感,并由機(jī)器學(xué)習(xí)提供支持。當(dāng)用戶(hù)在演唱印度歌曲時(shí),瀏覽器中的機(jī)器學(xué)習(xí)模型會(huì)實(shí)時(shí)將他們通過(guò)移動(dòng)設(shè)備上輸入的聲音轉(zhuǎn)換為各種印度古典樂(lè)器的聲音。

Sounds of India
https://soundsofindia.withgoogle.com/

完成整個(gè)體驗(yàn)的開(kāi)發(fā)過(guò)程僅需 12 周,您可了解開(kāi)發(fā)者在使用 TensorFlow 生態(tài)系統(tǒng)時(shí),如何快速地將模型從研究階段推進(jìn)到規(guī)模化生產(chǎn)。

研究:Magenta 的微分數(shù)字信號(hào)處理

Magenta 是 Google AI 中的一個(gè)開(kāi)源研究項(xiàng)目,旨在探索機(jī)器學(xué)習(xí)可以有哪些創(chuàng)新使用。微分?jǐn)?shù)字信號(hào)處理 (Digital Signal Processing,DDSP) 是一個(gè)全新的開(kāi)源庫(kù),融合了現(xiàn)代機(jī)器學(xué)習(xí)與可解釋信號(hào)處理技術(shù)。

Magenta
https://magenta.tensorflow.org/

DDSP
https://magenta.tensorflow.org/ddsp

不同于訓(xùn)練純深度學(xué)習(xí)模型(如 WaveNet)去逐個(gè)渲染樣本的波形,我們改為訓(xùn)練輕量級(jí)模型,這些模型能夠向這些可微的 DSP 模塊中輸出隨時(shí)間變化的控制信號(hào)(因此,DDSP 中有一個(gè)額外的“D”),從而合成最終聲音。我們?cè)?TensorFlow Keras 層的遞歸和卷積模型中整合了 DDSP,其有效生成音頻的速度為更大型自回歸模型的 1000 倍,而對(duì)模型參數(shù)和訓(xùn)練數(shù)據(jù)的需求僅為后者的百分之一。

WaveNet
https://deepmind.com/blog/article/wavenet-generative-model-raw-audio

DDSP 中一個(gè)有趣的應(yīng)用是音色轉(zhuǎn)換,即將用戶(hù)輸入的聲音轉(zhuǎn)換為樂(lè)器聲。先用目標(biāo)薩克斯對(duì) DDSP 模型開(kāi)展 15 分鐘的訓(xùn)練。然后,你可以演唱一段旋律,經(jīng)過(guò)訓(xùn)練的 DDSP 模型會(huì)將其重新渲染成薩克斯的聲音。我們已在 Sounds of India 中將這項(xiàng)技術(shù)應(yīng)用于三種印度古典樂(lè)器:Bansuri、Shehnai 和 Sarangi。

音色轉(zhuǎn)換
https://colab.sandbox.google.com/github/magenta/ddsp/blob/master/ddsp/colab/demos/timbre_transfer.ipynb#scrollTo=Go36QW9AS_CD

使用 TFX,TFJS 訓(xùn)練并部署到瀏覽器中

TFX

TensorFlow Extended (TFX)是用于生產(chǎn)機(jī)器學(xué)習(xí) (ML) 的端到端平臺(tái),包括準(zhǔn)備數(shù)據(jù)、訓(xùn)練、驗(yàn)證和在生產(chǎn)環(huán)境中部署模型。使用 TFX 訓(xùn)練模型(將用戶(hù)的聲音轉(zhuǎn)換為上述某種樂(lè)器聲),然后將這些模型轉(zhuǎn)換為 TensorFlow.js 格式,以部署在標(biāo)準(zhǔn)網(wǎng)絡(luò)瀏覽器中。

TensorFlow Extended (TFX)
https://tensorflow.google.cn/tfx/

TensorFlow.js
https://tensorflow.google.cn/js

通過(guò)部署到瀏覽器中,為用戶(hù)帶來(lái)與機(jī)器學(xué)習(xí)模型交互的無(wú)縫體驗(yàn):僅需點(diǎn)擊超鏈接,加載網(wǎng)站頁(yè)面。而無(wú)需安裝工作。在瀏覽器中運(yùn)行客戶(hù)端,我們能夠直接在傳感器數(shù)據(jù)源處執(zhí)行推理,從而最大程度地減少延遲,降低與大型顯卡、CPU 和內(nèi)存相關(guān)的服務(wù)器成本。此外,應(yīng)用會(huì)將您的聲音用作輸入,因此用戶(hù)隱私十分重要。由于整個(gè)端到端的體驗(yàn)都發(fā)生在客戶(hù)端和瀏覽器當(dāng)中,因此傳感器或麥克風(fēng)收集到的數(shù)據(jù)保留在用戶(hù)的設(shè)備上。

基于瀏覽器的機(jī)器學(xué)習(xí)模型需要進(jìn)行優(yōu)化以盡可能縮減其大小,從而降低所用帶寬。在這種情況下,每種樂(lè)器的理想超參數(shù)也大有不同。我們利用 TFX 對(duì)數(shù)百個(gè)模型進(jìn)行大規(guī)模訓(xùn)練和調(diào)試,確定每個(gè)樂(lè)器可用的最小模型尺寸。因此,我們能夠大幅降低其內(nèi)存占用。例如,在未對(duì)音質(zhì)產(chǎn)生明顯影響的情況下,Bansuri 樂(lè)器模型的磁盤(pán)占用量約降低至以前的二十分之一。

我們還可借助 TFX 在不同的模型架構(gòu)(GRU、CNN)、不同類(lèi)型的輸入(響度、RMS 能量)和不同的樂(lè)器數(shù)據(jù)源上執(zhí)行快速迭代。我們每次都能夠快速有效地運(yùn)行 TFX 流水線(xiàn),生成具有所需特性的新模型。

TensorFlow.js

構(gòu)建 TensorFlow.js DDSP 模型需要達(dá)到嚴(yán)格的性能和模型質(zhì)量目標(biāo),所以具有獨(dú)特的挑戰(zhàn)性。模型需要高效執(zhí)行音色轉(zhuǎn)換,以便在移動(dòng)設(shè)備上有效運(yùn)行。同時(shí),一旦模型質(zhì)量出現(xiàn)任何下降,便會(huì)導(dǎo)致音頻失真,進(jìn)而破壞用戶(hù)體驗(yàn)。

我們首先探索了眾多的 TensorFlow.js 后端和模型架構(gòu)。WebGL 后端的優(yōu)化程度最高,而 WebAssembly 后端則可在低端手機(jī)上運(yùn)行良好。我們采用了基于 Convnet 的 DDSP 模型,并利用 WebGL 后端,以滿(mǎn)足 DDSP 的計(jì)算需求。

WebGL 后端
https://github.com/tensorflow/tfjs/tree/master/tfjs-backend-webgl

WebAssembly 后端
https://github.com/tensorflow/tfjs/tree/master/tfjs-backend-wasm

為縮短模型下載時(shí)間。我們研究了模型的拓?fù)浣Y(jié)構(gòu),并使用 Fill/ZeroLike 算子壓縮了大量常數(shù)張量,從而將模型大小從 10MB 縮減到 300KB。

為使 TensorFlow.js 模型準(zhǔn)備就緒,以便在生產(chǎn)環(huán)境中將其大規(guī)模部署在設(shè)備上,我們還重點(diǎn)關(guān)注了以下三個(gè)主要領(lǐng)域:推理性能、內(nèi)存占用和數(shù)值穩(wěn)定性。

推理性能優(yōu)化

DDSP 模型中包括神經(jīng)網(wǎng)絡(luò)和信號(hào)合成器。合成器部分包含許多需要大量算力的信號(hào)處理算子。為提升模型在移動(dòng)設(shè)備上的性能,我們使用特殊的 WebGL Shader 重新編寫(xiě)了內(nèi)核,以便充分利用 GPU。例如,通過(guò)并行累積求和算子,推理時(shí)間可縮短 90%。

降低內(nèi)存占用

我們的目標(biāo)是盡可能在更多種類(lèi)型的移動(dòng)設(shè)備上運(yùn)行模型。由于許多手機(jī)的 GPU 顯存有限,我們需要確保盡可能降低模型的內(nèi)存占用。通過(guò)處理中間張量并添加新標(biāo)記,我們能夠提早處理 GPU 紋理,從而實(shí)現(xiàn)這一目標(biāo)。通過(guò)這些方法,我們可以將顯存占用減少 60%。

數(shù)值穩(wěn)定性

DDSP 模型需要達(dá)到非常高的數(shù)值精度,才能生成動(dòng)聽(tīng)的音樂(lè)。這一點(diǎn)與常見(jiàn)的分類(lèi)模型截然不同:在分類(lèi)模型中,一定范圍內(nèi)的精度降低并不會(huì)影響最終的分類(lèi)結(jié)果。我們?cè)诖梭w驗(yàn)中使用的 DDSP 模型為生成模型。任何精度較低和不連續(xù)的音頻輸出都可輕易被我們敏感的耳朵發(fā)覺(jué)。使用 float16 WebGL 紋理時(shí),我們遇到了數(shù)值穩(wěn)定性問(wèn)題。因此,我們重新編寫(xiě)了一些主要算子,以減少輸出結(jié)果的上溢和下溢。例如,在累積求和算子中,我們會(huì)確保在 Shader 內(nèi)以全浮點(diǎn)精度完成累積,并在將輸出結(jié)果寫(xiě)入 float16 紋理前,運(yùn)用模數(shù)計(jì)算來(lái)避免結(jié)果溢出。

動(dòng)手嘗試!

您可使用手機(jī)訪問(wèn) g.co/SoundsofIndia,嘗試此體驗(yàn)。如您愿意,請(qǐng)與我們分享您的結(jié)果。我們十分期待看到您用自己的聲音所創(chuàng)作的音樂(lè)。

如果您有興趣了解機(jī)器學(xué)習(xí)如何增強(qiáng)創(chuàng)造力與創(chuàng)新性,可瀏覽 Magenta 團(tuán)隊(duì)的博客,詳細(xì)了解該項(xiàng)目,并為他們的開(kāi)源 GitHub 貢獻(xiàn)力量,也可查看 #MadeWithTFJS,從 TensorFlow.js 社區(qū)獲得更多瀏覽器端機(jī)器學(xué)習(xí)示例。如果您對(duì)使用 ML 最佳做法在生產(chǎn)環(huán)境中大規(guī)模訓(xùn)練并部署模型比較感興趣,請(qǐng)查看 Tensorflow Extended。

博客
https://magenta.tensorflow.org/blog

GitHub
https://github.com/magenta/magenta

#MadeWithTFJS
https://twitter.com/search?q=%23madewithtfjs&src=typed_query

致謝

本項(xiàng)目的實(shí)現(xiàn)離不開(kāi) Miguel de Andrés-Clavera、Yiling Liu、Aditya Mirchandani、KC Chung、Alap Bharadwaj、Kiattiyot (Boon) Panichprecha、Pittayathorn (Kim) Nomrak、Phatchara (Lek) Pongsakorntorn、Nattadet Chinthanathatset、Hieu Dang、Ann Yuan、Sandeep Gupta、Chong Li、Edwin Toh、Jesse Engel 的巨大努力,以及 Michelle Carney、Nida Zada、Doug Eck、Hannes Widsomer 和 Greg Mikels 提供的其他幫助。非常感謝 Tris Warkentin 和 Mitch Trott 的大力支持。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:案例分享 | 輕量而高效,12 周落地一個(gè)趣味音樂(lè)交互!

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    國(guó)產(chǎn)32位高性能Audio音頻數(shù)字信號(hào)處理器(DSP)芯片-DU561

    音頻數(shù)字信號(hào)處理器(DSP)的工作原理主要通過(guò)數(shù)字化處理提升音頻質(zhì)量,其核心流程包括信號(hào)采集、處理和輸出三個(gè)關(guān)鍵環(huán)節(jié)。
    的頭像 發(fā)表于 10-22 09:47 ?303次閱讀
    國(guó)產(chǎn)32位高性能Audio音頻<b class='flag-5'>數(shù)字信號(hào)</b><b class='flag-5'>處理</b>器(DSP)芯片-DU561

    集成了光電二極管、模擬電路和數(shù)字信號(hào)處理器的數(shù)字式環(huán)境光傳感器

    數(shù)字式環(huán)境光傳感器的工作原理基于光電效應(yīng),通過(guò)感光元件將光線(xiàn)強(qiáng)度轉(zhuǎn)換為數(shù)字信號(hào)進(jìn)行處理
    的頭像 發(fā)表于 10-16 09:48 ?245次閱讀
    集成了光電二極管、模擬電路和<b class='flag-5'>數(shù)字信號(hào)</b><b class='flag-5'>處理</b>器的<b class='flag-5'>數(shù)字</b>式環(huán)境光傳感器

    為什么DSP(數(shù)字信號(hào)處理)需要Q格式?q31、q15、q7 和 f32 是什么意思呢?

    為什么DSP(數(shù)字信號(hào)處理)需要Q格式?q31、q15、q7 和 f32 是什么意思?
    發(fā)表于 08-22 06:42

    數(shù)字信號(hào)處理,科學(xué)家與工程師指南(664頁(yè))

    數(shù)字信號(hào)處理入門(mén)書(shū)籍,非常全面,清晰易懂 獲取完整文檔資料可下載附件哦?。。?! 如果內(nèi)容有幫助可以關(guān)注、點(diǎn)贊、評(píng)論支持一下哦~
    發(fā)表于 07-11 14:59

    數(shù)字信號(hào)處理的基本組成及其特點(diǎn)?

    數(shù)字信號(hào)處理 是指將事物的運(yùn)動(dòng)變化轉(zhuǎn)變?yōu)橐淮?b class='flag-5'>數(shù)字,并用計(jì)算的方法從中提取有用的信息,以滿(mǎn)足我們實(shí)際應(yīng)用的需求。 數(shù)字信號(hào)處理是利用
    的頭像 發(fā)表于 06-18 09:02 ?766次閱讀
    <b class='flag-5'>數(shù)字信號(hào)</b><b class='flag-5'>處理</b>的基本組成及其特點(diǎn)?

    STM32數(shù)字示波器源碼+數(shù)字信號(hào)處理教程、配套實(shí)例

    STM32數(shù)字示波器源碼+數(shù)字信號(hào)處理教程、配套實(shí)例 部分截圖:
    發(fā)表于 05-28 21:25

    HXS320F28027數(shù)字信號(hào)處理器(32位RISC-V DSP)

    HXS320F28027數(shù)字信號(hào)處理器(32位RISC-V DSP)HXS320F28027是中科昊芯(Haawking)基于自主研發(fā)的H28x內(nèi)核推出的32位定點(diǎn)RISC-V DSP架構(gòu)數(shù)字信號(hào)
    發(fā)表于 05-21 10:21

    進(jìn)群免費(fèi)領(lǐng)FPGA學(xué)習(xí)資料!數(shù)字信號(hào)處理、傅里葉變換與FPGA開(kāi)發(fā)等

    進(jìn)群免費(fèi)領(lǐng)FPGA學(xué)習(xí)資料啦!小編整理了數(shù)字信號(hào)處理、傅里葉變換與FPGA開(kāi)發(fā)等FPGA必看資料,需要的小伙伴可以加小助手(微信:elecfans123)或進(jìn) QQ 群:913501156 群免費(fèi)領(lǐng)
    發(fā)表于 04-07 16:41

    數(shù)字信號(hào)調(diào)制的優(yōu)勢(shì)與挑戰(zhàn)

    數(shù)字信號(hào)調(diào)制的優(yōu)勢(shì) 1. 抗干擾能力強(qiáng) 數(shù)字信號(hào)調(diào)制的主要優(yōu)勢(shì)之一是其出色的抗干擾能力。數(shù)字信號(hào)可以通過(guò)糾錯(cuò)碼來(lái)檢測(cè)和糾正傳輸過(guò)程中的錯(cuò)誤,這使得數(shù)字信號(hào)在面對(duì)噪聲和干擾時(shí)更加魯棒。
    的頭像 發(fā)表于 01-21 09:44 ?1053次閱讀

    MPU與數(shù)字信號(hào)處理的關(guān)系

    數(shù)字化時(shí)代,微處理器單元(MPU)和數(shù)字信號(hào)處理(DSP)技術(shù)已經(jīng)成為實(shí)現(xiàn)復(fù)雜計(jì)算和數(shù)據(jù)處理任務(wù)的關(guān)鍵技術(shù)。MPU作為計(jì)算機(jī)系統(tǒng)的大腦,負(fù)
    的頭像 發(fā)表于 01-08 09:29 ?1015次閱讀

    ADSP-21160M/ADSP-21160N:SHARC數(shù)字信號(hào)處理器數(shù)據(jù)手冊(cè)

    電子發(fā)燒友網(wǎng)站提供《ADSP-21160M/ADSP-21160N:SHARC數(shù)字信號(hào)處理器數(shù)據(jù)手冊(cè).pdf》資料免費(fèi)下載
    發(fā)表于 01-03 15:39 ?0次下載
    ADSP-21160M/ADSP-21160N:SHARC<b class='flag-5'>數(shù)字信號(hào)</b><b class='flag-5'>處理</b>器數(shù)據(jù)手冊(cè)

    將低成本、高性能的ADSP-21065L數(shù)字信號(hào)處理器用于數(shù)字音頻應(yīng)用

    電子發(fā)燒友網(wǎng)站提供《將低成本、高性能的ADSP-21065L數(shù)字信號(hào)處理器用于數(shù)字音頻應(yīng)用.pdf》資料免費(fèi)下載
    發(fā)表于 01-03 15:17 ?0次下載
    將低成本、高性能的ADSP-21065L<b class='flag-5'>數(shù)字信號(hào)</b><b class='flag-5'>處理</b>器用于<b class='flag-5'>數(shù)字</b>音頻應(yīng)用

    ADC的數(shù)字輸出輸入信號(hào),如SDO、SCK、CONV等數(shù)字信號(hào)怎么回流呢?

    ,如SDO、SCK、CONV等數(shù)字信號(hào)怎么回流呢?下圖中ADC數(shù)字信號(hào)直接接到數(shù)字邏輯ICs,模擬地平面與數(shù)字地平面是分割的。 2、如下圖連接,模擬地平面與
    發(fā)表于 12-24 08:27

    數(shù)字信號(hào)處理中的衰減器角色 影響衰減器性能的因素分析

    數(shù)字信號(hào)處理中的衰減器角色 在數(shù)字信號(hào)處理(DSP)中,衰減器扮演著至關(guān)重要的角色。它主要用于調(diào)整信號(hào)的功率或強(qiáng)度,以適應(yīng)不同的傳輸距離和接
    的頭像 發(fā)表于 12-10 09:23 ?1610次閱讀