chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI發(fā)布了其AI音樂(lè)創(chuàng)作的深度神經(jīng)網(wǎng)絡(luò)—MuseNet

電子工程師 ? 來(lái)源:lq ? 2019-04-29 17:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI 創(chuàng)作音樂(lè)越來(lái)越熱門(mén)。

剛剛,OpenAI 發(fā)布了其 AI 音樂(lè)創(chuàng)作的深度神經(jīng)網(wǎng)絡(luò)—MuseNet,可以使用 10 種不同樂(lè)器、風(fēng)格如鄉(xiāng)村樂(lè)、莫扎特、披頭士樂(lè)隊(duì)等,生成出 4 分鐘的音樂(lè)。

OpenAI 博客最新發(fā)布文章指出,MuseNet 不是依靠人類(lèi)明確地對(duì)音樂(lè)進(jìn)行編程,而是通過(guò)學(xué)習(xí)預(yù)測(cè) token 來(lái)學(xué)習(xí)和聲、節(jié)奏、風(fēng)格的模式,他們從許多來(lái)源收集 MuseNet 的訓(xùn)練數(shù)據(jù),像是 ClassicalArchives、BitMidi 網(wǎng)站上的文件、MAESTRO 數(shù)據(jù)集,還有爵士、流行、非洲、印度和阿拉伯風(fēng)格的音樂(lè),總共利用了數(shù)十萬(wàn)個(gè) MIDI 文件。

OpenAI 也指出,MuseNet 使用與 GPT-2 相同的通用無(wú)監(jiān)督技術(shù),GPT-2 為先前 OpenAI 提出的一個(gè)大規(guī)模 Transformer 模型,訓(xùn)練 AI 可預(yù)測(cè)序列中的下一個(gè) token,包括音頻和文本,用在 MuseNet 上則是給定一組音符后,要求 AI 預(yù)測(cè)后面會(huì)出現(xiàn)的音符。另外,MuseNet 使用 Sparse Transformer 的重新計(jì)算和優(yōu)化核來(lái)訓(xùn)練一個(gè)具有 24 個(gè)注意力頭(attention head)的 72 層網(wǎng)絡(luò),其全部注意力都放在 4096 個(gè) token 的語(yǔ)境中。

當(dāng) MuseNet 知道許多不同的風(fēng)格之后,就能混合生成新的音樂(lè),舉例來(lái)說(shuō),提供機(jī)器肖邦夜曲(Chopin Nocturne)的前 6 個(gè)音符,但是,要求機(jī)器生成一段流行樂(lè),并要有鋼琴、鼓、bass 和吉他,而機(jī)器生成的音樂(lè)就完美融合了肖邦和 Bon Jovi 兩種風(fēng)格。

圖| MuseNet 音樂(lè)生成神經(jīng)網(wǎng)絡(luò)(來(lái)源:OpenAI)

之前 OpenAI 提出的 GPT-2,使用近 40 GB 的網(wǎng)頁(yè)文字訓(xùn)練而成,主要具備了生成文本、預(yù)測(cè)下一個(gè)文字的能力,例如只給機(jī)器一段文字,就會(huì)因應(yīng)前后文的風(fēng)格創(chuàng)造內(nèi)容、編寫(xiě)故事,但因?yàn)樗傻膬?nèi)容有條有理,仿真技術(shù)高,反而讓外界擔(dān)心助長(zhǎng)假新聞、網(wǎng)絡(luò)假消息的泛濫,在考量該技術(shù)可能遭惡意使用后,OpenAI 決定不放出訓(xùn)練好的模型,只公開(kāi)一小部分模型和范例。

現(xiàn)在用在音樂(lè)創(chuàng)作上,可能引起的爭(zhēng)議相對(duì)小,倒是為 GPT-2 找到了不錯(cuò)的應(yīng)用場(chǎng)景。

另外,OpenAI 剛剛還在 Twitch 上舉辦了 MuseNet 實(shí)驗(yàn)音樂(lè)會(huì),并預(yù)計(jì)在 5 月中旬放出該音樂(lè)轉(zhuǎn)換器的工具——MuseNet共同作曲家(MuseNet-powered co-composer),讓一般大眾和音樂(lè)家用來(lái)創(chuàng)作。

MuseNet 共同作曲家有幾種模式:簡(jiǎn)單模式下,用戶會(huì)聽(tīng)到已經(jīng)預(yù)先生成的隨機(jī)樣本,然后選擇一個(gè)作曲家或風(fēng)格,就可以開(kāi)始生成音樂(lè);高級(jí)模式,則可讓用戶有更多的選擇,像是選風(fēng)格、樂(lè)器等,打造全新的音樂(lè)作品。

圖|MuseNet 在 Twitch 上舉辦一場(chǎng)音樂(lè)會(huì)(來(lái)源:Twitch)

OpenAI 研究人員 Christine Payne 指出,MuseNet 仍有局限性,因?yàn)樗峭ㄟ^(guò)計(jì)算所有可能的音符和樂(lè)器的概率來(lái)產(chǎn)生每個(gè)音符,所以偶爾會(huì)做出不和諧的選擇,做出奇怪的配對(duì),例如把肖邦風(fēng)格配上 bass 和鼓。

今年 3 月,谷歌為慶祝知名音樂(lè)家巴赫的生日,在 Google Doodle 放了一個(gè)小游戲,用戶在 Doodle 按下音符及節(jié)奏,就會(huì)以巴赫的風(fēng)格演奏用戶創(chuàng)作的作品。這是使用人工智能作曲的另一個(gè)案例。

不僅谷歌、OpenAI,唱片業(yè)、音樂(lè)人本身也都在探究 AI 的應(yīng)用,在 MuseNet 于 Twitch 上舉辦音樂(lè)會(huì)之前,音樂(lè)技術(shù)專(zhuān)家 CJ Carr 和 Zack Zukowski 就在 YouTube 頻道上播放重金屬音樂(lè),這些死亡金屬串流音樂(lè)就是由他們開(kāi)發(fā)的 AI 樂(lè)團(tuán) Dadabots 所生成的,而且 24 小時(shí)不間斷。他們使用加拿大的死亡金屬樂(lè)團(tuán) Archspire 的樣本訓(xùn)練 SampleRNN 神經(jīng)網(wǎng)絡(luò),進(jìn)而可自動(dòng)生成重金屬音樂(lè)。

毫無(wú)疑問(wèn),人工智能將持續(xù)融入創(chuàng)意音樂(lè)領(lǐng)域。

圖|重金屬音樂(lè)不間斷播放,背后其實(shí)是一個(gè) AI 樂(lè)團(tuán)(來(lái)源:YouTube)

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:OpenAI發(fā)布音樂(lè)生成神經(jīng)網(wǎng)絡(luò) MuseNet,可創(chuàng)作4分鐘音樂(lè),剛剛還辦了場(chǎng)音樂(lè)會(huì)

文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?665次閱讀

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Ba
    的頭像 發(fā)表于 02-12 15:15 ?855次閱讀

    深度學(xué)習(xí)入門(mén):簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?528次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?1188次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實(shí)現(xiàn)工具和框架應(yīng)運(yùn)而生,為研究人員和開(kāi)發(fā)者提供強(qiáng)大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?670次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見(jiàn)的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1869次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來(lái)在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語(yǔ)音識(shí)別和自然語(yǔ)言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:52 ?845次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類(lèi)包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks,F(xiàn)NN
    的頭像 發(fā)表于 11-15 14:47 ?1776次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類(lèi)型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1125次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    的結(jié)構(gòu)與工作機(jī)制的介紹: 一、LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)主要包括以下幾個(gè)部分: 記憶單元(Memory Cell) : 記憶單元是LSTM網(wǎng)絡(luò)的核心,負(fù)責(zé)在整個(gè)序列處理過(guò)程中保持和更新長(zhǎng)期依賴信息。 它主要由
    的頭像 發(fā)表于 11-13 10:05 ?1631次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長(zhǎng)序列時(shí)存在梯度消失或梯度爆炸的問(wèn)題。為了解決這一問(wèn)題,LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)運(yùn)而生。 循環(huán)
    的頭像 發(fā)表于 11-13 09:58 ?1213次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新在Moku:Pro平臺(tái)新增全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶能夠在Moku設(shè)備上部署實(shí)時(shí)機(jī)器學(xué)習(xí)算法,進(jìn)行快速、靈活的信號(hào)分析、去噪、傳感器調(diào)節(jié)校準(zhǔn)、閉環(huán)反饋等應(yīng)用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?664次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來(lái)越多地支持以前無(wú)法實(shí)現(xiàn)或者難以實(shí)現(xiàn)的應(yīng)用。本文基于此解釋 卷積神經(jīng)網(wǎng)絡(luò) (CNN)及其對(duì)人工智能和機(jī)器學(xué)習(xí)的意義。CNN是一種能夠從
    發(fā)表于 10-24 13:56

    FPGA在深度神經(jīng)網(wǎng)絡(luò)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)作為核心算法之一,在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域取得了顯著成果。然而,傳統(tǒng)的深度
    的頭像 發(fā)表于 07-24 10:42 ?1202次閱讀

    如何構(gòu)建多層神經(jīng)網(wǎng)絡(luò)

    構(gòu)建多層神經(jīng)網(wǎng)絡(luò)(MLP, Multi-Layer Perceptron)模型是一個(gè)在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域廣泛使用的技術(shù),尤其在處理分類(lèi)和回歸問(wèn)題時(shí)。在本文中,我們將深入探討如何從頭開(kāi)始構(gòu)建一個(gè)多層神經(jīng)網(wǎng)絡(luò)模型,包括模型設(shè)計(jì)、
    的頭像 發(fā)表于 07-19 17:19 ?1565次閱讀