chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI發(fā)布了其AI音樂創(chuàng)作的深度神經(jīng)網(wǎng)絡(luò)—MuseNet

電子工程師 ? 來源:lq ? 2019-04-29 17:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI 創(chuàng)作音樂越來越熱門。

剛剛,OpenAI 發(fā)布了其 AI 音樂創(chuàng)作的深度神經(jīng)網(wǎng)絡(luò)—MuseNet,可以使用 10 種不同樂器、風(fēng)格如鄉(xiāng)村樂、莫扎特、披頭士樂隊(duì)等,生成出 4 分鐘的音樂。

OpenAI 博客最新發(fā)布文章指出,MuseNet 不是依靠人類明確地對(duì)音樂進(jìn)行編程,而是通過學(xué)習(xí)預(yù)測(cè) token 來學(xué)習(xí)和聲、節(jié)奏、風(fēng)格的模式,他們從許多來源收集 MuseNet 的訓(xùn)練數(shù)據(jù),像是 ClassicalArchives、BitMidi 網(wǎng)站上的文件、MAESTRO 數(shù)據(jù)集,還有爵士、流行、非洲、印度和阿拉伯風(fēng)格的音樂,總共利用了數(shù)十萬個(gè) MIDI 文件。

OpenAI 也指出,MuseNet 使用與 GPT-2 相同的通用無監(jiān)督技術(shù),GPT-2 為先前 OpenAI 提出的一個(gè)大規(guī)模 Transformer 模型,訓(xùn)練 AI 可預(yù)測(cè)序列中的下一個(gè) token,包括音頻和文本,用在 MuseNet 上則是給定一組音符后,要求 AI 預(yù)測(cè)后面會(huì)出現(xiàn)的音符。另外,MuseNet 使用 Sparse Transformer 的重新計(jì)算和優(yōu)化核來訓(xùn)練一個(gè)具有 24 個(gè)注意力頭(attention head)的 72 層網(wǎng)絡(luò),其全部注意力都放在 4096 個(gè) token 的語(yǔ)境中。

當(dāng) MuseNet 知道許多不同的風(fēng)格之后,就能混合生成新的音樂,舉例來說,提供機(jī)器肖邦夜曲(Chopin Nocturne)的前 6 個(gè)音符,但是,要求機(jī)器生成一段流行樂,并要有鋼琴、鼓、bass 和吉他,而機(jī)器生成的音樂就完美融合了肖邦和 Bon Jovi 兩種風(fēng)格。

圖| MuseNet 音樂生成神經(jīng)網(wǎng)絡(luò)(來源:OpenAI)

之前 OpenAI 提出的 GPT-2,使用近 40 GB 的網(wǎng)頁(yè)文字訓(xùn)練而成,主要具備了生成文本、預(yù)測(cè)下一個(gè)文字的能力,例如只給機(jī)器一段文字,就會(huì)因應(yīng)前后文的風(fēng)格創(chuàng)造內(nèi)容、編寫故事,但因?yàn)樗傻膬?nèi)容有條有理,仿真技術(shù)高,反而讓外界擔(dān)心助長(zhǎng)假新聞、網(wǎng)絡(luò)假消息的泛濫,在考量該技術(shù)可能遭惡意使用后,OpenAI 決定不放出訓(xùn)練好的模型,只公開一小部分模型和范例。

現(xiàn)在用在音樂創(chuàng)作上,可能引起的爭(zhēng)議相對(duì)小,倒是為 GPT-2 找到了不錯(cuò)的應(yīng)用場(chǎng)景。

另外,OpenAI 剛剛還在 Twitch 上舉辦了 MuseNet 實(shí)驗(yàn)音樂會(huì),并預(yù)計(jì)在 5 月中旬放出該音樂轉(zhuǎn)換器的工具——MuseNet共同作曲家(MuseNet-powered co-composer),讓一般大眾和音樂家用來創(chuàng)作。

MuseNet 共同作曲家有幾種模式:簡(jiǎn)單模式下,用戶會(huì)聽到已經(jīng)預(yù)先生成的隨機(jī)樣本,然后選擇一個(gè)作曲家或風(fēng)格,就可以開始生成音樂;高級(jí)模式,則可讓用戶有更多的選擇,像是選風(fēng)格、樂器等,打造全新的音樂作品。

圖|MuseNet 在 Twitch 上舉辦一場(chǎng)音樂會(huì)(來源:Twitch)

OpenAI 研究人員 Christine Payne 指出,MuseNet 仍有局限性,因?yàn)樗峭ㄟ^計(jì)算所有可能的音符和樂器的概率來產(chǎn)生每個(gè)音符,所以偶爾會(huì)做出不和諧的選擇,做出奇怪的配對(duì),例如把肖邦風(fēng)格配上 bass 和鼓。

今年 3 月,谷歌為慶祝知名音樂家巴赫的生日,在 Google Doodle 放了一個(gè)小游戲,用戶在 Doodle 按下音符及節(jié)奏,就會(huì)以巴赫的風(fēng)格演奏用戶創(chuàng)作的作品。這是使用人工智能作曲的另一個(gè)案例。

不僅谷歌、OpenAI,唱片業(yè)、音樂人本身也都在探究 AI 的應(yīng)用,在 MuseNet 于 Twitch 上舉辦音樂會(huì)之前,音樂技術(shù)專家 CJ Carr 和 Zack Zukowski 就在 YouTube 頻道上播放重金屬音樂,這些死亡金屬串流音樂就是由他們開發(fā)的 AI 樂團(tuán) Dadabots 所生成的,而且 24 小時(shí)不間斷。他們使用加拿大的死亡金屬樂團(tuán) Archspire 的樣本訓(xùn)練 SampleRNN 神經(jīng)網(wǎng)絡(luò),進(jìn)而可自動(dòng)生成重金屬音樂。

毫無疑問,人工智能將持續(xù)融入創(chuàng)意音樂領(lǐng)域。

圖|重金屬音樂不間斷播放,背后其實(shí)是一個(gè) AI 樂團(tuán)(來源:YouTube)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:OpenAI發(fā)布音樂生成神經(jīng)網(wǎng)絡(luò) MuseNet,可創(chuàng)作4分鐘音樂,剛剛還辦了場(chǎng)音樂會(huì)

文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物
    的頭像 發(fā)表于 12-17 15:05 ?461次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫數(shù)字識(shí)別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)器內(nèi)。 在仿真環(huán)境下,可將其存于一個(gè)文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的
    的頭像 發(fā)表于 09-28 10:03 ?1570次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+神經(jīng)形態(tài)計(jì)算、類腦芯片

    AI芯片不僅包括深度學(xué)細(xì)AI加速器,還有另外一個(gè)主要列別:類腦芯片。類腦芯片是模擬人腦神經(jīng)網(wǎng)絡(luò)架構(gòu)的芯片。它結(jié)合微電子技術(shù)和新型神經(jīng)形態(tài)器件
    發(fā)表于 09-17 16:43

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長(zhǎng)等
    的頭像 發(fā)表于 09-17 13:31 ?1299次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    連接定義神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)。 不同神經(jīng)網(wǎng)絡(luò)的DNN: 一、基于大模型的AI芯片 1、Transformer 模型與引擎 1.1 Transformer 模型概述 Transforme
    發(fā)表于 09-12 17:30

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對(duì)進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 09-10 17:38 ?1053次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b>學(xué)習(xí)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    Nordic收購(gòu) Neuton.AI 關(guān)于產(chǎn)品技術(shù)的分析

    Nordic Semiconductor 于 2025 年收購(gòu) Neuton.AI,這是一家專注于超小型機(jī)器學(xué)習(xí)(TinyML)解決方案的公司。 Neuton 開發(fā)了一種獨(dú)特的神經(jīng)網(wǎng)絡(luò)框架,能夠
    發(fā)表于 06-28 14:18

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過對(duì)無刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    的診斷誤差。仿真結(jié)果驗(yàn)證該算法的有效性。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    眾多方法中,由于結(jié)構(gòu)簡(jiǎn)單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計(jì)精度下降和對(duì)電動(dòng)機(jī)參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點(diǎn),使估計(jì)更為簡(jiǎn)單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1506次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    AI神經(jīng)網(wǎng)絡(luò)降噪算法在語(yǔ)音通話產(chǎn)品中的應(yīng)用優(yōu)勢(shì)與前景分析

    的語(yǔ)音保真度以及更低的延遲,能夠有效應(yīng)對(duì)復(fù)雜噪聲場(chǎng)景。本文將探討AI神經(jīng)網(wǎng)絡(luò)降噪在語(yǔ)音通話產(chǎn)品中的核心優(yōu)勢(shì),并分析未來發(fā)展趨勢(shì)和市場(chǎng)前景
    的頭像 發(fā)表于 05-16 17:07 ?1895次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>降噪算法在語(yǔ)音通話產(chǎn)品中的應(yīng)用優(yōu)勢(shì)與前景分析