chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人機交互的未來 搜狗聯(lián)合清華天工研究院推出ChoreoNet模型

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2020-08-24 11:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

聲音與AI行為搭配在一起,會發(fā)生怎樣的化學(xué)反應(yīng)呢?這一話題,正在成為國內(nèi)外AI研究比較熱衷的新方向。

比如卡內(nèi)基·梅隆大學(xué)和CMU機器人研究所,就在研究聲音和機器人動作之間的相互作用;國內(nèi)則從數(shù)字人入手,搜狗分身技術(shù)團隊聯(lián)合清華大學(xué)天工智能計算研究院賈珈老師團隊,率先展開了音頻驅(qū)動身體動作的研究。

近日二者共同發(fā)表的數(shù)字人技術(shù)論文《ChoreoNet: 基于舞蹈動作單元的音樂-舞蹈合成框架》,就被2020國際頂級盛會ACM Multimedia錄用為長文。

作為計算機領(lǐng)域諾貝爾獎——圖靈獎的評選機構(gòu),ACM(國際計算機學(xué)會Association for Computing Machinery)的業(yè)界地位不用贅述,旗下的ACM Multimedia也被認為是多媒體技術(shù)領(lǐng)域奧運級別的頂級盛會,論文接受率很低。

那么,能得到頂會的認可,這一新技術(shù)究竟有哪些開創(chuàng)性呢?

聞聲起舞,“樂舞合成”是怎樣實現(xiàn)的?

讓數(shù)字人根據(jù)文本語義做出相對應(yīng)的面部表情及肢體動作,目前已經(jīng)有不少成熟的應(yīng)用,比如AI合成主播。如果再能夠跟隨音頻做出同步、自然的肢體反應(yīng),無疑會在多種場景中產(chǎn)生奇妙的化學(xué)反應(yīng)。

不過,隨聲而動這件事的難度在于,背后需要解決的技術(shù)問題不少,比如:

傳統(tǒng)音樂與舞蹈合成的方式是基線法,通過人體骨骼關(guān)鍵點的映射,但許多關(guān)鍵點難以捕捉和預(yù)測,就會出現(xiàn)高度冗余和噪聲,導(dǎo)致合成結(jié)果的不穩(wěn)定、動作節(jié)銜接不像真人。

后來,雅爾塔等學(xué)者也提出要通過AI的弱監(jiān)督學(xué)習(xí)來解決上述問題,但由于缺乏對人類舞蹈經(jīng)驗知識的了解,依然會出現(xiàn)合成不夠自然、情感表達不夠流暢的問題。

另外,由于音樂片段比較長,背后伴隨著成千上萬的動作畫面,需要智能體記住并映射這種超長的序列也是一大挑戰(zhàn)。

搜狗及清華天工院研究團隊所做的突破,就是將人類專業(yè)知識融入算法,提出了一個模仿人類舞蹈編排的程序ChoreoNet,來根據(jù)音樂生成動態(tài)優(yōu)美連貫、非線性高度擬真的舞蹈。

簡單來說,ChoreoNet是將專業(yè)舞者的各個動作單元與音樂旋律捕捉并數(shù)據(jù)化,然后讓AI在其中尋找規(guī)律,知道在怎樣的音樂節(jié)拍、旋律風(fēng)格中應(yīng)該做出怎樣的舞蹈動作,進而形成連貫的動作軌跡。

其中,研究人員共突破了兩個環(huán)節(jié):

1.舞蹈知識化。用動作捕捉采集專業(yè)的人類舞者是如何根據(jù)音樂的節(jié)奏、旋律來編排動作的。研究人員收集了4種不同類型(恰恰、華爾茲、倫巴和探戈)的舞蹈數(shù)據(jù),數(shù)個音樂節(jié)拍裁剪出一個編舞動作單元(CAUs) 相對應(yīng)的片段,形成一個動作控制單元(CA),形成一個音樂與動作的映射序列。

2.之前采集的舞蹈動作只是人體骨骼關(guān)鍵點數(shù)據(jù),怎樣讓它們之間的連續(xù)過渡更加自然呢?研究人員借助NLP語義理解,讓AI可以根據(jù)積累的知識進行實時反應(yīng)。利用GAN設(shè)計了一個運動生成模型,讓AI可以繪制一些舞蹈動作,補上缺失的數(shù)據(jù),從而實現(xiàn)舞蹈的平滑過渡,產(chǎn)生自然的效果。

實驗結(jié)果證明,與基線法相比,ChoreoNet性能更好,可以生成持續(xù)時間較長的結(jié)構(gòu)化控件,來生成與音樂匹配的動作,并使其自然連接、情感流暢。

在這一突破中,搜狗對音頻驅(qū)動身體動作這一課題的敏銳感知,以及AI分身技術(shù)在身體動作及姿態(tài)生成方面的加成,無疑是領(lǐng)先技術(shù)能力與創(chuàng)新意識的絕佳組合。

持續(xù)領(lǐng)跑,搜狗與分身技術(shù)的不解之緣

可以看到,ChoreoNet的出現(xiàn),既帶來了人機交互能力的提升,也給機器學(xué)習(xí)融入了知識元素。這可以看做是搜狗“分身技術(shù)”的一次進階,也側(cè)面印證了搜狗以“自然交互+知識計算”為核心的AI技術(shù)版圖,正在持續(xù)狂奔,也得以積蓄起不斷引領(lǐng)技術(shù)方向的勢能。

從2018年首創(chuàng)分身技術(shù)之后,搜狗的研發(fā)腳步從未停止,持續(xù)專注于如何以文本及音頻更好驅(qū)動數(shù)字人的面部表情及唇動進行研究。相繼在2D/3D數(shù)字人領(lǐng)域構(gòu)建了音畫同步、逼真的面部表情唇動生成及驅(qū)動能力。

如何能夠讓數(shù)字人更加自然并且富有表現(xiàn)力也是搜狗分身的重點研究方向,其中身體動作以及姿態(tài)的表達至關(guān)重要。在對數(shù)字人的面部驅(qū)動達到較高標準后,搜狗將研究重點從面部為主的驅(qū)動轉(zhuǎn)到面部+動作的驅(qū)動,重點攻關(guān)如何讓肢體動作更具自然表現(xiàn)力。如在今年5月推出的3D AI合成主播身上,不僅有經(jīng)得起高清鏡頭考驗的面部表現(xiàn),同時實現(xiàn)了以文本語義為驅(qū)動的自如行走。

如今,ChoreoNet更進一步,實現(xiàn)了以音頻對AI數(shù)字人進行實時驅(qū)動。搜狗在業(yè)內(nèi)率先嘗試并取得突破性研發(fā)結(jié)果的這一舉動,更是一改只能由文本、語義驅(qū)動AI分身面部+動作的現(xiàn)狀,為行業(yè)帶來了更多的創(chuàng)新可能,搜狗的分身技術(shù)理想與實力也躍然紙上。

不斷打造可視化、能自然交互的AI數(shù)字人,搜狗到底想做什么?

人機交互的未來,與搜狗的技術(shù)遠景

回歸到企業(yè)戰(zhàn)略層面,搜狗的AI理念是讓AI賦能于人。通過人機協(xié)作,把人從重復(fù)性工作中解放出來,更好地解放社會生產(chǎn)力。比如AI主播,就可以讓主持人不再困于朗讀既定內(nèi)容,可以投身于更具創(chuàng)造性的工作。當(dāng)然,這一切都要從更自然的人機交互開始,完成一次次交流與觸碰。

而此次ChoreoNet讓數(shù)字人跟隨音樂起舞,這個創(chuàng)意的突破不僅僅是技術(shù)上夠炫酷,應(yīng)用空間也非常巨大。

不出意外,搜狗很大可能會將該技術(shù)同3D數(shù)字人相結(jié)合,因為相較2D數(shù)字人,3D數(shù)字人的肢體靈活性、可塑性驅(qū)動更強,從而有更廣泛的應(yīng)用空間。音頻驅(qū)動技術(shù)的加入,不僅能豐富搜狗3D數(shù)字人在新聞播報、外景采訪的場景,更直接有助于突破融媒體領(lǐng)域、向娛樂、影視等領(lǐng)域落地進軍??梢钥吹剑谝曈X的人機交互會越來越成為主流,比如當(dāng)前流行的智能客服、虛擬偶像等等,往往需要大量文本、語義的輸入來進行推理與交互,虛擬偶像的動作也需要捕捉后由人工逐幀進行制作,而改為音頻驅(qū)動可以更為直接地實現(xiàn)語音交流,節(jié)省制作/計算的步驟與成本。

此外,人類知識體系與機器學(xué)習(xí)的結(jié)合,讓AI能力有極大的提升。通過垂直領(lǐng)域的知識數(shù)據(jù)進行訓(xùn)練和學(xué)習(xí),從而提供更精準、可靠的服務(wù),大大提升AI客服的接受度。

當(dāng)然,音頻驅(qū)動也可以生成更具人性化的個人秘書,幫助人減輕工作負擔(dān)、提高效率的同時,通過音頻識別與判斷來實時反應(yīng),表現(xiàn)力更加豐富,讓智能家居、服務(wù)機器人等更好地融入生活環(huán)境,在老人關(guān)懷、私人助理、兒童陪伴等等場景之中,扮演更積極的角色。

業(yè)內(nèi)有個共識,一般情況下只有對日常生活和技術(shù)突破具有巨大影響潛力的研究項目,才會被ACM Multimedia通過和錄取。從這個角度看,搜狗與清華天工院所做的工作,遠遠不只是學(xué)術(shù)上的突破那么簡單。當(dāng)全球科技巨頭都在探索如何用多模態(tài)交互締造新玩法、新功能的時候,搜狗已經(jīng)向前邁出了讓人眼前一亮的步伐。

讓數(shù)字人更像人,就能更早地與人類達成親密無間的配合與協(xié)作,對于人類和AI來說,同樣重要。也正由于此,世界頂級盛會才會投注認可與鼓勵。下一次,搜狗會為數(shù)字人集齊怎樣的能力呢?我們拭目以待。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人機交互
    +關(guān)注

    關(guān)注

    12

    文章

    1247

    瀏覽量

    56470
  • 搜狗
    +關(guān)注

    關(guān)注

    0

    文章

    91

    瀏覽量

    14114
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2959

    瀏覽量

    110802
  • 數(shù)字
    +關(guān)注

    關(guān)注

    1

    文章

    1698

    瀏覽量

    51916
  • 清華
    +關(guān)注

    關(guān)注

    0

    文章

    16

    瀏覽量

    18891
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    蘇州唯理科技神經(jīng)腕帶肌電臂環(huán)人機交互演示

    人機交互
    jf_74911425
    發(fā)布于 :2025年07月08日 22:02:34

    恩智浦與吉利汽車研究院成立聯(lián)合創(chuàng)新實驗室,共創(chuàng)汽車智能化未來

    恩智浦半導(dǎo)體宣布,與吉利汽車研究院成立聯(lián)合創(chuàng)新實驗室,深化雙方合作,聚焦智能化汽車技術(shù),攜手創(chuàng)新,助力吉利汽車智能化戰(zhàn)略加速落地。 吉利汽車研究院常務(wù)副院長任向飛,恩智浦半導(dǎo)體執(zhí)行副總裁兼高級模擬
    的頭像 發(fā)表于 07-04 16:07 ?1407次閱讀

    導(dǎo)遠科技與清華大學(xué)無錫應(yīng)用技術(shù)研究院達成合作

    近日,導(dǎo)遠科技與清華大學(xué)無錫應(yīng)用技術(shù)研究院(以下簡稱:研究院)達成合作。導(dǎo)遠科技將提供高精度定位產(chǎn)品及解決方案,以支持研究院在L4級自動駕駛和人形機器人領(lǐng)域的技術(shù)研發(fā)及轉(zhuǎn)化落地。
    的頭像 發(fā)表于 06-12 16:34 ?402次閱讀

    華寶新能與電子科技大學(xué)(深圳)高等研究院共建聯(lián)合實驗室

    為加速新能源技術(shù)創(chuàng)新與產(chǎn)業(yè)轉(zhuǎn)化,助力國家“雙碳”目標實現(xiàn)與粵港澳大灣區(qū)國際科創(chuàng)中心建設(shè),近日,華寶新能與電子科技大學(xué)(深圳)高等研究院成立“華寶新能光伏儲能電子聯(lián)合實驗室”,并在電子科技大學(xué)(深圳
    的頭像 發(fā)表于 05-30 19:58 ?393次閱讀

    清華牽頭深開鴻參與:混合智能人機交互系統(tǒng)獲批立項

    攻關(guān)任務(wù),由工業(yè)和信息化部主責(zé)推進。 該項目的目標是研發(fā)一套面向混合智能的自然人機交互軟硬件系統(tǒng),旨在提升人機交互的自然性、智能性和高效性。通過結(jié)合清華大學(xué)在人工智能、人機交互等領(lǐng)域的
    的頭像 發(fā)表于 01-23 16:33 ?846次閱讀

    鯤云科技與中國工業(yè)互聯(lián)網(wǎng)研究院成立AI+安全生產(chǎn)聯(lián)合實驗室

    在 2025 年 1 月 14 日舉行的智算創(chuàng)新研究院開業(yè)盛典上,鯤云科技與中國工業(yè)互聯(lián)網(wǎng)研究院(以下簡稱“工聯(lián)”)正式宣布聯(lián)合成立“AI+安全生產(chǎn)
    的頭像 發(fā)表于 01-14 18:01 ?1155次閱讀

    啟英泰倫新推出多意圖自然說,重塑離線人機交互新標準!

    智能語音識別技術(shù)作為人機交互領(lǐng)域的一場革命性突破,正逐步重塑我們與智能設(shè)備的交互方式。近期,啟英泰倫新推出了多意圖自然說技術(shù),進一步增強了人機交互的自然流暢度與操作便捷性。AI語音2.
    的頭像 發(fā)表于 01-03 16:01 ?554次閱讀
    啟英泰倫新<b class='flag-5'>推出</b>多意圖自然說,重塑離線<b class='flag-5'>人機交互</b>新標準!

    浪潮信息與智源研究院攜手共建大模型多元算力生態(tài)

    近日,浪潮信息與北京智源人工智能研究院正式簽署戰(zhàn)略合作協(xié)議,雙方將緊密合作,共同構(gòu)建大模型多元算力開源創(chuàng)新生態(tài)。 此次合作旨在提升大模型創(chuàng)新研發(fā)的算力效率,降低大模型應(yīng)用開發(fā)的算力門檻
    的頭像 發(fā)表于 12-31 11:49 ?606次閱讀

    芯??萍糉orceTouch3.0:重塑人機交互新境界

    在追求極致用戶體驗的智能時代,每一次技術(shù)的革新都是對未來的深度探索。芯海科技,作為業(yè)界領(lǐng)先的芯片設(shè)計企業(yè),憑借其ForceTouch3.0技術(shù),正引領(lǐng)著一場人機交互的變革,為智能手機、智能穿戴、家電乃至汽車電子等領(lǐng)域注入了全新的活力與可能。
    的頭像 發(fā)表于 11-28 09:20 ?642次閱讀
    芯??萍糉orceTouch3.0:重塑<b class='flag-5'>人機交互</b>新境界

    新的人機交互入口?大模型加持、AI眼鏡賽道開啟百鏡大戰(zhàn)

    Chat AI眼鏡、蜂巢科技推出的界環(huán)AI音頻眼鏡等,不同品牌推出的新品都有其各自的定位。與此同時,在市場需求的帶動下,越來越多企業(yè)進入AI眼鏡賽道。 ? ? 全新的人機交互入口已現(xiàn)?大模型
    的頭像 發(fā)表于 11-21 00:57 ?3989次閱讀
    新的<b class='flag-5'>人機交互</b>入口?大<b class='flag-5'>模型</b>加持、AI眼鏡賽道開啟百鏡大戰(zhàn)

    天馬與武進南大未來技術(shù)創(chuàng)新研究院達成戰(zhàn)略合作

    近日,天馬新型顯示技術(shù)研究院(廈門)有限公司、上海天馬微電子有限公司與武進南大未來技術(shù)創(chuàng)新研究院就Micro LED業(yè)務(wù)、非顯傳感業(yè)務(wù)達成戰(zhàn)略合作。
    的頭像 發(fā)表于 11-14 11:53 ?768次閱讀

    具身智能對人機交互的影響

    在人工智能的發(fā)展歷程中,人機交互一直是研究的核心領(lǐng)域之一。隨著技術(shù)的進步,人機交互的方式也在不斷演變。從最初的命令行界面,到圖形用戶界面,再到現(xiàn)在的自然語言處理和語音識別,每一次技術(shù)的突破都極大
    的頭像 發(fā)表于 10-27 09:58 ?971次閱讀

    字節(jié)跳動與清華AIR成立聯(lián)合研究中心

    近日,清華大學(xué)智能產(chǎn)業(yè)研究院(AIR)與字節(jié)跳動共同宣布成立“可擴展大模型智能技術(shù)聯(lián)合研究中心”(SIA Lab),并在
    的頭像 發(fā)表于 10-12 15:24 ?811次閱讀

    深圳云芯晨半導(dǎo)體科技有限公司榮幸地宣布與深圳清華大學(xué)研究院攜手合作

    深圳云芯晨半導(dǎo)體科技有限公司榮幸地宣布我們與深圳清華大學(xué)研究院攜手合作, 在2004年3月共同開發(fā)出了與英偉達網(wǎng)卡交換機匹配的高速率光模塊, 800G OSFP SR8,400G OSFP SR4。
    的頭像 發(fā)表于 08-30 15:55 ?894次閱讀

    摩爾線程攜手智源研究院完成基于Triton的大模型算子庫適配

    近日,摩爾線程與北京智源人工智能研究院(簡稱:智源研究院)已順利完成基于Triton語言的高性能算子庫FlagGems的適配工作。得益于摩爾線程自研統(tǒng)一系統(tǒng)計算架構(gòu)MUSA,雙方在短短一周多的時間
    的頭像 發(fā)表于 08-02 11:06 ?1439次閱讀