chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)/人工智能領(lǐng)域一些非常有創(chuàng)意的突破

電子工程師 ? 來源:lq ? 2019-05-19 10:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文介紹了近期在機(jī)器學(xué)習(xí)/人工智能領(lǐng)域一些非常有創(chuàng)意的突破,每一個(gè)都腦洞大開,不管是否是相關(guān)從業(yè)人員都值得一讀。并附上一些論文、視頻鏈接和簡要總結(jié)。

與其他領(lǐng)域相比,機(jī)器學(xué)習(xí)/人工智能現(xiàn)在發(fā)展的非???,經(jīng)常有一些有趣的突破。讓你不由自主的發(fā)出“wow”甚至“人間值得”的感嘆?。▋煞昼娬撐淖髡叩目陬^禪)

兩分鐘論文

https://www.youtube.com/channel/UCbfYPyITQ-7l4upoX8nvctg

免責(zé)聲明:我并沒有對“振奮人心”或“突破”進(jìn)行嚴(yán)格的定義;這只是一個(gè)非正式的清單。我會用可能不那么嚴(yán)格的術(shù)語來讓這篇文章更通俗易懂。

從看似不可用的信息中得出驚人的準(zhǔn)確估計(jì)

透過墻對人體姿態(tài)做估計(jì)

麻省理工學(xué)院研究人員的網(wǎng)站/視頻(2018年)

http://rfpose.csail.mit.edu/

我們可以根據(jù)某人對WiFi信號的擾亂,準(zhǔn)確地估計(jì)此人在墻壁另一側(cè)是如何站著/坐著/走路的。

從視頻中測量材料的物理特性

麻省理工學(xué)院研究人員的文章/視頻(2015年)

http://news.mit.edu/2015/visual-microphone-identifies-structural-defects-0521

研究人員在2014年首次展示了根據(jù)振動情況從薯片包裝袋的視頻(沒有聲音)中重現(xiàn)人類的語音。該成果沒有涉及機(jī)器學(xué)習(xí)。2015年,他們使用機(jī)器學(xué)習(xí),并展示了通過視頻來估計(jì)材料的剛度、彈性、單位面積的重量等(在某些情況下,僅僅空氣正常循環(huán)引起的振動就足夠了)。

從鍵盤旁邊的智能手機(jī)估計(jì)鍵盤敲擊

論文,2015

https://www.sigmobile.org/mobicom/2015/papers/p142-liuA.pdf

研究人員發(fā)現(xiàn),從一臺放在鍵盤旁邊的智能手機(jī)中錄制的音頻,可以以94%的準(zhǔn)確率估計(jì)鍵盤敲擊。與以前在鍵盤周圍放置許多麥克風(fēng)的情況下使用有監(jiān)督的深度學(xué)習(xí)方法不同,這篇論文實(shí)際上使用了相對簡單的機(jī)器學(xué)習(xí)技術(shù)(k-均值聚類)和無監(jiān)督學(xué)習(xí)。

生成模型

逼真的面部生成、樣式混合和移植

Nvidia研究人員的論文/視頻(2018年)

論文

https://arxiv.org/abs/1812.04948

視頻

https://www.youtube.com/watch?v=kSLJriaOumA

研究人員將一種新的結(jié)構(gòu)與大量的GPU結(jié)合起來,創(chuàng)造出極其逼真的人造人臉,這些人臉是其他人臉之間的移植,或者是一個(gè)人臉到另一個(gè)人臉的“樣式”應(yīng)用。這項(xiàng)工作建立在過去關(guān)于生成對抗網(wǎng)絡(luò)(GANs)的工作之上。GANs是在2014年發(fā)明的,從那時(shí)起對它的研究就出現(xiàn)了爆炸式增長。GANs最基本的解釋是兩個(gè)相互對抗的神經(jīng)網(wǎng)絡(luò)(例如,一個(gè)是將圖像分類為“真實(shí)”或“假冒”的神經(jīng)網(wǎng)絡(luò),另一個(gè)是以試圖“欺騙”第一個(gè)神經(jīng)網(wǎng)絡(luò)將假冒圖像錯誤分類為真實(shí)的方式生成圖像的神經(jīng)網(wǎng)絡(luò)……因此,第二個(gè)神經(jīng)網(wǎng)絡(luò)是第一個(gè)的“對手”)。

總的來說,關(guān)于對抗性機(jī)器學(xué)習(xí)有很多很酷的研究,已經(jīng)存在了十多年。對網(wǎng)絡(luò)安全等也有許多令人毛骨悚然的影響,但我再講就跑題了。

很酷的研究

https://github.com/yenchenlin/awesome-adversarial-machine-learning

教機(jī)器繪圖

Google Brain的博客帖子(2017年)

https://ai.googleblog.com/2017/04/teaching-machines-to-draw.html

兩幅圖之間的插值

我在Google Brain的好朋友David Ha用一個(gè)生成循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)來繪制基于矢量的圖形(除了自動以外,我認(rèn)為這就是Adobe Illustrator)。

David Ha

https://twitter.com/hardmaru

把炫酷的舞步遷移給不會跳舞的人

加州大學(xué)伯克利分校研究人員的網(wǎng)站/視頻(2018年)

網(wǎng)站

https://carolineec.github.io/everybody_dance_now/

視頻

https://www.youtube.com/watch?v=PCBTZh41Ris

想想“舞蹈版的Auto-Tune”。通過姿勢估計(jì)和生成對抗訓(xùn)練,研究人員能夠制作任何真人(“目標(biāo)”人物)跳舞的假冒視頻,視頻中的人舞技精湛。所需輸入僅為:

一段舞蹈高手的跳舞短視頻

幾分鐘目標(biāo)人物跳舞的視頻(通常很糟,因?yàn)榇蠖鄶?shù)人都不擅長跳舞)

我還看到了Nvidia的首席執(zhí)行官黃延森(Jensen Huang)展示了一段自己像邁克爾杰克遜一樣跳舞的視頻(用這種技術(shù))。很高興我之前參加了GPU技術(shù)大會,哈哈。

強(qiáng)化學(xué)習(xí)

世界模型-人工智能在自己的夢里學(xué)習(xí)

Google Brain網(wǎng)站(2018年)

https://worldmodels.github.io/

人類并不真正了解或思考我們生活的世界里的所有細(xì)節(jié)。我們的行為基于我們頭腦中世界的抽象。例如,如果我騎在自行車上,我不會想到自行車的齒輪/螺母/螺栓;我只是大致了解車輪、座椅和把手的位置以及如何與它們交互。為什么不對人工智能使用類似的方法呢?

這種“世界模型”方法(同樣,由David Ha等人創(chuàng)建)允許“agent”(例如,在賽車游戲中控制汽車的人工智能)創(chuàng)建一個(gè)世界/周圍環(huán)境的生成模型,這是對實(shí)際環(huán)境的簡化/抽象。所以,你可以把這個(gè)世界模型看作是一個(gè)存在人工智能頭腦中的夢。然后人工智能可以通過強(qiáng)化學(xué)習(xí)在這個(gè)“夢”中得到更好的表現(xiàn)。因此,這種方法實(shí)際上是將生成性機(jī)器學(xué)習(xí)與強(qiáng)化學(xué)習(xí)相結(jié)合。通過這種方式,研究人員能夠在特定的電子游戲任務(wù)上實(shí)現(xiàn)目前最先進(jìn)的水平。

[2019/2/15更新]在上述“世界模型”方法的基礎(chǔ)上,谷歌剛剛發(fā)布了PlaNet:Deep Planning Network for Reinformation Learning,與以前的方法相比,數(shù)據(jù)效率提高了5000%。

PlaNet:Deep Planning Network for Reinformation Learning

https://ai.googleblog.com/2019/02/introducing-planet-deep-planning.html

AlphaStar——擊敗頂級職業(yè)玩家的星際爭霸II AI

DeepMind(Google)的博客文章,e-sports-ish視頻,2019年

博客文章

https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/

e-sports-ish視頻

https://www.youtube.com/watch?v=cUTMhmVh1qs

我們在李世石和DeepMind AlphaGo之間的歷史性圍棋比賽之后已經(jīng)走了很長的路,這場比賽震撼了全世界,它僅僅發(fā)生在3年前的2016年(看看NetFlix紀(jì)錄片,讓一些人哭泣)。更令人驚訝的是,盡管沒有使用任何來自人類比賽的訓(xùn)練數(shù)據(jù),2017年的AlphaZero在圍棋方面比AlphaGo更好(也比國際象棋、日本象棋等領(lǐng)域的其他算法更好)。但2019年的AlphaStar更驚人。

李世石和DeepMind AlphaGo之間的歷史性圍棋比賽

https://en.wikipedia.org/wiki/AlphaGo_versus_Lee_Sedol

NetFlix紀(jì)錄片

https://www.netflix.com/sg/title/80190844

自1998年以來,作為一名星際迷,我很了解星際的精髓“……需要平衡短期和長期目標(biāo),適應(yīng)意外情況……這是一個(gè)巨大的挑戰(zhàn)?!边@是一個(gè)真正困難和復(fù)雜的游戲,需要多層次的理解才能玩得好。自2009年以來,對星際游戲算法的研究一直在進(jìn)行。

AlphaStar基本上使用了監(jiān)督學(xué)習(xí)(來自人類比賽)和強(qiáng)化學(xué)習(xí)(與自身對抗)的組合來實(shí)現(xiàn)其結(jié)果。

人類訓(xùn)練機(jī)器人

通過一次人工演示將任務(wù)傳授給機(jī)器

Nvidia研究人員的文章/視頻(2018年)

文章

https://news.developer.nvidia.com/new-ai-technique-helps-robots-work-alongside-humans/

視頻

https://www.youtube.com/watch?time_continue=1&v=B7ZT5oSnRys

我可以想到三種典型的方法來教機(jī)器人做一些事情,但都需要大量的時(shí)間/勞力:

針對每種情況手動編程機(jī)器人的關(guān)節(jié)旋轉(zhuǎn)等

讓機(jī)器人多次嘗試這個(gè)任務(wù)(強(qiáng)化學(xué)習(xí))

多次向機(jī)器人演示任務(wù)

通常對深度學(xué)習(xí)的一個(gè)主要批評是,產(chǎn)生數(shù)以百萬計(jì)的示例(數(shù)據(jù))是非常昂貴的。但是,有越來越多的方法不依賴如此昂貴的數(shù)據(jù)。

研究人員根據(jù)一個(gè)單一的人類演示視頻(一個(gè)實(shí)際的人類用手移動方塊),找到了一種機(jī)器人手臂成功執(zhí)行任務(wù)的方法(例如“拿起方塊并將其堆疊起來,使它們按順序排列:紅色、藍(lán)色、橙色”),即使視頻是從不同角度拍攝的。該算法實(shí)際上生成了一個(gè)它計(jì)劃執(zhí)行的任務(wù)的可讀描述,這對于故障排除非常有用。該算法依賴于具有姿態(tài)估計(jì),合成訓(xùn)練數(shù)據(jù)生成和模擬到現(xiàn)實(shí)傳遞的對象檢測。

無監(jiān)督機(jī)器翻譯

Facebook人工智能研究博客(2018年)

https://code.fb.com/ai-research/unsupervised-machine-translation-a-novel-approach-to-provide-fast-accurate-translations-for-more-languages/

通常,你需要一個(gè)龐大的翻譯文檔訓(xùn)練數(shù)據(jù)集(例如聯(lián)合國議項(xiàng)的專業(yè)翻譯),以便很好地進(jìn)行機(jī)器翻譯(即監(jiān)督學(xué)習(xí))。然后,許多主題和語言之間沒有高質(zhì)量、豐富的訓(xùn)練數(shù)據(jù)。在這篇論文中,研究人員發(fā)現(xiàn),可以使用無監(jiān)督學(xué)習(xí)(即不使用翻譯數(shù)據(jù),只使用每種語言中不相關(guān)的語料庫),達(dá)到最先進(jìn)的監(jiān)督學(xué)習(xí)方法的翻譯質(zhì)量。Wow。

基本思想是,在任何語言中,某些單詞/概念往往會出現(xiàn)在很近的位置(例如“毛茸茸的”和“貓咪”)。他們把這描述為“不同語言中的詞嵌入具有相似的鄰域結(jié)構(gòu)。”好吧,我明白這個(gè)想法,但是使用這種方法,他們可以在沒有翻譯數(shù)據(jù)集的情況下達(dá)到如此高的翻譯質(zhì)量,仍然讓人吃驚。

結(jié)語

如果你之前沒有對機(jī)器學(xué)習(xí)/人工智能的發(fā)展感興趣的話,我希望這篇文章能幫到你。也許一年后我會再寫一篇類似的文章。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    30899

    瀏覽量

    221176
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3692

    瀏覽量

    51946
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8546

    瀏覽量

    136523

原文標(biāo)題:腦洞大開!機(jī)器學(xué)習(xí)與AI突破(附鏈接)

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    自然智能與人工智能融合如何重塑芯片設(shè)計(jì)

    人類大腦是所有處理器中最復(fù)雜的,能夠構(gòu)思出不可思議的創(chuàng)意,解決復(fù)雜、微妙的問題。相比之下,人工智能擅長快速分析海量數(shù)據(jù)并高效執(zhí)行任務(wù)。當(dāng)自然智能人工智能融合的結(jié)果,就是芯片設(shè)計(jì)
    的頭像 發(fā)表于 01-15 13:58 ?297次閱讀

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個(gè)常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作段時(shí)間,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中都存在一些我們需要時(shí)
    的頭像 發(fā)表于 01-07 15:37 ?108次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見錯誤與局限性

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    應(yīng)用。 為什么選擇 Neuton 作為開發(fā)人員,在產(chǎn)品中使用邊緣人工智能的兩個(gè)最大障礙是: ML 模型對于您所選微控制器的內(nèi)存來說太大。 創(chuàng)建自定義 ML 模型本質(zhì)上是個(gè)手動過程,需要高度的數(shù)據(jù)科學(xué)知識
    發(fā)表于 08-31 20:54

    挖到寶了!人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器

    和生態(tài)體系帶到使用者身邊 ,讓我們在技術(shù)學(xué)習(xí)和使用上不再受制于人。 三、多模態(tài)實(shí)驗(yàn),解鎖AI全流程 它嵌入了2D視覺、深度視覺、機(jī)械手臂、語音識別、嵌入式傳感器等多種類AI模塊,涵蓋人工智能領(lǐng)域主要
    發(fā)表于 08-07 14:30

    挖到寶了!比鄰星人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器!

    和生態(tài)體系帶到使用者身邊 ,讓我們在技術(shù)學(xué)習(xí)和使用上不再受制于人。 三、多模態(tài)實(shí)驗(yàn),解鎖AI全流程 它嵌入了2D視覺、深度視覺、機(jī)械手臂、語音識別、嵌入式傳感器等多種類AI模塊,涵蓋人工智能領(lǐng)域主要
    發(fā)表于 08-07 14:23

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文
    發(fā)表于 07-31 11:38

    人工智能在汽車行業(yè)中的應(yīng)用

    ?人工智能(AI)是許多行業(yè)和應(yīng)用領(lǐng)域的熱門話題。但對于汽車行業(yè)而言,這并非個(gè)新概念。人工智能,尤其是機(jī)器
    的頭像 發(fā)表于 07-31 11:07 ?1944次閱讀

    人工智能究竟對電子產(chǎn)業(yè)產(chǎn)生哪些的影響?

    人工智能已徹底改變了全球技術(shù)格局,在眾多工業(yè)領(lǐng)域得到廣泛應(yīng)用。在電子產(chǎn)業(yè)中,它正成為實(shí)現(xiàn)新功能、提升效率以及優(yōu)化制造流程的關(guān)鍵推動力。例如,嵌入式行業(yè)受益于將人工智能集成到電子設(shè)備中,機(jī)器
    的頭像 發(fā)表于 07-28 18:26 ?1025次閱讀
    <b class='flag-5'>人工智能</b>究竟對電子產(chǎn)業(yè)產(chǎn)生哪些的影響?

    CES Asia 2025蓄勢待發(fā),聚焦低空經(jīng)濟(jì)與AI,引領(lǐng)未來產(chǎn)業(yè)新變革

    、機(jī)器學(xué)習(xí)等技術(shù)不斷取得新的突破,應(yīng)用場景也日益豐富。在智能家居領(lǐng)域,人工智能讓家居設(shè)備更加
    發(fā)表于 07-09 10:29

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)

    教育等領(lǐng)域發(fā)揮著越來越重要的作用。?針對日前前來咨詢的廣大客戶對面向大模型智能硬件的學(xué)習(xí)需求,我們根據(jù)CSK6大模型語音視覺開發(fā)板已有功能,整理了份適合基于本開發(fā)板進(jìn)行教學(xué)活動的
    發(fā)表于 07-04 11:10

    人工智能是做什么的

    在當(dāng)今科技日新月異的時(shí)代,人工智能(ArtificialIntelligence,簡稱AI)已成為推動社會進(jìn)步和經(jīng)濟(jì)發(fā)展的重要力量。本文旨在深入探討人工智能的核心功能、應(yīng)用領(lǐng)域,并通過具體實(shí)例解析其
    的頭像 發(fā)表于 05-30 10:04 ?819次閱讀
    <b class='flag-5'>人工智能</b>是做什么的

    人工智能視覺識別技術(shù)的應(yīng)用領(lǐng)域及場景

    人工智能視覺識別技術(shù)的應(yīng)用領(lǐng)域及場景
    的頭像 發(fā)表于 03-14 11:41 ?2717次閱讀

    成都華微與具身科技深化人工智能機(jī)器領(lǐng)域合作

    近日,成都華微與四川具身人形機(jī)器人科技有限公司(具身科技)在成都高新區(qū)四川人工智能實(shí)驗(yàn)室展開會談,雙方圍繞機(jī)器人智慧大腦與精密控制兩大關(guān)鍵核心方向展開交流,在芯片層面達(dá)成深度合作意向,攜手開啟
    的頭像 發(fā)表于 02-28 16:58 ?1086次閱讀

    數(shù)學(xué)專業(yè)轉(zhuǎn)人工智能方向:考研/就業(yè)前景分析及大學(xué)四年學(xué)習(xí)路徑全揭秘

    隨著AI技術(shù)的不斷進(jìn)步,專業(yè)人才的需求也日益增長。數(shù)學(xué)作為AI的基石,為機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、數(shù)據(jù)分析等提供了理論基礎(chǔ)和工具,因此越來越多的數(shù)學(xué)專業(yè)學(xué)生開始考慮在人工智能
    的頭像 發(fā)表于 02-07 11:14 ?1953次閱讀
    數(shù)學(xué)專業(yè)轉(zhuǎn)<b class='flag-5'>人工智能</b>方向:考研/就業(yè)前景分析及大學(xué)四年<b class='flag-5'>學(xué)習(xí)</b>路徑全揭秘

    人工智能機(jī)器學(xué)習(xí)以及Edge AI的概念與應(yīng)用

    人工智能相關(guān)各種技術(shù)的概念介紹,以及先進(jìn)的Edge AI(邊緣人工智能)的最新發(fā)展與相關(guān)應(yīng)用。 人工智能機(jī)器學(xué)習(xí)是現(xiàn)代科技的核心技術(shù)
    的頭像 發(fā)表于 01-25 17:37 ?1797次閱讀
    <b class='flag-5'>人工智能</b>和<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>以及Edge AI的概念與應(yīng)用