chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

賦予機(jī)器自主設(shè)計(jì)模型“能力”,一文概覽結(jié)構(gòu)搜索的起源

倩倩 ? 來源:雷鋒網(wǎng) ? 2020-03-27 15:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

伴隨著人工智能技術(shù)的飛速發(fā)展,語音識別、機(jī)器翻譯等各項(xiàng)科技名詞已不是傳統(tǒng)意義上被企業(yè)家束之高閣的前景應(yīng)用,更不是研究人員諱莫如深的復(fù)雜概念,它們已經(jīng)伴隨著大數(shù)據(jù)時(shí)代的來臨走入了尋常人的身邊。如今的生活中我們無處不在享受著人工智能技術(shù)帶給我們的便利,從前在科幻電影《星際迷航》中使用的通用翻譯器,已然成為了現(xiàn)在人們出行途中能夠使用的小型翻譯機(jī)。而撥開這些實(shí)際應(yīng)用的面紗,它們背后所使用的技術(shù)往往是這些年來備受關(guān)注的神經(jīng)網(wǎng)絡(luò)模型。

通俗來講,它是一種對外部輸入信息進(jìn)行學(xué)習(xí)的數(shù)學(xué)模型或計(jì)算模型。它能夠通過對自身內(nèi)部結(jié)構(gòu)的調(diào)整來擬合輸入數(shù)據(jù),憑借著算法廣泛的通用性,其在語音、圖像、自然語言處理等眾多領(lǐng)域得到了廣泛的應(yīng)用。

電影《星際迷航》里科克船長和老骨頭所使用的實(shí)時(shí)翻譯設(shè)備

而對于目前的基于神經(jīng)網(wǎng)絡(luò)技術(shù)的各項(xiàng)任務(wù)而言,主要的過程依舊是由研究人員手動地探索新的網(wǎng)絡(luò)結(jié)構(gòu),比如我們常見的循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent neural network; RNN)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network; CNN)等。但這樣做實(shí)際上是一個(gè)非常系統(tǒng)工程的方式,我們把研究人員束縛在崗位上不斷地去“設(shè)計(jì)”所謂的更好的結(jié)構(gòu),而模型的好與壞則往往取決于人對任務(wù)的理解以及模型設(shè)計(jì)上的想象力,整個(gè)過程需要研究人員對相關(guān)領(lǐng)域有著充分的認(rèn)知,間接提高了從業(yè)人員的入門門檻,與此同時(shí)通過人工不斷地對模型結(jié)構(gòu)進(jìn)行改良也非常耗費(fèi)時(shí)間。

隨著近年來計(jì)算機(jī)設(shè)備的算力以及存儲能力逐年遞增,人們逐漸開始去思考是否我們可以讓計(jì)算機(jī)像學(xué)網(wǎng)絡(luò)參數(shù)一樣學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)?希望能通過這種方式將研究人員從模型結(jié)構(gòu)設(shè)計(jì)者的位置上“解救”出來,于是就有了這樣一個(gè)機(jī)器學(xué)習(xí)領(lǐng)域的研究分支——網(wǎng)絡(luò)結(jié)構(gòu)搜索(Neural Architecture Search; NAS)。

實(shí)際上目前神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)已經(jīng)在各個(gè)領(lǐng)域中嶄露頭角,如谷歌團(tuán)隊(duì)在Searching for Activation Functions【1】論文中通過對激活函數(shù)空間進(jìn)行搜索發(fā)現(xiàn)了Swish函數(shù),相對諸如Relu等傳統(tǒng)人工設(shè)計(jì)的激活函數(shù)具有更快的收斂速度。而微軟團(tuán)隊(duì)在WMT19機(jī)器翻譯評測任務(wù)中同樣也采用了其團(tuán)隊(duì)提出的NAO【2】方法來自動地對神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行優(yōu)化,在英語-芬蘭語以及芬蘭語-英語的任務(wù)上均取得了不俗的成績。

可以看到網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)的使用已經(jīng)為各項(xiàng)任務(wù)中模型結(jié)構(gòu)的設(shè)計(jì)起到非常好的助力,那么其背后究竟使用了怎樣的技術(shù)?如何能夠讓神經(jīng)網(wǎng)絡(luò)自動地對自身結(jié)構(gòu)進(jìn)行改良?雖然目前網(wǎng)絡(luò)結(jié)構(gòu)的搜索技術(shù)依舊方興未艾,但已然存在很多來自工業(yè)界以及學(xué)術(shù)界的團(tuán)隊(duì)在不斷努力探索更好的方法。

可以預(yù)計(jì)在不遠(yuǎn)的將來,隨著科研人員的努力以及計(jì)算資源的進(jìn)一步提升,網(wǎng)絡(luò)結(jié)構(gòu)搜索的技術(shù)將大幅降低模型結(jié)構(gòu)的更迭所需要的時(shí)間周期,同時(shí)能夠讓研究人員有更多地精力去探索有趣的應(yīng)用或討論神經(jīng)網(wǎng)絡(luò)背后的可解釋性。當(dāng)然在這個(gè)過程中,我們需要審視這門技術(shù)的發(fā)展歷史,同時(shí)對未來的發(fā)展趨勢進(jìn)行展望。

微軟團(tuán)隊(duì)在WMT19機(jī)器翻譯評測任務(wù)中英語-芬蘭語任務(wù)的提交信息

從“人工”到“自動”的突圍

人類對于自動化的追求從未停止,這一點(diǎn)從三次工業(yè)革命的目標(biāo)即可看到端倪,它們無一不在為了將人們從繁復(fù)的工作中解放出來不懈努力。而對于機(jī)器學(xué)習(xí)任務(wù)而言,人們也依舊在不斷地探索,希望能夠讓機(jī)器在無需人類過多干預(yù)的情況下,真正地替代人去完成更多的工作,而在這個(gè)過程中研究人員始終在不斷嘗試,努力做好這次從“人工”到“自動”的突圍。

機(jī)器學(xué)習(xí)方法的演化與變遷

傳統(tǒng)機(jī)器學(xué)習(xí)

如果我們將機(jī)器學(xué)習(xí)所處理的任務(wù)建模為一種從輸入到輸出的映射學(xué)習(xí),那么在初代的機(jī)器學(xué)習(xí)算法中,我們不僅需要設(shè)計(jì)一種適用于當(dāng)前任務(wù)的方法(如廣泛使用的決策樹、支持向量機(jī)等),同時(shí)還要為其提供人工設(shè)計(jì)的特征集合,在完成這些工作之后,才能使用數(shù)據(jù)對模型中的參數(shù)進(jìn)行調(diào)優(yōu)。

以情感分析為例,我們可以向模型中輸入詞性、詞頻及其情感屬性等信息,然后通過支持向量機(jī)的模型來對情感分析任務(wù)進(jìn)行建模,其中詞性、詞頻以及情感屬性即為我們從句子中提取出的人工設(shè)計(jì)的模型特征,支持向量機(jī)則是我們選擇來解決當(dāng)前問題的機(jī)器學(xué)習(xí)算法。

我們可以看到,不管是輸入的特征還是模型自身,均為研究人員歸納總結(jié)而得,這個(gè)過程就很容易造成對有效特征的忽視以及模型設(shè)計(jì)上的不合理,因此基于這種傳統(tǒng)機(jī)器學(xué)習(xí)算法的情感分析任務(wù)在IMDB Movie Reviews【3】集合上的準(zhǔn)確率一般很難超過92%(如斯坦福大學(xué)的工作Baselines and Bigrams: Simple, Good Sentiment and Topic Classification【4】,通過使用樸素貝葉斯的方法在IMDB Movie Reviews數(shù)據(jù)集上也僅達(dá)到了91.22%的準(zhǔn)確率)??梢钥吹皆跈C(jī)器學(xué)習(xí)技術(shù)的初期,整個(gè)系統(tǒng)尚且處于對“人工”高度依賴的時(shí)代。

深度學(xué)習(xí)

隨著深度學(xué)習(xí)技術(shù)的廣泛普及,人們開始嘗試將提取特征的過程交由模型來自動完成,通過數(shù)據(jù)驅(qū)動的方式減少傳統(tǒng)方法中特征遺漏的問題。比如說對于圖像處理任務(wù)而言,我們無需根據(jù)人工經(jīng)驗(yàn)對圖像中的局部特征進(jìn)行設(shè)計(jì),只需要直接將畫面完整地送入模型中進(jìn)行訓(xùn)練即可。

下圖中為人臉識別任務(wù)中不同層的神經(jīng)網(wǎng)絡(luò)對圖像信息的抽取,我們可以看到在學(xué)習(xí)過程中底層網(wǎng)絡(luò)主要是對圖像中局部紋理進(jìn)行捕捉,而隨著層數(shù)的遞增,模型開始根據(jù)下層中收集到的紋理信息對人臉中的局部結(jié)構(gòu)(如眼睛、耳朵等)進(jìn)行建模,而頂層將綜合上述局部特征對人臉在圖像中的位置進(jìn)行確定,最終達(dá)成人臉識別的目的。

人臉識別任務(wù)中不同層對圖像信息的提取差異

此外,對于前文提到的情感分析任務(wù)而言,同樣是可以使用深度學(xué)習(xí)的方式對語言進(jìn)行建模。相對基于傳統(tǒng)機(jī)器學(xué)習(xí)算法的模型而言,深度學(xué)習(xí)的方式直接接收文本的輸入,將詞匯以高維向量的方式建模為詞嵌入(word embedding)。這種方法利用高維空間對詞匯中語義信息進(jìn)行捕獲,從而為下一步的情感分析提供了非常充足的信息。

基于深度學(xué)習(xí)的情感分析模型在IMDB Movie Reviews數(shù)據(jù)集上遠(yuǎn)遠(yuǎn)超越了傳統(tǒng)的機(jī)器學(xué)習(xí)方法,在卡內(nèi)基梅隆大學(xué)與谷歌團(tuán)隊(duì)在NIPS 2019上合作發(fā)表的論文XLNet: Generalized Autoregressive Pretraining for Language Understanding【5】中,準(zhǔn)確率達(dá)到了96.8%。

從上述例子中可以看到,深度學(xué)習(xí)技術(shù)在如今的機(jī)器學(xué)習(xí)領(lǐng)域已然達(dá)成諸多優(yōu)異成績,其中非常重要的一個(gè)貢獻(xiàn)在于通過使用自動提取的方式對初始輸入信息中的有效資訊進(jìn)行捕獲,大幅度降低了手動設(shè)計(jì)特征所帶來的信息折損,為下游任務(wù)提供了更堅(jiān)實(shí)的基礎(chǔ)。

深度學(xué)習(xí)&網(wǎng)絡(luò)結(jié)構(gòu)搜索

深度學(xué)習(xí)技術(shù)的到來使得原本由人工進(jìn)行的特征提取過程交由機(jī)器自動完成,允許模型根據(jù)自身需求從原始數(shù)據(jù)中進(jìn)行特征的捕獲,通過這種數(shù)據(jù)驅(qū)動的方式有效降低了人工抽取所帶來的信息丟失風(fēng)險(xiǎn)。但當(dāng)我們回顧整個(gè)深度學(xué)習(xí)系統(tǒng),實(shí)際上其依舊并非我們期望的完全自動化的過程,在模型結(jié)構(gòu)的設(shè)計(jì)上仍然非常依賴行業(yè)專家面向任務(wù)對模型結(jié)構(gòu)進(jìn)行設(shè)計(jì)。

以機(jī)器翻譯任務(wù)為例,研究人員在模型結(jié)構(gòu)上的探索腳步從未停止,從最初基于RNN【6】對文本序列進(jìn)行表示發(fā)展到之后注意力機(jī)制【7】的引入,乃至更近一段時(shí)間的基于CNN【8】的翻譯系統(tǒng)以及目前備受關(guān)注的Transformer【9】系統(tǒng),科研人員始終在不斷地針對任務(wù)進(jìn)行模型結(jié)構(gòu)的設(shè)計(jì)與改良。但有了深度學(xué)習(xí)初期的發(fā)展,研究人員也期望著有朝一日能夠讓模型結(jié)構(gòu)設(shè)計(jì)的過程同樣不再過分依賴人工設(shè)計(jì),能夠采用同特征選擇類似的方式自動進(jìn)行學(xué)習(xí),因此在深度學(xué)習(xí)方法的基礎(chǔ)上,人們開始嘗試網(wǎng)絡(luò)結(jié)構(gòu)搜索的方式來自動得到模型結(jié)構(gòu)。

實(shí)際上網(wǎng)絡(luò)結(jié)構(gòu)搜索的任務(wù)并非起源于近些年,早在上世紀(jì)80年代,斯坦福大學(xué)的Miller, Geoffrey F.等人在Designing Neural Networks using Genetic Algorithms【10】論文中就提出使用進(jìn)化算法對神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行學(xué)習(xí)的方式,在此之后也有很多研究人員沿著該思路進(jìn)行了相關(guān)的探索(如Representation and evolution of neural networks【11】一文對進(jìn)化算法的編碼格式進(jìn)行改良,J. R. Koza等人在Genetic generation of both the weights and architecture for a neural network【12】中提出要同時(shí)對網(wǎng)絡(luò)中的結(jié)構(gòu)和參數(shù)進(jìn)行學(xué)習(xí)等)。

但受限于當(dāng)時(shí)計(jì)算資源,針對神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)搜索的應(yīng)用場景較少,因此這方面的工作并沒有受到很多研究者的關(guān)注。而隨著近些年來神經(jīng)網(wǎng)絡(luò)以及深度學(xué)習(xí)的技術(shù)的廣泛應(yīng)用,對于網(wǎng)絡(luò)結(jié)構(gòu)自學(xué)習(xí)的需求也越來越大,與此同時(shí)發(fā)展迅猛的半導(dǎo)體技術(shù)也使得設(shè)備的算力、存儲能力大大提升,為網(wǎng)絡(luò)結(jié)構(gòu)搜索任務(wù)提供了必要的支持。

縱觀整個(gè)機(jī)器學(xué)習(xí)算法的發(fā)展過程,網(wǎng)絡(luò)結(jié)構(gòu)搜索任務(wù)的出現(xiàn)可以看作是歷史的必然。無論是數(shù)據(jù)資源的累積還是計(jì)算能力的提升,無一不在催生著數(shù)據(jù)驅(qū)動下的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)。雖然目前的網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)尚且處于比較初級的階段,其高資源消耗、模型結(jié)構(gòu)不穩(wěn)定等問題始終困擾著研究人員,但是其發(fā)展勢頭迅猛,在圖像、自然語言處理等領(lǐng)域均開始嶄露頭角。

可以預(yù)見的是,深度學(xué)習(xí)&網(wǎng)絡(luò)結(jié)構(gòu)搜索的組合將是把研究人員從模型工程的泥淖中救起的稻草,我們也相信網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)會終將為機(jī)器學(xué)習(xí)完成這場從“人工”到“自動”的終局突圍。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「龍芯之光 自主可控處理器設(shè)計(jì)解析」閱讀體驗(yàn)】--全書概覽與概述

    金屬-氧化物-半導(dǎo)體場效應(yīng)管和個(gè)電容組成。這種結(jié)構(gòu)的設(shè)計(jì)充分利用了電容能夠存儲電荷的特性,以及MOSFET作為開關(guān)控制電荷存儲的能力。 定時(shí)器在計(jì)算機(jī)系統(tǒng)的運(yùn)行與控制中發(fā)揮著至關(guān)重要的作用,其本質(zhì)
    發(fā)表于 01-18 12:58

    百度心大模型5.0-Preview文本能力國內(nèi)第

    11月8日凌晨,LMArena大模型競技場最新排名顯示,心全新模型ERNIE-5.0-Preview-1022登上文本排行榜全球并列第二、中國第
    的頭像 發(fā)表于 11-11 17:15 ?1317次閱讀

    安森美產(chǎn)品如何助力打造下自主移動機(jī)器

    類員工嚴(yán)格隔離的。不過,細(xì)心的小伙伴會發(fā)現(xiàn),隨著新自主移動機(jī)器人(AMR)的出現(xiàn),機(jī)器人在人們心目中的刻板形象正在被打破,它們正在被賦予
    的頭像 發(fā)表于 10-27 15:11 ?1655次閱讀

    NVIDIA 利用全新開源模型與仿真庫加速機(jī)器人研發(fā)進(jìn)程

    科研人員及開發(fā)者打造功能更強(qiáng)大、適應(yīng)性更強(qiáng)的機(jī)器人。 ? 全新的 NVIDIA Isaac GR00T 開源基礎(chǔ)模型將為機(jī)器賦予接近人類的推理能力
    的頭像 發(fā)表于 09-30 09:52 ?2947次閱讀
    NVIDIA 利用全新開源<b class='flag-5'>模型</b>與仿真庫加速<b class='flag-5'>機(jī)器</b>人研發(fā)進(jìn)程

    自主生產(chǎn):制造業(yè)的未來

    。這些系統(tǒng)具有自適應(yīng)能力、聯(lián)網(wǎng)能力和學(xué)習(xí)能力,而不會成不變地執(zhí)行任務(wù)。 人類的作用仍然是核心 盡管自動化程度不斷提高,但人類的作用仍然不可替代。
    發(fā)表于 09-15 15:08

    龍芯中科與心系列模型開展深度技術(shù)合作

    ”解決方案。 強(qiáng)強(qiáng)聯(lián)合!自主架構(gòu)賦能大模型訓(xùn)練 心大模型 心4.5系列模型均使用飛槳深度學(xué)習(xí)
    的頭像 發(fā)表于 07-02 16:53 ?1276次閱讀

    百度心大模型X1 Turbo獲得信通院當(dāng)前大模型最高評級證書

    百度在520居然還領(lǐng)了個(gè)證?是它, 信通院當(dāng)前大模型最高評級證書 ! 在5月20日的百度AI Day 上,中國信通院公布了大模型推理能力評估結(jié)果—— 百度心大
    的頭像 發(fā)表于 05-21 18:19 ?1189次閱讀
    百度<b class='flag-5'>文</b>心大<b class='flag-5'>模型</b>X1 Turbo獲得信通院當(dāng)前大<b class='flag-5'>模型</b>最高評級證書

    LD Gen2 Lite激光雷達(dá):賦予機(jī)器人 “感知力” 的關(guān)鍵

    機(jī)器人的感知世界里,激光雷達(dá)宛如雙敏銳的“慧眼”,賦予機(jī)器人“看”清周圍環(huán)境、自主決策的能力
    的頭像 發(fā)表于 04-25 10:42 ?634次閱讀

    百度發(fā)布心大模型4.5和文心大模型X1

    心大模型4.5是百度自主研發(fā)的新代原生多模態(tài)基礎(chǔ)大模型,通過多個(gè)模態(tài)聯(lián)合建模實(shí)現(xiàn)協(xié)同優(yōu)化,多模態(tài)理解
    的頭像 發(fā)表于 03-18 16:29 ?765次閱讀

    機(jī)器人驅(qū)動部件如何選型?看懂?。姍C(jī)、減速器)

    到2032年市場規(guī)模復(fù)合年均增長率將達(dá)到33.3%。 ? 從2024年開始,全球多家機(jī)器人公司推出全新的人形機(jī)器人硬件產(chǎn)品,AI大模型和強(qiáng)化學(xué)習(xí)技術(shù)的應(yīng)用,則幫助人形機(jī)器人解決了運(yùn)動算
    的頭像 發(fā)表于 03-15 00:22 ?3675次閱讀
    <b class='flag-5'>機(jī)器</b>人驅(qū)動部件如何選型?<b class='flag-5'>一</b><b class='flag-5'>文</b>看懂!(電機(jī)、減速器)

    百度下心大模型正式開源

    隨著心大模型的迭代升級和成本不斷下降,言將于4月1日0時(shí)起全面免費(fèi),所有PC端和APP端用戶均可體驗(yàn)心系列最新
    的頭像 發(fā)表于 02-17 13:44 ?904次閱讀

    百度搜索心智能體平臺接入DeepSeek及心大模型深度搜索

    夠免費(fèi)使用DeepSeek和文心大模型的深度搜索功能。這功能不僅融合了先進(jìn)的搜索算法,還借助心大模型
    的頭像 發(fā)表于 02-17 09:14 ?1071次閱讀

    百度心大模型4月1日起全面免費(fèi)開放

    列最新的模型功能。 百度表示,心大模型的此次升級不僅帶來了更加豐富的功能,還致力于提升用戶體驗(yàn)。與此同時(shí),百度還透露,言將同步上線深
    的頭像 發(fā)表于 02-14 09:19 ?748次閱讀

    機(jī)器學(xué)習(xí)模型市場前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計(jì)算能力的飛速提升,機(jī)器學(xué)習(xí)模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機(jī)器學(xué)習(xí)模型市場
    的頭像 發(fā)表于 02-13 09:39 ?690次閱讀

    Kaggle知識點(diǎn):7種超參數(shù)搜索方法

    數(shù)據(jù)科學(xué)超參數(shù)搜索確實(shí)是機(jī)器學(xué)習(xí)生命周期中不可或缺的步,特別是在模型性能方面。正確的超參數(shù)選擇可以顯著提高模型的準(zhǔn)確性、對未見數(shù)據(jù)的泛化
    的頭像 發(fā)表于 02-08 14:28 ?1859次閱讀
    Kaggle知識點(diǎn):7種超參數(shù)<b class='flag-5'>搜索</b>方法