chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

RNN正在失去光芒 強化學習仍最受歡迎

電子工程師 ? 來源:fqj ? 2019-05-17 17:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ICLR 2019過去有幾天了,作為今年上半年表現(xiàn)最為亮眼的人工智能頂會共收到1591篇論文,錄取率為31.7%。

為期4天的會議,共有8個邀請演講主題,內(nèi)容包括:算法公平性的進展、對抗機器學習、發(fā)展自主學習:人工智能,認知科學和教育技術(shù)、用神經(jīng)模型學習自然語言界面等等。

當然,除此之外,還有一大堆的poster。這些都彰顯了ICLR的規(guī)格之高,研究者實力之強大。

透過現(xiàn)象看本質(zhì),一位來自越南的作家和計算機科學家Chip Huyen總結(jié)了ICLR 2019年的8大趨勢。他表示。會議組織者越來越強調(diào)包容性,在學術(shù)研究方面RNN正在失去研究的光芒......

1.包容性。

組織者強調(diào)了包容性在人工智能中的重要性,確保前兩次主要會談的開幕詞邀請講話是關(guān)于公平和平等的。

但是還是有一些令人擔憂的統(tǒng)計數(shù)據(jù):

只有8.6%的演講者和15%的參與者是女性。

在所有的LGBTQ+(Lesbian Gay Bisexual Transgender Queer:性別獨角獸群體)研究人員中,有2/3的研究人員并不是專業(yè)的。

所有8位特邀演講者都是白人。

RNN正在失去光芒 強化學習仍最受歡迎

來自薩沙·拉什(Sasha Rush)開幕詞的截圖

不幸的是,這位AI研究人員仍然感到毫無歉意。雖然其他所有的研討會的訂閱量爆滿,但在Yoshua Bengio出現(xiàn)之前,AI賦能社會(AI for Social Good)研討會一直空無一人。在我在ICLR的眾多談話中,沒有人提到過差異性,除了有一次我大力聲討地問為什么我被邀請參加這場似乎不適合我的技術(shù)活動?一位好朋友說:“有點冒犯的回答是,因為你是一個女人。”

原因之一是這個話題不是“技術(shù)性的”,因此在上面花時間將無助于你在研究領(lǐng)域的職業(yè)發(fā)展。另一個原因是仍然存在一些反對的偏見。有一次,一位朋友告訴我,不要理睬一位在群聊中嘲笑我的人,因為“那人喜歡取笑那些談?wù)撈降群筒町愋缘娜恕!蔽矣幸恍┡笥?,他們不會在網(wǎng)上討論任何關(guān)于差異性的話題,因為他們不想“與這種話題聯(lián)系在一起”。

2.無監(jiān)督表征學習與遷移學習

無監(jiān)督表示學習的一個主要目標是從未標記的數(shù)據(jù)中發(fā)現(xiàn)有用的數(shù)據(jù),以便用于后續(xù)任務(wù)。在自然語言處理中,無監(jiān)督的表示學習通常是通過語言建模來完成的。然后將學習到的表示用于諸如情感分析、名字分類識別和機器翻譯等任務(wù)。

去年發(fā)表的一些最令人興奮的論文是關(guān)于自然語言處理中的無監(jiān)督學習的,首先是ApacheElmo(Peters等人)、DB2ULMFiT(Howard等人)、ApacheOpenAI的GPT(Radford等人)、IBMBert(Devlin等人),當然還有,比較激進的202GPT-2(Radford等人)。

完整的GPT-2模型是在 ICLR演示的,它的表現(xiàn)非常好。您可以輸入幾乎任何提示,它將撰寫文章的其余部分。它可以撰寫B(tài)uzzFeed文章(美國新聞RSS訂閱,類似于今日頭條)、小說、科學研究論文,甚至是虛構(gòu)單詞的定義。但這聽起來還不完全是人類的感覺。該團隊正在研究GPT-3,會比現(xiàn)在更好。我迫不及待地想看看它能產(chǎn)生什么。

雖然計算機視覺社區(qū)是第一個將遷移學習用于工作的社區(qū),但基礎(chǔ)任務(wù)-在ImageNet上訓練分類模型-仍然受到監(jiān)督。我不斷從兩個社區(qū)的研究人員那里聽到的一個問題是:“我們?nèi)绾尾拍塬@得為圖像工作的無監(jiān)督學習?”

盡管大多數(shù)大牌研究實驗室已經(jīng)在進行這方面的研究,但在ICLR上只有一篇論文:“元學習無監(jiān)督學習的更新規(guī)則”(Metz et al.)。他們的算法不升級權(quán)值,而是升級學習規(guī)則。

然后,在少量的標記樣本上對從學習規(guī)則中學習到的表示進行調(diào)整,以完成圖像分類任務(wù)。他們找到了學習規(guī)則,在MNIST和FashionMNIST數(shù)據(jù)集上達到了70%的準確率。作者不打算發(fā)布代碼,因為“它與計算有關(guān)”。在256個GPU上,外層循環(huán)需要大約100k的訓練步驟和200個小時。

RNN正在失去光芒 強化學習仍最受歡迎

關(guān)于元學習的內(nèi)層和外層循環(huán)(Metz等人)

我有一種感覺,在不久的將來,我們將看到更多這樣的研究。可用于無監(jiān)督學習的一些任務(wù)包括:自動編碼、預測圖像旋轉(zhuǎn)(Gidaris等人的這篇論文是2018年ICLR的熱門文章),預測視頻中的下一幀。

3.機器學習的“復古”

機器學習中的思想就像時尚:它們繞著一個圈走。在海報展示會上走來走去,就像沿著記憶小路在漫步。即使是備受期待的ICLR辯論最終也是由先驗與結(jié)構(gòu)結(jié)束,這是對Yann LeCun和 Christopher Manning去年討論的回溯,而且與貝葉斯主義者和頻率論者之間的由來的辯論相似。

麻省理工學院媒體實驗室的語言學習和理解項目于2001年終止,但基礎(chǔ)語言學習今年卷土重來,兩篇論文都是基于強化學習:

DOM-Q-Net:基于結(jié)構(gòu)化語言(Jia等人)的RL-一種學習通過填充字段和單擊鏈接導航Web的RL算法,給定一個用自然語言表示的目標。

BabyAI:一個研究扎根語言學習樣本效率的平臺(Chevalier-Boisveret等人)-這是一個與OpenAI訓練兼容的平臺,具有一個手動操作的BOT代理,它模擬人類教師來指導代理學習一種合成語言。

AnonReviewer4很好地總結(jié)了我對這兩篇論文的看法:

“…這里提出的方法看起來非常類似于語義解析文獻中,已經(jīng)研究過一段時間的方法。然而,這篇論文只引用了最近深入的RL論文。我認為,讓作者熟悉這些文學作品將會使他們受益匪淺。我認為語義解析社區(qū)也會從這個…中受益。但這兩個社區(qū)似乎并不經(jīng)常交談,盡管在某些情況下,我們正在解決非常相似的問題?!?/p>

確定性有限自動機(DFA)也在今年的深度學習領(lǐng)域中占據(jù)了一席之地,它有兩篇論文:

表示形式語言的:有限自動機(FA)與遞歸神經(jīng)網(wǎng)絡(luò)(RNN)的比較(Michalenko等人)。

學習遞歸策略網(wǎng)絡(luò)的有限狀態(tài)表示(Koulet等人)

這兩篇論文背后的主要動機是,由于RNN中隱藏狀態(tài)的空間是巨大的,是否有可能將狀態(tài)數(shù)量減少到有限的狀態(tài)?我猜測DFA是否能有效地代表語言的RNN,但我真的很喜歡在訓練期間學習RNN,然后將其轉(zhuǎn)換為DFA以供參考的想法,正如Koul等人的論文中所介紹的那樣。最終的有限表示只需要3個離散的記憶狀態(tài)和10場觀察的乒乓球游戲。有限狀態(tài)表示也有助于解釋RNN。

RNN正在失去光芒 強化學習仍最受歡迎

來自RNN的學習DFA的三個階段(Koul等人)

RNN正在失去光芒 強化學習仍最受歡迎

提取的自動機(Koul等人)

4.RNN正在失去研究的光芒

2018年至2019年提交(論文)主題的相對變化表明,RNN的下降幅度最大。這并不奇怪,因為盡管RNN對于序列數(shù)據(jù)是直觀的,但它們有一個巨大的缺點:它們不能被并行化,因此不能利用自2012年以來推動研究進展的最大因素:計算能力。RNN在CV或RL中從未流行過,而對于NLP,它們正被基于注意力的體系結(jié)構(gòu)所取代。

RNN正在失去光芒。圖來自ICLR 2019數(shù)據(jù)補充

這是不是意味著RNN已經(jīng)over了?不一定。今年的兩個最佳論文獎之一是“有序神經(jīng)元:將樹結(jié)構(gòu)集成到遞歸神經(jīng)網(wǎng)絡(luò)中”。(Shen等人)。除了本文和上面提到的兩篇關(guān)于自動機的文章之外,今年又有9篇關(guān)于RNN的論文被接受,其中大多數(shù)都深入研究了RNN的數(shù)學基礎(chǔ),而不是發(fā)現(xiàn)新的RNN應用方向。

RNN在行業(yè)中仍然非?;钴S,特別是對于交易公司等處理時間序列數(shù)據(jù)的公司來說,不幸的是,這些公司通常不會發(fā)布它們的工作成果。即使RNN現(xiàn)在對研究人員沒有吸引力,說不定它可能會在未來卷土重來。

5.GAN持續(xù)火熱

盡管與去年相比GAN的相對增長略有下降, 但論文數(shù)量實際上從去年的約70篇漲到了今年的100多篇。Ian Goodfellow做了一個關(guān)于GAN的特邀報告,更是受其信徒大力推崇。以至于到了最后一天, 他不得不遮住胸前的徽章, 這樣人們才不會因為看到他的名字而激動不已。

第一個海報展示環(huán)節(jié)全是關(guān)于GAN的最新進展,涵蓋了全新的GAN架構(gòu)、舊架構(gòu)的改進、GAN分析、以及從圖像生成到文本生成再到語音合成的GAN應用。

衍生出了PATE-GAN, GANSynth, ProbGAN, InstaGAN, RelGAN, MisGAN, SPIGAN, LayoutGAN, KnockoffGAN等等不同的GAN網(wǎng)絡(luò)。總而言之,只要提到GAN我就好像變成了一個文盲,迷失在林林總總的GAN網(wǎng)絡(luò)中。值得一提的是,Andrew Brock沒有把他的大規(guī)模GAN模型叫做giGANtic讓我好生失望。

GAN的海報展示環(huán)節(jié)也揭示了在GAN問題上,ICLR社區(qū)是多么的兩極分化。我聽到有些人小聲嘟囔著“我已經(jīng)等不及看到這些GAN的完蛋啦”,“只要有人提到對抗(adversarial)我的腦瓜仁就疼”。當然,據(jù)我分析,他們也可能只是嫉妒而已。

6.缺乏生物啟發(fā)式深度學習

RNN正在失去光芒 強化學習仍最受歡迎

關(guān)于基因組學的論文為零。也沒有關(guān)于這一專題的研討會。盡管這一現(xiàn)象令人遺憾, 但也為對生物學感興趣的深度學習研究人員或?qū)ι疃葘W習感興趣的生物學家提供了巨大的機會。

趣聞軼事:Retina論文(A Unified Theory of Early Visual Representations from Retina to Cortex through Anatomically Constrained Deep CNNs)的第一作者,Jack Lindsey,還只是Stanford的一名大四學生。真是英雄出少年??!

7.強化學習仍舊是最受歡迎的主題。

會議上的報告表明,RL社區(qū)正在從model-free 方法向sample-efficient model-based和meta-learning算法轉(zhuǎn)移。這種轉(zhuǎn)變可能是受TD3和SAC在Mujoco平臺的連續(xù)控制任務(wù),以及R2D2在Atari離散控制任務(wù)上的極高得分所推動的。

基于模型的算法(即從數(shù)據(jù)中學習環(huán)境模型,并利用它規(guī)劃或生成更多數(shù)據(jù)的算法)終于能逐漸達到其對應的無模型算法的性能,而且只需要原先十分之一至百分之一的經(jīng)驗。

這一優(yōu)勢使他們適合于實際任務(wù)。盡管學習得到的單一模擬器很可能存在缺陷,但可以通過更復雜的動力學模型,例如集成模擬器,來改善它的缺陷。

另一種將RL應用到實際問題的方法是允許模擬器支持任意復雜的隨機化(arbitrarily complex randomizations):在一組不同的模擬環(huán)境上訓練的策略可以將現(xiàn)實世界視為另一個隨機化(randomization),并力求成功

元學習(Meta-learning)算法,可實現(xiàn)在多個任務(wù)之間的快速遷移學習,也已經(jīng)在樣本效率(smaple-efficiency)和性能方面取得了很大的進步(Promp(Rothfuss等人)

這些改進使我們更接近“the ImageNet moment of RL”,即我們可以復用從其他任務(wù)中學到的控制策略,而不是每個任務(wù)都從頭開始學習。

RNN正在失去光芒 強化學習仍最受歡迎

大部分已被接受的論文,連同整個Structure and Priors in RL研討會,都致力于將一些有關(guān)環(huán)境的知識整合到學習算法中。雖然早期的深度RL算法的主要優(yōu)勢之一是通用性(例如,DQN對所有Atari游戲都使用相同的體系結(jié)構(gòu),而無需知道某個特定的游戲),但新的算法表明,結(jié)合先驗知識有助于完成更復雜的任務(wù)。例如,在Transporter Network(Jakab et al.)中,使用的先驗知識進行更具信息量的結(jié)構(gòu)性探索。

綜上所述,在過去的5年中,RL社區(qū)開發(fā)了各種有效的工具來解決無模型配置下的RL問題。現(xiàn)在是時候提出更具樣本效率(sample-efficient)和可遷移性(transferable)的算法來將RL應用于現(xiàn)實世界中的問題了。

8.大部分論文都會很快被人遺忘

當我問一位著名的研究人員,他對今年被接受的論文有何看法時,他笑著說:“大部分論文都會在會議結(jié)束后被遺忘”。在一個和機器學習一樣快速發(fā)展的領(lǐng)域里,可能每過幾周甚至幾天曾經(jīng)的最好記錄就會被打破,正因此對于論文還沒發(fā)表就已經(jīng)out了這一現(xiàn)象也就見怪不怪了。例如,根據(jù)Borealis Ai對ICLR 2018的統(tǒng)計,“每八篇里面有七篇論文的結(jié)果,在ICLR會議開始之前就已經(jīng)被超越了。”

在會議期間我經(jīng)常聽到的一個評論是,接受/拒絕決定的隨機性。盡管我不會指明有哪些,但在過去幾年中,確實有一些如今被談?wù)撟疃?引用最多的論文在最初提交給會議的時候被拒了。而許多被接受的論文仍將持續(xù)數(shù)年而不被引用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50091

    瀏覽量

    265224
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    92

    瀏覽量

    7345

原文標題:ICLR 2019八大趨勢:RNN正在失去光芒,強化學習仍最受歡迎

文章出處:【微信號:BigDataDigest,微信公眾號:大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛中常提的離線強化學習是什么?

    [首發(fā)于智駕最前沿微信公眾號]在之前談及自動駕駛模型學習時,詳細聊過強化學習的作用,由于強化學習能讓大模型通過交互學到策略,不需要固定的規(guī)則,從而給自動駕駛的落地創(chuàng)造了更多可能。 強化學習
    的頭像 發(fā)表于 02-07 09:21 ?197次閱讀
    自動駕駛中常提的離線<b class='flag-5'>強化學習</b>是什么?

    強化學習會讓自動駕駛模型學習更快嗎?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛大模型訓練時,有的技術(shù)方案會采用模仿學習,而有些會采用強化學習。同樣作為大模型的訓練方式,強化學習有何不同?又有什么特點呢? 什么是強化學習
    的頭像 發(fā)表于 01-31 09:34 ?636次閱讀
    <b class='flag-5'>強化學習</b>會讓自動駕駛模型<b class='flag-5'>學習</b>更快嗎?

    多智能體強化學習(MARL)核心概念與算法概覽

    訓練單個RL智能體的過程非常簡單,那么我們現(xiàn)在換一個場景,同時訓練五個智能體,而且每個都有自己的目標、只能看到部分信息,還能互相幫忙。這就是多智能體強化學習
    的頭像 發(fā)表于 01-21 16:21 ?190次閱讀
    多智能體<b class='flag-5'>強化學習</b>(MARL)核心概念與算法概覽

    上汽別克至境E7首發(fā)搭載Momenta R6強化學習大模型

    別克至境家族迎來新成員——大五座智能SUV別克至境E7首發(fā)。新車將搭載Momenta R6強化學習大模型,帶來全場景的智能出行體驗。
    的頭像 發(fā)表于 01-12 16:23 ?321次閱讀

    2025年北匯信息在電子發(fā)燒友的十大最受歡迎文章

    的廣泛關(guān)注,故整理了最受歡迎的十大文章,看看大家最關(guān)心的是哪些內(nèi)容。 2026年,歡迎大家多多交流和反饋,有什么感興趣的的汽車電子測試相關(guān)的內(nèi)容,我們會努力原創(chuàng),更多
    的頭像 發(fā)表于 12-29 14:39 ?299次閱讀
    2025年北匯信息在電子發(fā)燒友的十大<b class='flag-5'>最受歡迎</b>文章

    最受歡迎的大數(shù)據(jù)可視化工具

    ?在數(shù)聚股份看來,大數(shù)據(jù)可視化是進行各種大數(shù)據(jù)分析的最重要組成部分之一。 一旦原始數(shù)據(jù)流被以圖像形式表示時,以此做決策就變得容易多了。 為了滿足并超越客戶的期望,大數(shù)據(jù)可視化工具應該具備這些特征: ?能夠處理不同種類型的傳入數(shù)據(jù) ?能夠應用不同種類的過濾器來調(diào)整結(jié)果 ?能夠在分析過程中與數(shù)據(jù)集進行交互 ?能夠連接到其他軟件來接收輸入數(shù)據(jù),或為其他軟件提供輸入數(shù)據(jù) ?能夠為用戶提供協(xié)作選項 ?盡管實際上存在著無數(shù)專門
    的頭像 發(fā)表于 12-24 17:05 ?253次閱讀
    <b class='flag-5'>最受歡迎</b>的大數(shù)據(jù)可視化工具

    一文讀懂LSTM與RNN:從原理到實戰(zhàn),掌握序列建模核心技術(shù)

    在AI領(lǐng)域,文本翻譯、語音識別、股價預測等場景都離不開序列數(shù)據(jù)處理。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)作為最早的序列建模工具,開創(chuàng)了“記憶歷史信息”的先河;而長短期記憶網(wǎng)絡(luò)(LSTM)則通過創(chuàng)新設(shè)計,突破
    的頭像 發(fā)表于 12-09 13:56 ?1367次閱讀
    一文讀懂LSTM與<b class='flag-5'>RNN</b>:從原理到實戰(zhàn),掌握序列建模核心技術(shù)

    【獲獎名單】2025開發(fā)板評測大賽優(yōu)秀開發(fā)者、最受歡迎開發(fā)板公布

    試用測評后通過問卷調(diào)查投票,選出了各自心目中最受歡迎的開發(fā)板?,F(xiàn)將名單一同予以公示。 大賽作品詳情:【作品精選】2025電子發(fā)燒友開發(fā)板測評大賽作品合集! 優(yōu)秀作品開發(fā)者: 專題廠商試用板子用戶
    發(fā)表于 11-21 09:31

    今日看點:智元推出真機強化學習;美國軟件公司SAS退出中國市場

    智元推出真機強化學習,機器人訓練周期從“數(shù)周”減至“數(shù)十分鐘” ? 近日,智元機器人宣布其研發(fā)的真機強化學習技術(shù),已在與龍旗科技合作的驗證產(chǎn)線中成功落地。據(jù)介紹,此次落地的真機強化學習方案,機器人
    發(fā)表于 11-05 09:44 ?1086次閱讀

    自動駕駛中常提的“強化學習”是個啥?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛時,有些方案中會提到“強化學習(Reinforcement Learning,簡稱RL)”,強化學習是一類讓機器通過試錯來學會做決策的技術(shù)。簡單理解
    的頭像 發(fā)表于 10-23 09:00 ?658次閱讀
    自動駕駛中常提的“<b class='flag-5'>強化學習</b>”是個啥?

    [投票評選]2025電子發(fā)燒友開發(fā)板測評大賽--最受歡迎開發(fā)板

    2025電子發(fā)燒友開發(fā)板測評大賽--最受歡迎開發(fā)板 大賽詳情: 電子發(fā)燒友攜手 16 家生態(tài)廠商發(fā)起開發(fā)板測評大賽,設(shè) OpenHarmony、RISC - V、Rockchip 三大賽道,共計
    發(fā)表于 10-13 16:25

    兩款國產(chǎn)1700V SiC MOSFET在逆變器/變流器輔助電源設(shè)計中廣受歡迎

    兩款國產(chǎn)1700V SiC MOSFET在逆變器/變流器輔助電源設(shè)計中廣受歡迎
    的頭像 發(fā)表于 07-23 18:10 ?1166次閱讀
    兩款國產(chǎn)1700V SiC MOSFET在逆變器/變流器輔助電源設(shè)計中廣<b class='flag-5'>受歡迎</b>

    NVIDIA Isaac Lab可用環(huán)境與強化學習腳本使用指南

    Lab 是一個適用于機器人學習的開源模塊化框架,其模塊化高保真仿真適用于各種訓練環(huán)境,Isaac Lab 同時支持模仿學習(模仿人類)和強化學習(在嘗試和錯誤中進行學習),為所有機器
    的頭像 發(fā)表于 07-14 15:29 ?2342次閱讀
    NVIDIA Isaac Lab可用環(huán)境與<b class='flag-5'>強化學習</b>腳本使用指南

    最受歡迎的單板計算機 x 最流行的移動操作系統(tǒng)

    在本文中,我們將揭秘:應在樹莓派上使用Android的4個理由從哪里獲取樹莓派的Android系統(tǒng)?該選擇哪一個?未來展望。在樹莓派上使用Android的4個理由樹莓派無疑是世界上最受歡迎
    的頭像 發(fā)表于 06-18 17:20 ?750次閱讀
    <b class='flag-5'>最受歡迎</b>的單板計算機 x 最流行的移動操作系統(tǒng)

    18個常用的強化學習算法整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實現(xiàn)

    本來轉(zhuǎn)自:DeepHubIMBA本文系統(tǒng)講解從基本強化學習方法到高級技術(shù)(如PPO、A3C、PlaNet等)的實現(xiàn)原理與編碼過程,旨在通過理論結(jié)合代碼的方式,構(gòu)建對強化學習算法的全面理解。為確保內(nèi)容
    的頭像 發(fā)表于 04-23 13:22 ?1608次閱讀
    18個常用的<b class='flag-5'>強化學習</b>算法整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實現(xiàn)