chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

70年來,人們在AI領域“一直連續(xù)犯著同樣的錯誤”

jmiy_worldofai ? 來源:lp ? 2019-03-26 15:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

70年來, 人們在AI領域“一直連續(xù)犯著同樣的錯誤”。

這是“強化學習之父”理查德·薩頓(Richard S. Sutton)為同行后輩們敲響的警鐘。

他在博客上發(fā)表最新文章《苦澀的教訓》(The Bitter Lesson),總結(jié)了AI發(fā)展史上的怪圈:

人類不斷試圖把自己的知識和思維方式植入到AI之中,比如用人類的思路教AI下棋、將讓AI按照人類總結(jié)的思路來識別圖像等等。這些做法,能帶來暫時的性能提升,長期來看卻會阻礙研究的持續(xù)進步。

真正的突破,總是來自完全相反的方向。摒棄人類在特定領域的知識、利用大規(guī)模算力的方法,總會獲得最終勝利。

靠自我對弈磨煉圍棋技藝的AlphaGo,基于統(tǒng)計方法、深度學習來識別語音、圖像的算法,一次次擊敗先前那些濃縮了人類知識的AI,甚至人類自己。

搜索、學習,充分利用大規(guī)模算力才是王道。用人類在特定領域的知識來提升AI智能體的能力,都是在走彎路。

薩頓說:“將AI建立在我們對自身思維方式的認知上,是行不通的。”

OpenAI首席科學家Ilya Sutskever精辟地總結(jié)了薩頓的核心觀點:算力常勝。

文章一發(fā)出,就引發(fā)了熱烈的討論,OpenAI CTO Greg Brockman、特斯拉AI總監(jiān)Andrej Karpathy等人都在轉(zhuǎn)發(fā)附議。

DeepMind機器學習團隊主管&牛津大學教授Nando de Freitas甚至稱之為“周末必讀”。

然而,也有反對的聲音。

牛津大學計算機系教授希蒙·懷特森(Shimon Whiteson)連發(fā)13條Twitter反駁薩頓的觀點,表示“堅決不同意”,同樣獲得了大量支持。

懷特森認為,構(gòu)建AI當然需要融入人類知識,問題只在于該何時、如何、融入哪些知識。

AI的歷史進程是一場融入人類知識的勝利??茖W家們廣泛嘗試,拋棄失敗的99%,留下有用的1%。而這1%,對現(xiàn)代人工智能算法成功的重要性不亞于薩頓推崇的大量計算資源。

一場隔空論戰(zhàn),就這樣展開了。

我們先讀完“本周末必讀”的薩頓博文,看看正方的觀點。

苦澀的教訓

回溯70年的AI研究,從中得出的最大經(jīng)驗是,利用計算力的通用方法最終總是最有效的,而且遙遙領先。

出現(xiàn)這種情況的終極原因是摩爾定律,或者寬泛一點來說,是單位算力成本的持續(xù)指數(shù)級下降。

大多數(shù)AI研究都以智能體可用算力恒定為前提進行,在這種情況下,利用人類知識可能是提升性能的唯一方法。但是,將目光投向比一個典型研究項目更長遠的時間段,就會發(fā)現(xiàn)必然有更多可用的算力出現(xiàn)。

為了尋求短期可見的提升,研究人員會利用該領域的人類知識,但從長遠來看,利用算力才是唯一重要的事。

雖然但這兩者看似沒有必要相互對立,但實際上它們往往是對立的。

在一個方向上花費的時間,就必然不能花在另一個方向。對于某一種方法的投入也會帶來心理上的承諾。

同時,用人類知識來提升AI會傾向于使方法復雜化,讓運用算力的通用計算方法變得不太適用。

很多AI研究人員后知后覺地領悟了這種“苦澀的教訓”?;仡櫰渲凶钪匾囊恍╊H有啟發(fā)。

在國際象棋領域,1997年擊敗國際象棋冠軍卡斯帕羅夫的深藍,就是基于大規(guī)模深度搜索。

當時,大多數(shù)計算機國際象棋研究者都以沮喪的眼光看待它,他們追求用人類對國際象棋特殊結(jié)構(gòu)的理解制勝。

當一種更簡單的、有特殊硬件和軟件加持的基于搜索的方法被證明更有效,這些基于人類知識下國際象棋的研究者輸?shù)靡稽c都“不體面”。他們說,這種“用蠻力”的搜索可能這次能贏,但這終究不是通用策略,無論如何這也不是人類下棋的方式。

他們希望基于人類輸入的方法獲勝,卻事與愿違,只剩失望。

計算機圍棋領域,研究進展也遵循著同樣的模式,只是比國際象棋遲了20年。這一領域最初的眾多努力,都是利用人類知識或游戲的特殊特性避免搜索,然而,搜索一被大規(guī)模高效應用,這些努力都變得無關(guān)緊要,甚至更糟。

利用自我對弈來學習一種價值函數(shù)同樣重要(在許多其他游戲、甚至在國際象棋中也一樣,雖然在1997年的深藍項目中沒有發(fā)揮很大作用)。通過自我對弈來學習,以及學習本身,其實都和搜索一樣,讓大規(guī)模計算有了用武之地。

搜索和學習是AI研究中應用大規(guī)模計算力的兩類最重要技術(shù)。

在計算機圍棋和國際象棋項目中,研究人員最初努力的方向是如何去利用人類的理解(這樣就不需要太多的搜索),很久以后,才通過擁抱搜索和學習取得了更大的成功。

語音識別領域,很早之前曾有一場競賽,1970年由DARPA主辦。

在這場比賽中,一部分參賽者運用那些需要人類知識(單詞知識、音素知識、人類聲道知識等等)的特殊方法。也有一部分人基于隱馬爾可夫模型(HMMs)完成比賽。這種新方法本質(zhì)上更具統(tǒng)計性質(zhì),也需要更大的計算量。

不出所料,最終統(tǒng)計方法戰(zhàn)勝了基于人類知識的方法。

這場比賽為所有自然語言處理任務都帶來了巨大的改變,在過去的幾十年里,統(tǒng)計和算力逐漸占據(jù)主導地位。

語音識別中興起沒多久的深度學習,也是朝著這一方向邁出的最新一步。深度學習方法對人類知識的依賴甚至更少,用到了更多的算力。通過在大型訓練集上的學習,能得到更好的語音識別系統(tǒng)。

就像在棋類游戲中一樣,研究人員總是試圖讓系統(tǒng)按照他們心目中的人類的思維方式工作,試圖把這些知識放進計算機的系統(tǒng)里。但最終,當摩爾定律帶來大規(guī)模算力,其他人也找到了一種充分利用它的方法時,會發(fā)現(xiàn)原來的做法適得其反,是對研究人員時間的巨大浪費。

計算機視覺領域,也有類似的模式。早期的方法,將視覺設想為搜索邊緣、廣義圓柱體,或者SIFT算法捕捉的特征。但現(xiàn)在,所有這些方法都被拋棄了?,F(xiàn)代的深度學習神經(jīng)網(wǎng)絡,只使用卷積和某些不變性的概念,而效果要好得多。

這些教訓告訴我們,(AI)這個領域,我們?nèi)匀粵]有完全了解,我們連續(xù)犯著同樣的錯誤。

為了認清狀況,有效防止犯錯,我們必須理解這些錯誤有什么吸引力。

我們必須從這”苦澀的教訓”中學習:長遠來看,將AI建立在我們對自身思維方式的認知上是行不通的。

而突破性進展最終會來自完全相反的方法:基于搜索和學習進行規(guī)模計算。

最終的成功總是帶來些許怨恨,通常也不被完全理解,因為它超越了當前受歡迎的、以人為中心的方法。

從歷史的教訓中,我們能學到兩點。

第一,通用型方法有強大的力量。即使可用的算力變得非常大,這些方法仍然可以繼續(xù)擴展,運用增加的算力。似乎可以按照這種方式任意擴展的方法有兩種:搜索和學習。

第二,思維的實際內(nèi)容復雜到非??膳聼o可救藥。我們不該再試圖尋找簡單的方法來思考其內(nèi)容,比如,用簡單的方式去思考空間、物體、多智能體或者對稱性。

所有這些,都是隨意、本質(zhì)上非常復雜的外部世界的一部分。它們不應該內(nèi)置在任何一個AI智能體中,因為它們復雜得沒有盡頭。相反,我們應該只構(gòu)建能發(fā)現(xiàn)和捕獲這種任意復雜性的元方法,

這種方法的本質(zhì)是能夠很好地找到近似值。不過,尋找的工作應該交給我們的方法,而不是我們自己。

我們需要的是能像我們一樣進行發(fā)現(xiàn)的AI智能體,而不是包含我們已經(jīng)發(fā)現(xiàn)的東西在內(nèi)的AI。

在我們發(fā)現(xiàn)的基礎上建立AI,只會讓它更難看到發(fā)現(xiàn)的過程是如何進行的。

原文鏈接:

http://www.incompleteideas.net/IncIdeas/BitterLesson.html

“甜蜜的一課”

堅決不同意薩頓觀點的懷特森老師認為,構(gòu)建AI當然需要融入人類知識,問題只在于該何時、如何、融入哪些知識。AI歷史上有“甜蜜的一課”(The Sweet Lesson),我們在嘗試尋找正確先驗知識的過程中,推動了AI的進步。

他將薩頓的觀點總結(jié)為:“AI的歷史告訴我們,利用算力最終總是戰(zhàn)勝利用人類知識?!?/p>

以下是懷特森Twitter內(nèi)容的翻譯整理:

我認為這是對歷史的一種特殊解釋。的確,很多把人類知識融入AI的努力都已經(jīng)被拋棄,隨著其他資源(不僅僅是計算力,還包括存儲、能源、數(shù)據(jù))的豐富,還會拋棄更多。

但是,由此產(chǎn)生的方法的成功,不能僅僅歸功于這些豐富的資源,其中那些沒有被拋棄的人類知識也功不可沒。

要是想脫離卷積、LSTM、ReLU、批歸一化(batchnorm)等等做深度學習,祝你好運。要是拋開“圍棋是靜態(tài)、零和、完全可觀察的”這一先驗知識,就像搞定這個游戲,也祝你好運。

所以,AI的歷史故事并非融入人類知識一直失敗。恰恰相反,這是融入人類知識的勝利,實現(xiàn)的路徑也正是一種完全符合慣例的研究策略:嘗試很多方法,拋棄失敗的99%。

剩下的1%對現(xiàn)代人工智能的成功至關(guān)重要,就和AI所以來的大量計算資源一樣關(guān)鍵。

薩頓說,世界固有的復雜性表明,我們不該把先驗知識融入到系統(tǒng)中。但是我的觀點恰恰相反:正是這種復雜性,導致他推崇的搜索和學習方法極度復雜難解。

只有借助正確的先驗知識,正確的歸納偏見(inductive biases),我們才能掌握這種復雜性。

他說,“現(xiàn)代的深度學習神經(jīng)網(wǎng)絡,只使用卷積和某些不變性的概念,而效果要好得多?!币粋€“只”字就凸顯了這種斷言的武斷性。

如果沒有這些卷積和不變性,深度學習就不會成功,但它們卻被視作微小、通用到可以接受。

就是這樣,“苦澀的教訓”避開了主要問題,這根本不是要不要引入人類知識的問題(因為答案顯然是肯定的),而是該問這些知識是什么,該在何時、如何使用它。

薩頓說,“我們需要的是能像我們一樣進行發(fā)現(xiàn)的AI智能體,而不是包含我們已經(jīng)發(fā)現(xiàn)的東西在內(nèi)的AI?!碑斎弧5俏覀兩朴诎l(fā)現(xiàn)正是因為我們天生帶有正確的歸納偏見。

AI歷史上的“甜蜜一課”是這樣的:雖然找到正確的歸納偏見很難,但尋找的過程為原本難解的問題帶來了巨大的進展。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 摩爾定律
    +關(guān)注

    關(guān)注

    4

    文章

    640

    瀏覽量

    80587
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5589

    瀏覽量

    123872
  • 強化學習
    +關(guān)注

    關(guān)注

    4

    文章

    269

    瀏覽量

    11894

原文標題:只有大規(guī)模算力才能救AI?強化學習之父 vs 牛津教授掀起隔空論戰(zhàn)

文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    實例,從而保持高計算效率。 2、Q算法 Q項目將大模型功能與A*和Q-learning等復雜算法結(jié)合,進步推動了AI領域的蓬勃發(fā)展,標志向AGI方向邁出了重要的
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+可期之變:從AI硬件到AI濕件

    保持停滯的情況下,依照目前計算機的能耗效率,至少還需要30的努力才接近其水準,見圖1所示。 圖1 大腦與計算機的能量效率對比 圖2 類腦芯片的前瞻性研究領域AI濕件 為此,些想
    發(fā)表于 09-06 19:12

    AI 芯片浪潮下,職場晉升新契機?

    芯片設計為例,從最初的架構(gòu)選型,到算法適配、性能優(yōu)化,每個環(huán)節(jié)都考驗工程師的專業(yè)素養(yǎng)。設計款面向智能安防領域AI 芯片時,需要深
    發(fā)表于 08-19 08:58

    中軟國際大型銀行AI項目領域實現(xiàn)重大突破

    近日,中軟國際成功中標某全國性股份制銀行2025大模型算力擴容項目,標志中軟國際大型銀行AI項目領域實現(xiàn)重大突破,進
    的頭像 發(fā)表于 05-06 11:46 ?839次閱讀
    中軟國際<b class='flag-5'>在</b>大型銀行<b class='flag-5'>AI</b>項目<b class='flag-5'>領域</b>實現(xiàn)重大突破

    【「零基礎開發(fā)AI Agent」閱讀體驗】+ 入門篇學習

    很高興又有機會學習ai技術(shù),這次試讀的是「零基礎開發(fā)AI Agent」,作者葉濤、管鍇、張心雨。 大模型的普及是近三年來件大事,萬物皆可大模型已成為趨勢。作為大模型開發(fā)應用中重要組
    發(fā)表于 05-02 09:26

    工業(yè)自動化中使用固態(tài)繼電器時應避免的5個錯誤

    固態(tài)繼電器(SSR)已成為工業(yè)自動化的無名英雄。它們安靜、可靠、速度快——這是繼電器應具備的所有特點。但就像高科技駕駛艙中的新手飛行員樣,即使是經(jīng)驗豐富的工程師使用SSR時也會常見錯誤
    的頭像 發(fā)表于 04-20 11:42 ?491次閱讀

    NucleiStudio_IDE下調(diào)試一直報all ones錯誤怎么解決?

    在看到大佬們的帖子之后,自己也嘗試將hummingbird v2移植到賽靈思的板卡上,但是IDE里一直報錯 開始用的是Sipeed的調(diào)試器,后來買了芯家的,都是
    發(fā)表于 03-07 09:50

    DLPC350插上電源后風扇轉(zhuǎn),但是沒有開機時投出的圖片,usb連接電腦后也一直連接不上,為什么?

    DLPC350插上電源后風扇轉(zhuǎn),但是沒有開機時投出的圖片,usb連接電腦后也一直連接不上
    發(fā)表于 02-27 06:39

    ADS1298R使能呼吸后,LA和RA導聯(lián)脫落檢測一直連上,是不是受呼吸調(diào)制波形干擾所致?

    ADS1298R使能呼吸后,LA和RA導聯(lián)脫落檢測一直連上,是不是受呼吸調(diào)制波形干擾所致?另外,呼吸上電使能段時間后,再關(guān)閉呼吸功能,LA和RA導聯(lián)脫落檢測還是連上,不知道是什么原因呢?
    發(fā)表于 02-13 07:13

    iPhone 17設計圖曝光,或迎五年來最大變革

    近期,社交平臺X上流傳的組疑似iPhone 17的工業(yè)設計圖,瞬間引發(fā)了廣泛關(guān)注和熱烈討論。這組設計圖不僅吸引了眾多科技愛好者的目光,更揭示了蘋果可能正在醞釀場近五年來最具顛覆性的設計調(diào)整
    的頭像 發(fā)表于 02-10 09:30 ?1320次閱讀

    AI主導下科技領域的蓬勃發(fā)展與變革

    科技飛速發(fā)展的當下,未來科技走向一直備受關(guān)注。凱捷研究院發(fā)布的這部104頁《2025 熱門科技趨勢:人工智能驅(qū)動切》報告,基于對全球 1500 名企業(yè)高管、500 名投資專業(yè)人士
    的頭像 發(fā)表于 01-23 13:58 ?1070次閱讀

    將ADS1248設置為連續(xù)采樣時,發(fā)現(xiàn)采樣值一直連續(xù)增長是什么情況?

    使用差分輸入,將ADS1248設置為連續(xù)采樣時,將通道短接并連續(xù)采樣64次,采樣速率640SPS,發(fā)現(xiàn)采樣值一直連續(xù)增長,不知道是什么情況,求指點!
    發(fā)表于 01-14 07:13

    富士通預測2025AI領域的發(fā)展趨勢

    過去一年中,人工智能技術(shù)飛速發(fā)展,各行各業(yè)都收獲了巨大進展。面對即將到來的2025,富士通技術(shù)研發(fā)團隊的專家對AI領域的發(fā)展趨勢進行了展
    的頭像 發(fā)表于 12-27 11:23 ?1372次閱讀

    ADS5402的SYNCOUTP/N信號是在上電配置相關(guān)寄存器及0x01的D2后,就一直連續(xù)有輸出嗎?

    使用ADS5402的同步功能時,有以下疑惑: 1、ADS5402的SYNCOUTP/N信號是在上電配置相關(guān)寄存器及0x01的D2(手冊上未寫)后,就一直連續(xù)有輸出嗎? 2、同步過程如下
    發(fā)表于 12-13 07:41

    AD1299連續(xù)讀取模式下DRDY一直處于高電平,為什么?

    了RDATAC(連續(xù)讀取數(shù)據(jù))命令之后,只能連續(xù)讀兩次數(shù)據(jù),之后就出現(xiàn)數(shù)據(jù)錯誤了,系統(tǒng)沒有使用START引腳,是采用命令形式。 如圖所示:狀態(tài)位之后,第通道為MVDD,第八通道為系統(tǒng)
    發(fā)表于 12-03 06:04