chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)會接近于人類的智能嗎?

hl5C_deeptechch ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2022-07-10 15:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自從上個世紀(jì)八十年代起,“AI 教父”杰弗里?辛頓(Geoffrey Hinton)就一直在從事有關(guān)深度學(xué)習(xí)的研究。然而,研究成果卻受到缺乏數(shù)據(jù)以及計算機(jī)功能不足的限制。不過,他對這項技術(shù)的執(zhí)著態(tài)度最終還是給人類帶來了巨大的益處。在第四屆 ImageNet 大賽上,幾乎每支團(tuán)隊都用上了深度學(xué)習(xí)技術(shù),并且達(dá)到了驚人的準(zhǔn)確率。不久之后,深度學(xué)習(xí)不僅在圖像識別任務(wù)中得到了應(yīng)用,還被廣泛地應(yīng)用于其它領(lǐng)域。

30 年前,人們都覺得提出的神經(jīng)網(wǎng)絡(luò)的想法是離經(jīng)叛道。但辛頓表示,現(xiàn)在幾乎所有人都認(rèn)同了他的想法。

對于人工智能領(lǐng)域短板的看法,辛頓說:“很多概念性的突破必將接踵而至,但我們同樣也需要進(jìn)行大規(guī)模且有成效的性能提升?!?/p>

對于神經(jīng)網(wǎng)絡(luò)不足之處的看法,辛頓說:“含有大量突觸的神經(jīng)網(wǎng)絡(luò)非常善于處理數(shù)據(jù)量較小的任務(wù),但是人類自己在這方面更勝一籌?!?/p>

對于人類大腦工作方式的看法,辛頓說:“人的大腦內(nèi)遍布神經(jīng)活動的重要載體。”

現(xiàn)代人工智能革命起源于一場不起眼的研究競賽。在 2012 年的第三屆 ImageNet 大賽上,參賽團(tuán)隊要設(shè)計出一種能夠識別 1000 種事物的計算機(jī)視覺系統(tǒng),這些事物包括動物、自然景觀以及人類等。

在最初的兩屆比賽中,最優(yōu)秀團(tuán)隊的準(zhǔn)確率也達(dá)不到 75%。但在第三年,一名教授和他的兩個學(xué)生卻在短時間內(nèi)突破了技術(shù)的天花板。他們以令人震驚的 10.8 個百分點贏得了比賽。這名教授就是杰弗里?辛頓,而他們所使用的技術(shù)被稱作深度學(xué)習(xí)。

去年,鑒于辛頓對人工智能領(lǐng)域的開創(chuàng)性貢獻(xiàn),他與揚(yáng)?勒丘恩、約書亞?本吉奧等人工智能先驅(qū)一道被授予圖靈獎。10 月 20 日,本文作者 Karen Hao(凱倫·郝)與辛頓在《麻省理工科技評論》雜志的全球新興科技峰會上,就人工智能領(lǐng)域的現(xiàn)狀以及未來的發(fā)展方向進(jìn)行了交流。

Karen Hao:您為何如此確信深度學(xué)習(xí)將會復(fù)制人類的智慧?

Geoffrey Hinton:我確實相信深度學(xué)習(xí)能做任何事,但目前還需要取得一些概念性突破才能實現(xiàn)這一點。例如,2017 年阿施施?瓦斯瓦尼等人的論文介紹了一種轉(zhuǎn)換器,它可以很好地表達(dá)詞語的意思。這就是一種概念性突破?,F(xiàn)在,幾乎所有功能較為強(qiáng)大的自然語言處理系統(tǒng)都在使用這種技術(shù)。我們需要更多像這樣的突破性技術(shù)。

Karen Hao:如果我們?nèi)〉昧诉@樣的技術(shù)突破,那么深度學(xué)習(xí)會接近于人類的智能嗎?

Geoffrey Hinton:是的。當(dāng)神經(jīng)活動的重要載體可以進(jìn)行像推理這樣的行為時,意味著我們已經(jīng)取得了非常重要的突破。但在規(guī)模上,我們?nèi)匀恍枰@得巨大的提升。人腦約有 100 萬億個參數(shù),或者說神經(jīng)突觸。而現(xiàn)在像 GPT-3 這樣的可以被稱作大型模型的程序,只有 1750 億個神經(jīng)突觸。人腦神經(jīng)突觸的數(shù)量是它的上千倍。目前,GPT-3 可以生成看起來十分合理的話語。但與人腦相比,其生成量依然微不足道。

Karen Hao:當(dāng)您談到規(guī)模這個概念時,您指的是更龐大的神經(jīng)網(wǎng)絡(luò),還是更多的數(shù)據(jù),又或者是兩者兼具?

Geoffrey Hinton:兩者都有。計算機(jī)科學(xué)和人類行為之間存在著某種差異。相比他們所接收到的數(shù)據(jù)量而言,人類擁有大量的神經(jīng)突觸,而含有大量神經(jīng)突觸的神經(jīng)網(wǎng)絡(luò)卻更善于處理數(shù)據(jù)量較小的任務(wù)。不過,在這一方面,人類更勝一籌。

Karen Hao:人工智能領(lǐng)域的許多專家都認(rèn)為,具備常識是下一個需要解決的問題。您同意這種觀點嗎?

Geoffrey Hinton:我同意他們的觀點,這是一項非常重要的問題。我還認(rèn)為電機(jī)控制是一個非常重要的領(lǐng)域,而現(xiàn)在深度神經(jīng)網(wǎng)絡(luò)在這一方面能做的非常好。尤其在谷歌最近的研究中,你可以將精準(zhǔn)的電機(jī)控制與語言結(jié)合起來,這樣就能完成打開抽屜并從中取出一個積木的動作,而且系統(tǒng)還會用自然語言告訴你它正在做什么。

對于 GPT-3 這樣的可以生成完美語句的模型來說,想要生成語句就必須先理解大量語句的含義,但是它到底能理解多少,我們并不是十分清楚。然而,如果某個東西打開了抽屜并取出了一個積木,同時還說道,“我剛剛打開了一個抽屜,取出了一個積木”,那么它很有可能明白自己在干什么。

Karen Hao:人工智能領(lǐng)域一直將人腦當(dāng)作其最大的靈感來源,而且人工智能技術(shù)的不同方法也源于認(rèn)知科學(xué)中的不同理論。您認(rèn)為人腦構(gòu)建出外部世界的表現(xiàn),是為了去理解它,還是這只是一種去思考它的有用方法?

Geoffrey Hinton:在很久之前,認(rèn)知科學(xué)領(lǐng)域里的兩個思想學(xué)派之間發(fā)生了一場辯論。其中一派以斯蒂芬?科斯林為代表,認(rèn)為當(dāng)人類在腦中操縱視覺圖像時,會得到一組可以任意移動的像素陣列。而另一派的思想則更加接近于傳統(tǒng)的人工智能方向。他們認(rèn)為,“不不不,這純屬胡說八道。它應(yīng)該是一種具有層次性和結(jié)構(gòu)性的描述。人的意識中會形成一個符號性的結(jié)構(gòu),而它才是被意識所操控的東西?!?/p>

我認(rèn)為他們都犯了相同的錯誤。科斯林認(rèn)為,由于外部圖像是由像素構(gòu)成的,而它們反應(yīng)了我們所理解的內(nèi)容,所以我們就可以操縱這些像素。而符號表征派學(xué)者認(rèn)為,因為我們同樣可以用符號表征的方法來表現(xiàn)我們所理解的事物,所以我們就可以操縱這些符號。但他們其實都犯了一樣的錯誤。人的大腦內(nèi)其實充滿了神經(jīng)活動的重要載體。

Karen Hao:許多人依然認(rèn)為符號性表征是人工智能技術(shù)所采用的方法之一。對此您怎么看?

Geoffrey Hinton:你說的沒錯。我的好朋友赫克托?萊維斯克就認(rèn)為符號性方法在人工智能領(lǐng)域發(fā)揮了重要作用。我雖然并不認(rèn)同他的看法,但非常合理的符號性方法確實值得一試。然而,我的最終猜想是,我們會認(rèn)識存在于外部世界中的符號,而且還會使用重要載體進(jìn)行內(nèi)部的運算。

Karen Hao:對于未來人工智能的發(fā)展,您認(rèn)為您最與眾不同的觀點是什么?

Geoffrey Hinton:我想我的叛逆觀點將會在五年之后成為主流觀點。我在八十年代所提出的大多數(shù)離經(jīng)叛道的想法現(xiàn)在已經(jīng)被大家接受了,而且很難找到不認(rèn)同這些想法的人。所以說,現(xiàn)在我覺得我那些觀點已經(jīng)沒那么與眾不同了

原文標(biāo)題:“AI教父”Geoffrey Hinton:GPT-3遠(yuǎn)不如人類大腦

文章出處:【微信公眾號:DeepTech深科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    280021
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249585
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122799

原文標(biāo)題:“AI教父”Geoffrey Hinton:GPT-3遠(yuǎn)不如人類大腦

文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    安信可語音開放平臺的使用——VC系列SDK的獲取

    安信可離線語音開放平臺提供了開發(fā)量接近于零的SDK生成功能,對于功能簡單的控制及串口輸出,甚至可以直接生成固件進(jìn)行燒錄測試。
    的頭像 發(fā)表于 04-12 11:24 ?326次閱讀
    安信可語音開放平臺的使用——VC系列SDK的獲取

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變
    的頭像 發(fā)表于 02-14 11:15 ?539次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?863次閱讀

    ADS1247通道間相互影響是什么原因呢?

    ADS1247通道間相互影響 我的ADS1247的使用方法是雙通道交替轉(zhuǎn)換,但是在其中一個通道的輸入接近滿量程或者接近于0的時候另外一個穩(wěn)定輸入的通道轉(zhuǎn)換結(jié)果會受到影響。這是什么原因呢?
    發(fā)表于 01-21 10:17

    用了ads1274做壓力傳感器采樣,有丟碼現(xiàn)象怎么解決?

    后的數(shù)據(jù)接近于零電壓輸入,我輸入了1hz正弦波,發(fā)現(xiàn)丟碼后的數(shù)據(jù)接近于零輸入,且組成了一個與輸入正弦波同頻的正弦波,只是幅值減小了一個比例,不知各位專家有過類似情況嗎?不知是否我的采樣率過高了?TI的專家能回答嗎?非常謝謝!
    發(fā)表于 12-27 06:55

    Verilog與VHDL的比較 Verilog HDL編程技巧

    Verilog 與 VHDL 比較 1. 語法和風(fēng)格 Verilog :Verilog 的語法更接近于 C 語言,對于有 C 語言背景的工程師來說,學(xué)習(xí)曲線較平緩。它支持結(jié)構(gòu)化編程,代碼更直觀,易于
    的頭像 發(fā)表于 12-17 09:44 ?1707次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1919次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?659次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1382次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支,它通過模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1071次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1235次閱讀

    人工智能、機(jī)器學(xué)習(xí)深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個很大的子集是機(jī)器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)
    發(fā)表于 10-24 17:22 ?2980次閱讀
    人工<b class='flag-5'>智能</b>、機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2900次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。FPGA的優(yōu)勢就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道用FPGA做深度學(xué)習(xí)未來怎樣發(fā)展,能走多遠(yuǎn),你怎么看。 A:FPGA 在深度
    發(fā)表于 09-27 20:53

    opa227使用電壓跟隨器的情況下,在測容性阻抗時,產(chǎn)生失真的波形,為什么?

    新手一枚,側(cè)導(dǎo)納膜時,在使用電壓跟隨器(我使用的芯片是opa227)的情況下,在測容性阻抗時,產(chǎn)生失真的波形,大致是接近于正弦波的三角波,而且頻率遠(yuǎn)大于我給的1000hz,為何?iv變換我用的opa2277,換成op07就又可以了…求解!
    發(fā)表于 08-29 06:24