chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)會(huì)接近于人類的智能嗎?

hl5C_deeptechch ? 來(lái)源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2022-07-10 15:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自從上個(gè)世紀(jì)八十年代起,“AI 教父”杰弗里?辛頓(Geoffrey Hinton)就一直在從事有關(guān)深度學(xué)習(xí)的研究。然而,研究成果卻受到缺乏數(shù)據(jù)以及計(jì)算機(jī)功能不足的限制。不過(guò),他對(duì)這項(xiàng)技術(shù)的執(zhí)著態(tài)度最終還是給人類帶來(lái)了巨大的益處。在第四屆 ImageNet 大賽上,幾乎每支團(tuán)隊(duì)都用上了深度學(xué)習(xí)技術(shù),并且達(dá)到了驚人的準(zhǔn)確率。不久之后,深度學(xué)習(xí)不僅在圖像識(shí)別任務(wù)中得到了應(yīng)用,還被廣泛地應(yīng)用于其它領(lǐng)域。

30 年前,人們都覺(jué)得提出的神經(jīng)網(wǎng)絡(luò)的想法是離經(jīng)叛道。但辛頓表示,現(xiàn)在幾乎所有人都認(rèn)同了他的想法。

對(duì)于人工智能領(lǐng)域短板的看法,辛頓說(shuō):“很多概念性的突破必將接踵而至,但我們同樣也需要進(jìn)行大規(guī)模且有成效的性能提升?!?/p>

對(duì)于神經(jīng)網(wǎng)絡(luò)不足之處的看法,辛頓說(shuō):“含有大量突觸的神經(jīng)網(wǎng)絡(luò)非常善于處理數(shù)據(jù)量較小的任務(wù),但是人類自己在這方面更勝一籌。”

對(duì)于人類大腦工作方式的看法,辛頓說(shuō):“人的大腦內(nèi)遍布神經(jīng)活動(dòng)的重要載體?!?/p>

現(xiàn)代人工智能革命起源于一場(chǎng)不起眼的研究競(jìng)賽。在 2012 年的第三屆 ImageNet 大賽上,參賽團(tuán)隊(duì)要設(shè)計(jì)出一種能夠識(shí)別 1000 種事物的計(jì)算機(jī)視覺(jué)系統(tǒng),這些事物包括動(dòng)物、自然景觀以及人類等。

在最初的兩屆比賽中,最優(yōu)秀團(tuán)隊(duì)的準(zhǔn)確率也達(dá)不到 75%。但在第三年,一名教授和他的兩個(gè)學(xué)生卻在短時(shí)間內(nèi)突破了技術(shù)的天花板。他們以令人震驚的 10.8 個(gè)百分點(diǎn)贏得了比賽。這名教授就是杰弗里?辛頓,而他們所使用的技術(shù)被稱作深度學(xué)習(xí)。

去年,鑒于辛頓對(duì)人工智能領(lǐng)域的開(kāi)創(chuàng)性貢獻(xiàn),他與揚(yáng)?勒丘恩、約書亞?本吉奧等人工智能先驅(qū)一道被授予圖靈獎(jiǎng)。10 月 20 日,本文作者 Karen Hao(凱倫·郝)與辛頓在《麻省理工科技評(píng)論》雜志的全球新興科技峰會(huì)上,就人工智能領(lǐng)域的現(xiàn)狀以及未來(lái)的發(fā)展方向進(jìn)行了交流。

Karen Hao:您為何如此確信深度學(xué)習(xí)將會(huì)復(fù)制人類的智慧?

Geoffrey Hinton:我確實(shí)相信深度學(xué)習(xí)能做任何事,但目前還需要取得一些概念性突破才能實(shí)現(xiàn)這一點(diǎn)。例如,2017 年阿施施?瓦斯瓦尼等人的論文介紹了一種轉(zhuǎn)換器,它可以很好地表達(dá)詞語(yǔ)的意思。這就是一種概念性突破。現(xiàn)在,幾乎所有功能較為強(qiáng)大的自然語(yǔ)言處理系統(tǒng)都在使用這種技術(shù)。我們需要更多像這樣的突破性技術(shù)。

Karen Hao:如果我們?nèi)〉昧诉@樣的技術(shù)突破,那么深度學(xué)習(xí)會(huì)接近于人類的智能嗎?

Geoffrey Hinton:是的。當(dāng)神經(jīng)活動(dòng)的重要載體可以進(jìn)行像推理這樣的行為時(shí),意味著我們已經(jīng)取得了非常重要的突破。但在規(guī)模上,我們?nèi)匀恍枰@得巨大的提升。人腦約有 100 萬(wàn)億個(gè)參數(shù),或者說(shuō)神經(jīng)突觸。而現(xiàn)在像 GPT-3 這樣的可以被稱作大型模型的程序,只有 1750 億個(gè)神經(jīng)突觸。人腦神經(jīng)突觸的數(shù)量是它的上千倍。目前,GPT-3 可以生成看起來(lái)十分合理的話語(yǔ)。但與人腦相比,其生成量依然微不足道。

Karen Hao:當(dāng)您談到規(guī)模這個(gè)概念時(shí),您指的是更龐大的神經(jīng)網(wǎng)絡(luò),還是更多的數(shù)據(jù),又或者是兩者兼具?

Geoffrey Hinton:兩者都有。計(jì)算機(jī)科學(xué)和人類行為之間存在著某種差異。相比他們所接收到的數(shù)據(jù)量而言,人類擁有大量的神經(jīng)突觸,而含有大量神經(jīng)突觸的神經(jīng)網(wǎng)絡(luò)卻更善于處理數(shù)據(jù)量較小的任務(wù)。不過(guò),在這一方面,人類更勝一籌。

Karen Hao:人工智能領(lǐng)域的許多專家都認(rèn)為,具備常識(shí)是下一個(gè)需要解決的問(wèn)題。您同意這種觀點(diǎn)嗎?

Geoffrey Hinton:我同意他們的觀點(diǎn),這是一項(xiàng)非常重要的問(wèn)題。我還認(rèn)為電機(jī)控制是一個(gè)非常重要的領(lǐng)域,而現(xiàn)在深度神經(jīng)網(wǎng)絡(luò)在這一方面能做的非常好。尤其在谷歌最近的研究中,你可以將精準(zhǔn)的電機(jī)控制與語(yǔ)言結(jié)合起來(lái),這樣就能完成打開(kāi)抽屜并從中取出一個(gè)積木的動(dòng)作,而且系統(tǒng)還會(huì)用自然語(yǔ)言告訴你它正在做什么。

對(duì)于 GPT-3 這樣的可以生成完美語(yǔ)句的模型來(lái)說(shuō),想要生成語(yǔ)句就必須先理解大量語(yǔ)句的含義,但是它到底能理解多少,我們并不是十分清楚。然而,如果某個(gè)東西打開(kāi)了抽屜并取出了一個(gè)積木,同時(shí)還說(shuō)道,“我剛剛打開(kāi)了一個(gè)抽屜,取出了一個(gè)積木”,那么它很有可能明白自己在干什么。

Karen Hao:人工智能領(lǐng)域一直將人腦當(dāng)作其最大的靈感來(lái)源,而且人工智能技術(shù)的不同方法也源于認(rèn)知科學(xué)中的不同理論。您認(rèn)為人腦構(gòu)建出外部世界的表現(xiàn),是為了去理解它,還是這只是一種去思考它的有用方法?

Geoffrey Hinton:在很久之前,認(rèn)知科學(xué)領(lǐng)域里的兩個(gè)思想學(xué)派之間發(fā)生了一場(chǎng)辯論。其中一派以斯蒂芬?科斯林為代表,認(rèn)為當(dāng)人類在腦中操縱視覺(jué)圖像時(shí),會(huì)得到一組可以任意移動(dòng)的像素陣列。而另一派的思想則更加接近于傳統(tǒng)的人工智能方向。他們認(rèn)為,“不不不,這純屬胡說(shuō)八道。它應(yīng)該是一種具有層次性和結(jié)構(gòu)性的描述。人的意識(shí)中會(huì)形成一個(gè)符號(hào)性的結(jié)構(gòu),而它才是被意識(shí)所操控的東西?!?/p>

我認(rèn)為他們都犯了相同的錯(cuò)誤??扑沽终J(rèn)為,由于外部圖像是由像素構(gòu)成的,而它們反應(yīng)了我們所理解的內(nèi)容,所以我們就可以操縱這些像素。而符號(hào)表征派學(xué)者認(rèn)為,因?yàn)槲覀兺瑯涌梢杂梅?hào)表征的方法來(lái)表現(xiàn)我們所理解的事物,所以我們就可以操縱這些符號(hào)。但他們其實(shí)都犯了一樣的錯(cuò)誤。人的大腦內(nèi)其實(shí)充滿了神經(jīng)活動(dòng)的重要載體。

Karen Hao:許多人依然認(rèn)為符號(hào)性表征是人工智能技術(shù)所采用的方法之一。對(duì)此您怎么看?

Geoffrey Hinton:你說(shuō)的沒(méi)錯(cuò)。我的好朋友赫克托?萊維斯克就認(rèn)為符號(hào)性方法在人工智能領(lǐng)域發(fā)揮了重要作用。我雖然并不認(rèn)同他的看法,但非常合理的符號(hào)性方法確實(shí)值得一試。然而,我的最終猜想是,我們會(huì)認(rèn)識(shí)存在于外部世界中的符號(hào),而且還會(huì)使用重要載體進(jìn)行內(nèi)部的運(yùn)算。

Karen Hao:對(duì)于未來(lái)人工智能的發(fā)展,您認(rèn)為您最與眾不同的觀點(diǎn)是什么?

Geoffrey Hinton:我想我的叛逆觀點(diǎn)將會(huì)在五年之后成為主流觀點(diǎn)。我在八十年代所提出的大多數(shù)離經(jīng)叛道的想法現(xiàn)在已經(jīng)被大家接受了,而且很難找到不認(rèn)同這些想法的人。所以說(shuō),現(xiàn)在我覺(jué)得我那些觀點(diǎn)已經(jīng)沒(méi)那么與眾不同了

原文標(biāo)題:“AI教父”Geoffrey Hinton:GPT-3遠(yuǎn)不如人類大腦

文章出處:【微信公眾號(hào):DeepTech深科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37213

    瀏覽量

    291980
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49536

    瀏覽量

    259351
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5587

    瀏覽量

    123762

原文標(biāo)題:“AI教父”Geoffrey Hinton:GPT-3遠(yuǎn)不如人類大腦

文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“
    的頭像 發(fā)表于 09-10 17:38 ?548次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過(guò)模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?589次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?3794次閱讀
    自動(dòng)駕駛中Transformer大模型<b class='flag-5'>會(huì)</b>取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    安信可語(yǔ)音開(kāi)放平臺(tái)的使用——VC系列SDK的獲取

    安信可離線語(yǔ)音開(kāi)放平臺(tái)提供了開(kāi)發(fā)量接近于零的SDK生成功能,對(duì)于功能簡(jiǎn)單的控制及串口輸出,甚至可以直接生成固件進(jìn)行燒錄測(cè)試。
    的頭像 發(fā)表于 04-12 11:24 ?600次閱讀
    安信可語(yǔ)音開(kāi)放平臺(tái)的使用——VC系列SDK的獲取

    SLAMTEC Aurora:把深度學(xué)習(xí)“卷”進(jìn)機(jī)器人日常

    在人工智能和機(jī)器人技術(shù)飛速發(fā)展的今天,深度學(xué)習(xí)與SLAM(同步定位與地圖構(gòu)建)技術(shù)的結(jié)合,正引領(lǐng)著智能機(jī)器人行業(yè)邁向新的高度。最近科技圈頂流DeepSeek簡(jiǎn)直殺瘋了!靠著逆天的
    的頭像 發(fā)表于 02-19 15:49 ?637次閱讀

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢(shì),導(dǎo)致戰(zhàn)爭(zhēng)形式和模式發(fā)生重大變
    的頭像 發(fā)表于 02-14 11:15 ?736次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?1215次閱讀

    ADS1247通道間相互影響是什么原因呢?

    ADS1247通道間相互影響 我的ADS1247的使用方法是雙通道交替轉(zhuǎn)換,但是在其中一個(gè)通道的輸入接近滿量程或者接近于0的時(shí)候另外一個(gè)穩(wěn)定輸入的通道轉(zhuǎn)換結(jié)果會(huì)受到影響。這是什么原因呢?
    發(fā)表于 01-21 10:17

    請(qǐng)問(wèn)ads1271能不能測(cè)量負(fù)電壓?

    1.請(qǐng)問(wèn)ads1271能不能測(cè)量負(fù)電壓,現(xiàn)在的電路ainn接的是地,ainp接的被測(cè)量模擬量,當(dāng)ainp為正的時(shí)候數(shù)值正確,當(dāng)ainp為負(fù)值時(shí)數(shù)值接近于0. 2.手冊(cè)里的data rate
    發(fā)表于 01-01 08:09

    用了ads1274做壓力傳感器采樣,有丟碼現(xiàn)象怎么解決?

    后的數(shù)據(jù)接近于零電壓輸入,我輸入了1hz正弦波,發(fā)現(xiàn)丟碼后的數(shù)據(jù)接近于零輸入,且組成了一個(gè)與輸入正弦波同頻的正弦波,只是幅值減小了一個(gè)比例,不知各位專家有過(guò)類似情況嗎?不知是否我的采樣率過(guò)高了?TI的專家能回答嗎?非常謝謝!
    發(fā)表于 12-27 06:55

    Verilog與VHDL的比較 Verilog HDL編程技巧

    Verilog 與 VHDL 比較 1. 語(yǔ)法和風(fēng)格 Verilog :Verilog 的語(yǔ)法更接近于 C 語(yǔ)言,對(duì)于有 C 語(yǔ)言背景的工程師來(lái)說(shuō),學(xué)習(xí)曲線較平緩。它支持結(jié)構(gòu)化編程,代碼更直觀,易于
    的頭像 發(fā)表于 12-17 09:44 ?2430次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?2613次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?919次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1969次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動(dòng)駕駛、無(wú)人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,它通過(guò)模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1352次閱讀