chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

人工智能和機器學習的爆炸式發(fā)展正在改變計算的本質

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-11-10 10:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在硅谷一個芯片研討會上,谷歌軟件工程師Cliff Young指出AI的爆炸式發(fā)展正在改變計算的本質,摩爾定律陷入停滯,而AI對計算需求的增長構成了“超級摩爾定律”:arXiv上關于機器學習的學術論文每18個月增加一倍;谷歌內部專注于AI的研究項目數量也每18個月增加一倍;機器學習所需的計算力更是每三個半月就增加一倍。

人工智能和機器學習的爆炸式發(fā)展正在改變計算的本質。

說這話的是谷歌軟件工程師Cliff Young,而谷歌是人工智能最大的實踐者之一。

Cliff Young上周在硅谷的一個芯片研討會發(fā)表了主題演講,他說,AI的使用已經達到了一個“指數增長階段”(exponential phase),與此同時,關于半導體發(fā)展的經驗法則——摩爾定律——已經陷入停滯。

摩爾定律的內容是:集成電路上可容納的晶體管數目,約每隔兩年便會增加一倍。經常被引用的“18個月”是由英特爾的David House提的:每18個月,芯片的性能提高一倍。

“這個時間有點神經質,”Cliff Young說:“數字CMOS的增速正在放緩,我們也看到英特爾在10納米芯片的生產方面面臨困境,還有格芯(GlobalFoundries)已經宣布放棄了7納米制造工藝研發(fā),與此同時,深度學習進展迅猛,存在經濟需求。”CMOS即Complementary Metal Oxide Semiconductor(互補金屬氧化物半導體),是計算機芯片最常見的材料。

Young認為,由于傳統(tǒng)芯片難以實現(xiàn)更高的性能和效率,來自AI研究人員的需求正在激增。他一口氣列舉了一些數據:arXiv上關于機器學習的學術論文數量每18個月就增加一倍;在谷歌,專注于AI的內部研究項目數量也每18個月增加一倍。更為激烈的是,執(zhí)行機器學習神經網絡所需的浮點運算量每三個半月就翻一番。

Young說,所有這些計算需求的增長構成了“超級摩爾定律”,他稱這種現(xiàn)象“有點可怕”,“有點危險”,“令人擔憂”。

“為什么AI領域出現(xiàn)了這些指數級的增長?”他說,“部分原因是,深度學習確實有效?!?/p>

他說:“很長一段時間里,我的職業(yè)生涯都忽視了機器學習,因為那時尚不清楚這些東西會不會流行起來?!?/p>

但后來,圖像識別等領域的突破開始迅速出現(xiàn),很明顯,深度學習“非常有效”。Young說:“在過去5年的大部分時間里,谷歌一直是一家AI-first的公司,我們以AI為基礎重建了大部分業(yè)務,從搜索業(yè)務到廣告業(yè)務等等?!?/p>

谷歌內部領導AI研究的是Google Brain團隊,它的需求是“巨型機器”。例如,神經網絡有時是通過他們使用的“權重”數量來測量的,這些變量被應用于神經網絡,以形成對數據的操縱。

傳統(tǒng)的神經網絡必須要計算的可能有數十萬個這樣的權重,甚至數百萬,谷歌的科學家們說“請給我們一個tera-weight級的機器”,讓計算機能夠計算一萬億權重。

這是因為“每次你將神經網絡的大小增加一倍,它的準確率就會提高。”AI的規(guī)則就是越大越好。

當然,為了應對這樣的需求,谷歌一直在開發(fā)自己的機器學習芯片,即“張量處理單元”(Tensor Processing Unit,TPU)。由于傳統(tǒng)的CPU和圖形芯片(GPU)跟不上速度,TPU以及類似的部件是需要的。

Young說:“在很長一段時間里,我們都躊躇不前,并表示英特爾和英偉達在構建高性能系統(tǒng)方面做得非常好。但我們在五年前跨過了這個門檻?!?/p>

TPU于2017年首次亮相,標榜其性能優(yōu)于傳統(tǒng)芯片,引起了業(yè)界轟動。谷歌目前已進入TPU的第三次迭代,不過是在內部使用,并通過谷歌云提供按需計算節(jié)點。

TPU v3 Pod

谷歌繼續(xù)制造越來越大的TPU實例。它的“pod”配置將1024個單獨的TPU連接在一起,形成一臺新型超級計算機,而且谷歌打算“繼續(xù)擴展”這個系統(tǒng)。

Young說:“我們正在打造巨大的多處理器計算機,具有幾十petabytes的計算力。我們同時向多個方向推進,tera-ops級的也在繼續(xù)開發(fā)。”

他說,這樣的工程“帶來了超級計算機設計中會出現(xiàn)的所有問題?!?/p>

例如,谷歌工程師們采用了傳奇的超級計算機公司Cray所使用的技巧。他們將芯片中負責神經網絡計算的“巨大的矩陣乘法單元”與“通用向量單元”和“通用標量單元”結合在一起。標量單元和向量單元的結合讓Cray的性能優(yōu)于其他處理器。

谷歌開發(fā)了自己的新型算法結構來編程芯片。所謂的“bfloat16”是一種表示實數的方法,可以提高神經網絡數字運算的效率。bfloat16的全稱是truncated 16-bit floating point(截斷浮點數),被通俗地稱為“brain float”。

TPU采用最快的內存芯片,即所謂的高帶寬內存(HBM)。在訓練神經網絡時,對內存容量的需求也在激增。

Young說:“內存在訓練中更加集中。不只是數億個權重,還涉及處理神經網絡激活變量的問題”。

谷歌也在調整編程神經網絡的方式,以充分利用硬件。他們在數據和模型并行性方面做了大量工作,包括“Mesh TensorFlow”等項目,這是對TensorFlow編程框架的改編,目的是將數據和模型并行性在pod-scale上結合起來。

有一些技術細節(jié)Young不愿透露。他指出,谷歌沒有過多地談論“互連”(interconnects),即數據在芯片中移動的方式,只是說“我們有巨大的連接器”,拒絕提供更多信息。

Young談到一些可能并不遙遠的更有趣的計算領域。例如,他建議通過模擬芯片進行計算,這種電路將輸入作為連續(xù)值而不是作為1和0來處理,這樣可以發(fā)揮重要作用。他說:“也許我們將從模擬領域進行采樣,在物理、模擬計算或非易失性技術方面確實有一些很酷的東西?!?/p>

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    463

    文章

    54024

    瀏覽量

    466380
  • 摩爾定律
    +關注

    關注

    4

    文章

    640

    瀏覽量

    80938
  • 機器學習
    +關注

    關注

    66

    文章

    8554

    瀏覽量

    136991

原文標題:谷歌工程師:機器學習論文18個月倍增,AI爆發(fā)帶來“超級摩爾定律”

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    嵌入人工智能究竟是什么關系?

    領域,如工業(yè)控制、智能家居、醫(yī)療設備等。 人工智能計算機科學的一個分支,它研究如何使計算機具備像人類一樣思考、學習、推理和決策的能力。
    發(fā)表于 11-14 16:39

    選擇人工智能才是企業(yè)持續(xù)發(fā)展的堅實基礎

    江河,那么人工智能就是汪洋大海。人工智能作為新時代的發(fā)展潮流,它的應用領域遠遠的大于互聯(lián)網的覆蓋面積。如今的人工智能正在潛移默化的
    發(fā)表于 03-13 16:31

    人工智能機器學習的前世今生

    如何傳授給計算機的過程。任何機器使用算法以智能方式執(zhí)行任務,這就是展現(xiàn)的人工智能。機器學習
    發(fā)表于 08-27 10:16

    人工智能:超越炒作

    ,而是使用人類推理作為提供更好服務或創(chuàng)造更好產品的指南。但是這有什么作用呢?我們來看看目前的方法。ML:解析,學習,確定或預測的算法作為人工智能的一個子集,機器學習使用統(tǒng)計技術使
    發(fā)表于 05-29 10:46

    人工智能、數據挖掘、機器學習和深度學習的關系

    人工智能、數據挖掘、機器學習和深度學習之間,主要有什么關系?
    發(fā)表于 03-16 11:35

    python人工智能/機器學習基礎是什么

    python人工智能——機器學習——機器學習基礎
    發(fā)表于 04-28 14:46

    人工智能機器學習技術在2021年的五個發(fā)展趨勢

    人工智能機器學習如今一直在改變著我們的世界,2020年發(fā)生的冠狀病毒疫情為這兩種技術帶來了新的機會和緊迫性,預計在2021年將會有更大的發(fā)展
    發(fā)表于 01-27 06:10

    中國人工智能的現(xiàn)狀與未來

    機器學習計算機視覺等等,總的說來,人工智能研究的一個主要目標是使機器能夠勝任通常需要人類智能
    發(fā)表于 07-27 06:40

    人工智能芯片是人工智能發(fā)展

    人工智能芯片是人工智能發(fā)展的 | 特倫斯謝諾夫斯基責編 | 屠敏本文內容經授權摘自《深度學習 智能時代的核心驅動力量》從AlphaGo的人機
    發(fā)表于 07-27 07:02

    嵌入人工智能關系是什么

    嵌入人工智能關系_嵌入人工智能發(fā)展趨勢  所謂嵌入
    發(fā)表于 10-27 07:41

    什么是人工智能機器學習、深度學習和自然語言處理?

    不起的機器,互聯(lián)網使它們更加智能和有價值。當互聯(lián)網橫跨全球,連接各種各樣的計算機設備,不論其地理位置,使用人工智能使計算
    發(fā)表于 03-22 11:19

    嵌入人工智能學習路線

    人工智能課程學習路線。【第一階段】嵌入開發(fā)基礎理論嵌入人工智能作為目前最熱門的計算機應用領域
    發(fā)表于 09-16 17:07

    《移動終端人工智能技術與應用開發(fā)》人工智能發(fā)展與AI技術的進步

    人工智能發(fā)展是算法優(yōu)先于實際應用。近幾年隨著人工智能的不斷普及,許多深度學習算法涌現(xiàn),從最初的卷積神經網絡(CNN)到機器
    發(fā)表于 02-17 11:00

    機器學習人工智能有什么區(qū)別?

    機器學習人工智能有什么區(qū)別?當今唯一可用的軟件選項是 ML 系統(tǒng)。在十年左右的時間里,當計算能力和算法開發(fā)達到可以顯著影響結果的地步時,我們將見證第一個真正的
    發(fā)表于 04-12 08:21

    AI爆發(fā)帶來的“超級摩爾定律”

    2018-11-12 10:31 | 查看: 21 | 評論: 0 | 來自: 半導體觀察網 摘要 : 人工智能機器學習爆炸
    發(fā)表于 11-12 18:52 ?563次閱讀