chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

FPGA和SoC將成為機器學習發(fā)展的2大助力

dKBf_eetop_1 ? 作者:工程師李察 ? 2018-10-06 10:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一系列機器學習優(yōu)化芯片預計將在未來幾個月內開始出貨,但數據中心需要一段時間才能決定這些新的加速器是否值得采用,以及它們是否真的能在性能上獲得大幅提升。

有大量的報道稱,為機器學習設計的定制芯片將提供100倍于現有選擇的性能,但它們在要求嚴格的商業(yè)用途的實際測試中的功能尚未得到證實,數據中心是新技術最保守的采用者之一。不過,Graphcore、Habana、ThinCI和Wave Computing等知名初創(chuàng)公司表示,它們已經將早期芯片提供給客戶進行測試。但還沒有一家公司開始發(fā)貨,甚至沒有展示這些芯片。

這些新設備有兩個主要市場。機器學習中的神經網絡將數據分為兩個主要階段:訓練和推理,并且在每個階段中使用不同的芯片。雖然神經網絡本身通常駐留在訓練階段的數據中心中,但它可能具有用于推理階段的邊緣組件?,F在的問題是什么類型的芯片以及哪種配置能夠產生最快、最高效的深度學習。

看來FPGAs和SoCs正在獲得更多的吸引力。Tirias Research總裁吉姆·麥格雷戈(Jim McGregor)說,這些數據中心需要可編程芯片的靈活性和高I/O能力,這有助于FPGA在訓練和推理的高數據量、低處理能力需求中發(fā)揮作用。

與幾年前相比,FPGA的設置現在用于訓練的頻率更低了,但它們在其他任何事情上的使用頻率都要高得多,而且它們很可能在明年繼續(xù)增長。即使大約50家致力于神經網絡優(yōu)化處理器迭代開發(fā)的初創(chuàng)公司今天都交付了成品,在任何規(guī)??捎^的數據中心的生產流程中,也需要9到18個月的時間。

McGregor說:“沒有人會買現成的數據中心,然后把它放到生產機器上。”“您必須確保它滿足可靠性和性能要求,然后才能將其全部部署?!?/p>

圖1:不同類型深度學習芯片占比

對于新的架構和微體系架構,仍然有機會。ML工作負載正在迅速擴展。OpenAI 5月份的一份報告顯示,用于最大AI/ML訓練的計算能力每3.5個月就增加一倍,自2012年以來,計算能力的總量增加了30萬倍。相比之下,按照摩爾定律,可用資源每18個月增加一倍,最終總容量僅增加12倍。

Open.AI指出,用于最大規(guī)模訓練的系統(其中一些需要幾天或幾周的時間才能完成)需要花費數百萬美元購買,但它預計,用于機器學習硬件的大部分資金將用于推理。

FPGA和SoC將成為機器學習發(fā)展的2大助力

圖2:計算需求正在增加

這是一個巨大的全新的機遇。Tractica在5月30日的一份報告中預測,到2025年,深度學習芯片組的市場規(guī)模將從2017年的16億美元增至663億美元,其中包括CPU,GPU,FPGA,ASIC,SoC加速器和其他芯片組。其中很大一部分將來自于非芯片公司,它們正在發(fā)布自己的深度學習加速器芯片組。谷歌的TPU就是這么做的,業(yè)內人士表示,亞馬遜和Facebook正在走同樣的道路。

McGregor說,現在主要轉向SoC而不是獨立的組件,并且SoC、ASIC和FPGA供應商的策略和封裝的多樣性日益增加。

Xilinx、Inetel和其他公司正試圖通過向FPGA陣列添加處理器和其他組件來擴大FPGA的規(guī)模。其他的,如Flex Logix、Achronix和Menta,將FPGA資源嵌入到靠近SoC特定功能區(qū)域的小塊中,并依賴高帶寬互連來保持數據的移動和高性能。

McGregor說:“你可以在任何你想要可編程I/O的地方使用FPGA,人們會將它們用于推理,有時還會進行訓練,但是你會發(fā)現它們會更多地用于處理大數據任務而不是訓練,這需要大量的矩陣乘法,更適合于GPU?!?/p>

然而,GPU并不是瀕臨滅絕的物種。根據MoorInsights & Strategy分析師Karl Freund在一篇博客文章中所說。

英偉達本月早些時候公布了NVIDIA TensorRT超大尺寸推理平臺的聲明,其中包括提供65TFLOPS用于訓練的Tesla T4 GPU和每秒260萬億次4位整數運算(TOPS)的推理 - 足以同時處理60個視頻流速度為每秒30幀。它包括320“Turing Tensorcores”,針對推理所需的整數計算進行了優(yōu)化。

新的架構

Graphcore是最著名的初創(chuàng)公司之一,正在開發(fā)一款236億晶體管的“智能處理單元”(IPU),具有300MB的片上存儲器,1216個核心,每個核心可以達到11GFlops,內部存儲器帶寬為30TB/s。其中兩個采用單個PCIe卡,每個卡都設計用于在單個芯片上保存整個神經網絡模型。

GraphCore即將推出的芯片基于圖形架構,該架構依賴于其軟件將數據轉換為頂點,其中數字輸入,應用于它們的函數(加,減,乘,除)和結果是單獨定義的,可以是并行處理。其他幾家ML初創(chuàng)公司也使用類似的方法。

Wave Computing沒有透露何時發(fā)貨,但在上周的人工智能硬件會議上透露了更多關于其架構的信息。該公司計劃銷售系統而不是芯片或電路板,使用帶有15 Gbyte /秒端口的16nm處理器和HMC存儲器和互連,這種選擇旨在快速推送圖形通過處理器集群而無需通過處理器發(fā)送數據超過瓶頸一個PCIe總線。該公司正在探索轉向HBM內存以獲得更快的吞吐量。

圖3:Wave計算的第一代數據流處理單元

機器學習的異構未來和支持的硅片的最佳指標之一來自微軟 - 這是FPGA,GPU和其他深度學習的巨大買家。

“雖然面向吞吐量的架構,如GPGPUs和面向批處理的NPU,在離線訓練和服務中很受歡迎,但對于DNN模型的在線、低延遲的服務,它們的效率并不高,”2018年5月發(fā)表的一篇論文描述了Brainwave 項目,這是微軟在deep neural networking (DNN)中高效FPGA的最新版本。

微軟率先將FPGA廣泛用作大規(guī)模數據中心DNN推理的神經網絡推理加速器。 Rambus的杰出發(fā)明人兼企業(yè)解決方案技術副總裁Steven Woo表示,該公司不是將它們用作簡單的協處理器,而是“更靈活,一流的計算引擎”。

根據微軟的說法,Brainwave項目可以使用英特爾Stratix 10 FPGA池提供39.5 TFLOPS的有效性能,這些FPGA可以被共享網絡上的任何CPU軟件調用??蚣軣o關系統導出深度神經網絡模型,將它們轉換為微服務,為Bing搜索和其他Azure服務提供“實時”推理。

圖4:微軟的Brainwave項目將DNN模型轉換為可部署硬件微服務,將任何DNN框架導出為通用圖形表示,并將子圖分配給CPU或FPGA

Brainwave是德勤全球(DeloitteGlobal)所稱的“戲劇性轉變”的一部分,這一轉變將強調FPGA和ASIC,到2018年,它們將占據機器學習加速器25%的市場份額。2016年,CPU和GPU占據了不到20萬臺的市場份額。德勤預測,到2018年,CPU和GPU將繼續(xù)占據主導地位,銷量將超過50萬部,但隨著ML項目數量在2017年至2018年翻一番、在2018年至2020年再翻一番,總市場將包括20萬FPGA和10萬ASIC。

德勤(Deloitte)表示,FPGA和ASIC的耗電量遠低于GPU、CPU,甚至比谷歌每小時75瓦的TPU耗電量還要低。它們還可以提高客戶選擇的特定功能的性能,這可以隨著編程的變化而改變。

Achronix的營銷副總裁SteveMensor說:“如果人們有他們的選擇,他們會在硬件層面上用ASIC構建東西,但是FPGA比GPU有更好的功耗/性能,而且他們在定點或可變精度架構方面非常擅長?!?/p>

ArterisIP的董事長兼首席執(zhí)行官CharlieJanac說:“有很多很多的內存子系統,你必須考慮低功耗和物聯網應用,網格和環(huán)路?!薄八阅憧梢园阉羞@些都放到一個芯片中,這是你決策物聯網芯片所需要的,或者你可以添加高吞吐量的HBM子系統。但是工作負載非常特殊,每個芯片有多個工作負載。因此,數據輸入是巨大的,尤其是如果你要處理雷達和激光雷達之類的東西,而這些東西沒有先進的互連是不可能存在的。

由于應用程序的特殊性,連接到該互連的處理器或加速器的類型可能會有很大的不同。

NetSpeed Systems負責營銷和業(yè)務開發(fā)的副總裁阿努什?莫罕達斯(Anush Mohandass)表示:“在核心領域,迫切需要大規(guī)模提高效率?!薄啊拔覀兛梢苑胖肁SIC和FPGA以及SoC,我們的預算越多,我們就可以放入機架?!钡罱K你必須高效;你必須能夠進行可配置或可編程的多任務處理。如果你能將多播應用到向量處理工作負載上,而向量處理工作負載是大部分訓練階段的內容,那么您能夠做的事情就會大大擴展?!?/p>

FPGA并不是特別容易編程,也不像樂高積木那樣容易插入設計,盡管它們正在朝著這個方向快速發(fā)展,SoC比FPGA更容易使用計算核心、DSP核心和其他IP模塊。

但是,從類似SoC的嵌入式FPGA芯片轉變?yōu)榫哂嗅槍C器學習應用優(yōu)化的數據背板的芯片上的完整系統并不像聽起來那么容易。

Mohandass說:“性能環(huán)境是如此的極端,需求是如此的不同,以至于AI領域的SoC與傳統的架構完全不同?!薄艾F在有更多的點對點通信。你正在做這些向量處理工作,有成千上萬的矩陣行,你有所有這些核心可用,但我們必須能夠跨越幾十萬個核心,而不是幾千個。

性能是至關重要的。設計、集成、可靠性和互操作性的便捷性也是如此——SoC供應商將重點放在底層框架和設計/開發(fā)環(huán)境上,而不僅僅是針對機器學習項目的特定需求的芯片組。

NetSpeed推出了專門為深度學習和其他人工智能應用程序設計的SoC集成平臺的更新版本,該服務使集成NetSpeed IP變得更容易,該設計平臺使用機器學習引擎推薦IP塊來完成設計。該公司表示,其目標是在整個芯片上提供帶寬,而不是傳統設計的集中式處理和內存。

Mohandass說:“從ASIC到神經形態(tài)芯片,再到量子計算,一切都在進行中,但即使我們不需要改變我們當前架構的整體基礎(以適應新的處理器),這些芯片的大規(guī)模生產仍遙遙無期?!钡覀兌荚诮鉀Q同樣的問題。當他們從上到下進行工作時,我們也從下到上進行工作。

Flex Logix的CEOGeoff Tate認為,CPU仍然是數據中心中最常用的數據處理元素,其次是FPGA和GPU。但他指出,需求不太可能在短時間內下降,因為數據中心試圖跟上對自己的機器學習應用程序的需求。

泰特說:“現在人們花了很多錢來設計出一種比GPU和FPGA更好的產品?!薄翱偟内厔菟坪跏巧窠浘W絡的硬件更加專業(yè)化,所以這就是我們可能會走向的地方?!崩纾④洷硎?,他們使用所有東西——CPU、GPU、TPU和FPGA——根據這些,他們可以在特定的工作負載下獲得最佳的性價比。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • FPGA
    +關注

    關注

    1650

    文章

    22207

    瀏覽量

    626874
  • 微軟
    +關注

    關注

    4

    文章

    6705

    瀏覽量

    106967
  • soc
    soc
    +關注

    關注

    38

    文章

    4475

    瀏覽量

    226187
  • 機器學習
    +關注

    關注

    66

    文章

    8528

    瀏覽量

    135873

原文標題:機器學習將越來越依賴FPGA和SoC

文章出處:【微信號:eetop-1,微信公眾號:EETOP】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    SoC FPGA與MCU的優(yōu)勢對比,應如何選擇

    的不斷提高,SoC FPGA將成為更廣泛的應用中的挑戰(zhàn)者,還是MCU會發(fā)展為更好地與SoC FPGA
    的頭像 發(fā)表于 02-19 08:38 ?1.7w次閱讀
    <b class='flag-5'>SoC</b> <b class='flag-5'>FPGA</b>與MCU的優(yōu)勢對比,應如何選擇

    學習FPGA的對今后的發(fā)展有什么影響

    跟著導師學習硬件,剛接觸到FPGA,看書還不到兩天,現在對其有幾個問題:1:學習FPGA今后會在哪些環(huán)境工作?2
    發(fā)表于 07-13 16:23

    家用服務機器將成為機器人的下一個入口

    ?!边@是比爾蓋茨對機器發(fā)展發(fā)表的自己的看法。”隨著智能機器人技術不斷的發(fā)展和滲透,機器人以后會在生活中更多的場景中出現,到時家用
    發(fā)表于 08-10 18:16

    超低功耗FPGA解決方案助力機器學習

    本帖最后由 曾12345 于 2018-5-23 15:49 編輯 全新的毫瓦級功耗FPGA解決方案為機器學習推理在大眾市場物聯網應用中實現快速部署創(chuàng)造機遇。1. 將AI加速部署到快速增長
    發(fā)表于 05-23 15:31

    傳感器將成為機器人無可替代的依賴之一

    人產量(包括所有企業(yè)在中國生產的機器人)持續(xù)增長,3月份增速在35%左右??梢灶A計,中國在未來很長一段時間內都將成為機器人產業(yè)全球最大的消費市場。而對機器
    發(fā)表于 11-28 10:59

    消費電子助力SoC發(fā)展,多核技術是焦點

    多核技術正成為PC產業(yè)談論的焦點。事實上,為了應對成本、上市時間和復雜多變技術帶來的挑戰(zhàn),現實中的嵌入式 SoC設計已經大量采用了多核架構,遠遠地走在了前面,例如IBM為索尼PS3游戲機定制
    發(fā)表于 06-21 06:19

    FPGA將成為標準化虛擬SoC平臺

    未來的FPGA,將會采用創(chuàng)新的迭堆式封裝(SIP),即在一個封裝里放多個裸片的技術,到那時,FPGA將成為一個標準的、虛擬的SoC平臺來應用?!?半導體行業(yè)最讓人稱道的是,能把沙子做成
    發(fā)表于 07-17 07:08

    無面板測試儀器將成為未來發(fā)展的趨勢

    無面板測試儀器將成為未來發(fā)展的趨勢
    發(fā)表于 05-10 06:04

    關于FPGA學習發(fā)展問題

    我是大二的電子信息工程在讀生,目前沒有接觸過32方向的任何東西,只學習了一個學期的FPGA并參加了集創(chuàng)賽,感覺FPGA學習難度還是很大的。但是我在網上搜索
    發(fā)表于 07-26 11:04

    FPGA、ASIC有望在機器學習領域中崛起

    機器學習已經被廣泛的的使用在了各個領域,在一年之內它的成長速度超過了預期。同時隨著AI芯片的發(fā)展,在以后,FPGA和ASIC芯片將有望成為
    發(fā)表于 12-26 10:46 ?1376次閱讀

    FPGA_soc學習教程:Intel Cyclone V SoC FPGA介紹

    小梅哥最新款FPGA_SOC
    的頭像 發(fā)表于 05-28 06:09 ?4794次閱讀

    FPGA_soc學習教程:SOC FPGA開發(fā)流程簡介

    小梅哥最新款FPGA_SOC
    的頭像 發(fā)表于 08-30 06:10 ?4286次閱讀
    <b class='flag-5'>FPGA_soc</b><b class='flag-5'>學習</b>教程:<b class='flag-5'>SOC</b> <b class='flag-5'>FPGA</b>開發(fā)流程簡介

    如何借助Xilinx FPGA和MATLAB技術加速機器學習應用

    本演講將結合FPGA機器學習發(fā)展趨勢、應用和需求,特別介紹在基于MATLAB?完成深度學習算法設計后,
    的頭像 發(fā)表于 12-25 07:08 ?2891次閱讀
    如何借助Xilinx <b class='flag-5'>FPGA</b>和MATLAB技術加速<b class='flag-5'>機器</b><b class='flag-5'>學習</b>應用

    人工智能將成為自適應學習的驅動嗎

    機器學習和人工智能,將成為自適應學習的驅動式技術。
    發(fā)表于 07-03 16:34 ?1556次閱讀

    機器學習發(fā)展歷程

    機器學習發(fā)展歷程:機器學習發(fā)展現狀、機器
    的頭像 發(fā)表于 08-17 16:30 ?2953次閱讀