基于FPGA可程序化硬件運(yùn)算技術(shù),推出深度學(xué)習(xí)加速卡DLIA
FPGA則是另一個英特爾近年來極力發(fā)展的重點(diǎn),他們在2015年并購了專攻FPGA技術(shù)的Altera公司,并以此成立新的業(yè)務(wù)單位──可程序化解決方案事業(yè)群(Programmable Solutions Group)。
針對高效能運(yùn)算(HPC)領(lǐng)域當(dāng)中也相當(dāng)熱門的AI應(yīng)用,英特爾在今年11月稍早舉行的Supercomputing 2016大會期間,也宣布將于2017年初推出基于FPGA的AI加速解決方案,名為Deep Learning Inference Accelerator(DLIA),可用于影像辨識應(yīng)用,并且具備大量的數(shù)據(jù)吞吐能力與高度的能源效益。
DLIA的硬件是英特爾FPGA 系列產(chǎn)品當(dāng)中的Arria 10的適配卡,芯片之間傳輸率,最高可達(dá)到25.78 Gbps,最大浮點(diǎn)運(yùn)算效能為1,500 GFLOPS,可因應(yīng)卷積神經(jīng)網(wǎng)絡(luò)(CNN)的部署架構(gòu),提供優(yōu)化效能。而且,Arria 10本身所采用的處理器,是20奈米制程的ARM系統(tǒng)單芯片(SoC)Cortex-A9 MPCore,比起前一代FPGA與SoC芯片,號稱能節(jié)省4成的電力。
同時,由于DLIA是基于FPGA技術(shù)而成,所以秉持了可程序化的特性,用戶能從遠(yuǎn)程對DLIA進(jìn)行韌體更新,以便隨時因應(yīng)AI技術(shù)的改變,而且也能直接運(yùn)用深度學(xué)習(xí)的軟件開發(fā)框架,例如英特爾自己維護(hù)、發(fā)行的Caffe,以及MKL-DNN(Math Kernel Library for Deep Neural Networks)等鏈接庫。
專為深度學(xué)習(xí)應(yīng)用所設(shè)計(jì)的Crest系列芯片,預(yù)計(jì)將在2017年問世
英特爾2016年并購Nervana公司后,預(yù)計(jì)在2017年推出運(yùn)算芯片Nervana Engine。
這顆代號為Lake Crest的處理器,是專為深度學(xué)習(xí)的工作負(fù)載所設(shè)計(jì)的,將提供極高的運(yùn)算密度,大幅超越現(xiàn)行GPU的運(yùn)算能力。
在數(shù)據(jù)存取的方式上,Lake Crest本身也配置了新一代的高速帶寬內(nèi)存技術(shù)HBM2,搭配的總?cè)萘繛?2GB,訪問速度高達(dá)8Tb/s。而芯片之間進(jìn)行互相溝通時,Lake Crest提供12個雙向的鏈接通道,有助于在彼此互連的架構(gòu)下,進(jìn)行高速數(shù)據(jù)傳輸。
英特爾強(qiáng)調(diào),Lake Crest能支持真正的數(shù)據(jù)模型平行處理作業(yè),因?yàn)樵谶@樣的運(yùn)算架構(gòu)當(dāng)中,每一個運(yùn)算節(jié)點(diǎn),都會配置專用的內(nèi)存接口,如此一來,系統(tǒng)能夠存取的數(shù)據(jù)模型大小較不受限,同時也可以藉此增進(jìn)內(nèi)存I/O效率。
而在Lake Crest之后,英特爾打算師法Xeon Phi x200系列處理器的作法,推出更進(jìn)一步整合Xeon與Nervana加速技術(shù)的芯片,研發(fā)代號為Knights Crest。展望AI運(yùn)算平臺的未來目標(biāo),他們希望將現(xiàn)行AI應(yīng)用耗費(fèi)在深度學(xué)習(xí)訓(xùn)練的時間,盡可能地縮短,在2020年能做到實(shí)時訓(xùn)練,達(dá)到節(jié)省幅度100倍的目標(biāo)。
Lake Crest的深度學(xué)習(xí)處理架構(gòu)
Lake Crest是基于多維度數(shù)據(jù)數(shù)組(tensor-based)的處理架構(gòu),而且,提供Flexpoint的作法,所能支持的平行處理層級是現(xiàn)行技術(shù)的10倍。這顆芯片內(nèi)建的內(nèi)存也很特別,是HBM(High Bandwidth Memory)的第二代技術(shù),內(nèi)存帶寬是目前DDR4的12倍。
下篇:英特爾AI策略全解析(2):軟件的優(yōu)化提供強(qiáng)大效能
電子發(fā)燒友App











評論