chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從算法到硬件 2019,AI將如何演進(jìn)

mK5P_AItists ? 來(lái)源:楊湘祁 ? 作者:電子發(fā)燒友 ? 2019-03-08 17:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在剛剛過(guò)去的2018年,人工智能領(lǐng)域的大事件、新發(fā)現(xiàn)和新進(jìn)展層出不窮。

BERT重磅發(fā)布,刷新了很多NLP的任務(wù)的最好性能;GAN相關(guān)研究論文持續(xù)增長(zhǎng),生成的照片達(dá)到了以假亂真的程度;Deepfakes發(fā)展神速,讓許多政客和明星供大眾娛樂(lè)了一番;強(qiáng)化學(xué)習(xí)也在與人類(lèi)的對(duì)戰(zhàn)游戲中獨(dú)領(lǐng)風(fēng)騷......

硬件方面,Nvidia一騎絕塵,Intel努力求變,定制硬件市場(chǎng)繁榮;

除此之外,自動(dòng)駕駛AI倫理等也是過(guò)去一年的討論重點(diǎn)。

回顧2018展望2019,人工智能和機(jī)器學(xué)習(xí)將走向何方?

Medium的一位專(zhuān)欄作者為此撰文概括了過(guò)去一年中人工智能領(lǐng)域的一些模式,并試圖勾勒出其中的某些趨勢(shì)。注意,這篇總結(jié)是以美國(guó)的發(fā)展為中心展開(kāi),以下是文章全文:

算法

毫無(wú)疑問(wèn),算法話語(yǔ)權(quán)由深度神經(jīng)網(wǎng)絡(luò)(DNN)主導(dǎo)。

當(dāng)然,你可能會(huì)聽(tīng)說(shuō)有人在這里或那里部署了一個(gè)“經(jīng)典的”機(jī)器學(xué)習(xí)模型(比如梯度提升樹(shù)或多臂老虎機(jī)),并聲稱(chēng)這是每個(gè)人唯一需要的東西。有人宣稱(chēng),深度學(xué)習(xí)正處于垂死掙扎中。甚至連頂級(jí)的研究人員也在質(zhì)疑一些深度神經(jīng)網(wǎng)絡(luò)(DNN)架構(gòu)的效率和抗變換性。

但是,不管你喜歡與否,DNN無(wú)處不在: 自動(dòng)駕駛汽車(chē)、自然語(yǔ)言系統(tǒng)、機(jī)器人——所有你能想到的皆是如此。

在自然語(yǔ)言處理、生成式對(duì)抗網(wǎng)絡(luò)和深度增強(qiáng)學(xué)習(xí)中,DNN取得的飛躍尤為明顯。

Deep NLP: BERT以及其他

盡管在2018年之前,文本使用DNN(比如word2vec、GLOVE和基于LSTM的模型)已經(jīng)取得了一些突破,但缺少一個(gè)關(guān)鍵的概念元素:遷移學(xué)習(xí)。

也就是說(shuō),使用大量公開(kāi)可用的數(shù)據(jù)對(duì)模型進(jìn)行訓(xùn)練,然后根據(jù)你正在處理的特定數(shù)據(jù)集對(duì)其進(jìn)行“微調(diào)”。在計(jì)算機(jī)視覺(jué)中,利用在著名的ImageNet 數(shù)據(jù)集上發(fā)現(xiàn)的模式來(lái)解決特定的問(wèn)題,通常是一種解決方案。

問(wèn)題是,用于遷移學(xué)習(xí)的技巧并不能很好地應(yīng)用于自然語(yǔ)言處理(NLP)問(wèn)題。在某種意義上,像word2vec 這樣的預(yù)先訓(xùn)練的嵌入正在彌補(bǔ)這一點(diǎn),但它們只能應(yīng)用于單個(gè)單詞級(jí)別,無(wú)法捕捉到語(yǔ)言的高級(jí)結(jié)構(gòu)。

然而,在2018年,這種情況發(fā)生了變化。ELMo,情境化嵌入成為提高NLP 遷移學(xué)習(xí)的第一個(gè)重要步驟。ULMFiT 甚至更進(jìn)一步: 由于不滿意嵌入式的語(yǔ)義捕捉能力,作者找到了一種為整個(gè)模型進(jìn)行遷移學(xué)習(xí)的方法。

但最有趣的進(jìn)步無(wú)疑是BERT的引入。通過(guò)讓語(yǔ)言模型從英文維基百科的全部文章中進(jìn)行學(xué)習(xí),這個(gè)團(tuán)隊(duì)能夠在11個(gè)NLP 任務(wù)中取得最高水準(zhǔn)的結(jié)果——這是一個(gè)壯舉!更妙的是,它開(kāi)源了。所以,你可以把這一突破應(yīng)用到自己的研究問(wèn)題上。

生成式對(duì)抗網(wǎng)絡(luò)(GAN)的多面性

CPU的速度不會(huì)再呈現(xiàn)指數(shù)級(jí)的增長(zhǎng),但是生成式對(duì)抗網(wǎng)絡(luò)(GAN)的學(xué)術(shù)論文數(shù)量肯定會(huì)繼續(xù)增長(zhǎng)。GAN多年來(lái)一直是學(xué)術(shù)界的寵兒。然而,其在現(xiàn)實(shí)生活中的應(yīng)用似乎很少,而且這一點(diǎn)在2018年幾乎沒(méi)有改變。但是GAN仍然有著驚人的潛力等待著我們?nèi)?shí)現(xiàn)。

目前出現(xiàn)了一種新的方法,即逐步增加生成式對(duì)抗網(wǎng)絡(luò): 使生成器在整個(gè)訓(xùn)練過(guò)程中逐步提高其輸出的分辨率。很多令人印象深刻的論文都使用了這種方法,其中有一篇采用了風(fēng)格轉(zhuǎn)移技術(shù)來(lái)生成逼真的照片。有多逼真?你來(lái)告訴我:

這些照片中哪一張是真人?

這個(gè)問(wèn)題有陷阱:以上皆不是。

然而,GAN是如何工作的,以及它為什么會(huì)起效呢?我們對(duì)此還缺乏深入的了解,但是我們正在采取一些重要的措施: 麻省理工學(xué)院的一個(gè)團(tuán)隊(duì)已經(jīng)對(duì)這個(gè)問(wèn)題進(jìn)行了高質(zhì)量的研究。

另一個(gè)有趣的進(jìn)展是“對(duì)抗補(bǔ)丁“,從技術(shù)上來(lái)說(shuō)它并非是一個(gè)生成式對(duì)抗網(wǎng)絡(luò)。它同時(shí)使用黑盒(基本上不考慮神經(jīng)網(wǎng)絡(luò)的內(nèi)部狀態(tài))和白盒方法來(lái)制作一個(gè)“補(bǔ)丁”,可以騙過(guò)一個(gè)基于CNN的分類(lèi)器。從而得出一個(gè)重要的結(jié)果:它引導(dǎo)我們更好地了解深度神經(jīng)網(wǎng)絡(luò)如何工作,以及我們距離獲得人類(lèi)級(jí)別的概念認(rèn)知還有多遠(yuǎn)。

你能區(qū)分香蕉和烤面包機(jī)嗎?人工智能仍然不能。

強(qiáng)化學(xué)習(xí)(RL)

自從2016年AlphaGo 擊敗李世石后,強(qiáng)化學(xué)習(xí)就一直是公眾關(guān)注的焦點(diǎn)。

在訓(xùn)練中,強(qiáng)化學(xué)習(xí)依賴(lài)于“獎(jiǎng)勵(lì)”信號(hào),即對(duì)其在最后一次嘗試中表現(xiàn)的評(píng)分。電腦游戲提供了一個(gè)與現(xiàn)實(shí)生活相反的自然環(huán)境,讓這種信號(hào)隨時(shí)可用。因此,RL研究的所有注意力都放在了教AI玩雅達(dá)利游戲上。

談到它們的新發(fā)明 DeepMind,AlphaStar又成了新聞。這種新模式擊敗了星際爭(zhēng)霸II的頂級(jí)職業(yè)選手之一。星際爭(zhēng)霸比國(guó)際象棋和圍棋復(fù)雜得多,與大多數(shù)棋類(lèi)游戲不同,星際爭(zhēng)霸有巨大的動(dòng)作空間和隱藏在玩家身上的重要信息。這次勝利對(duì)整個(gè)領(lǐng)域來(lái)說(shuō),都是一次非常重要的飛躍。

在RL這個(gè)領(lǐng)域,另一個(gè)重要角色OpenAI也沒(méi)有閑著。讓它們聲名鵲起的是OpenAI Five,這個(gè)系統(tǒng)在2018年8月?lián)魯×薉ota 2這個(gè)極其復(fù)雜的電子競(jìng)技游戲中99.95%的玩家。

盡管OpenAI 已經(jīng)對(duì)電腦游戲給予了很多關(guān)注,但是他們并沒(méi)有忽視RL 真正的潛在應(yīng)用領(lǐng)域: 機(jī)器人。

在現(xiàn)實(shí)世界中,一個(gè)人能夠給予機(jī)器人的反饋是非常稀少且昂貴的:在你的R2-D2(電影中的虛擬機(jī)器人)嘗試走出第一“步”時(shí),你基本上需要一個(gè)人類(lèi)保姆來(lái)照看它。你需要數(shù)以百萬(wàn)計(jì)的數(shù)據(jù)點(diǎn)。

為了彌合這一差距,最新的趨勢(shì)是學(xué)會(huì)模擬一個(gè)環(huán)境,同時(shí)并行地運(yùn)行大量場(chǎng)景以教授機(jī)器人基本技能,然后再轉(zhuǎn)向現(xiàn)實(shí)世界。OpenAI和Google都在研究這種方法。

榮譽(yù)獎(jiǎng):Deepfakes

Deepfakes指一些偽造的圖像或視頻,(通常)展示某個(gè)公眾人物正在做或說(shuō)一些他們從未做過(guò)或說(shuō)過(guò)的事情。在“目標(biāo)”人物大量鏡頭的基礎(chǔ)上訓(xùn)練一個(gè)生成式對(duì)抗網(wǎng)絡(luò),然后在其中生成包含所需動(dòng)作的新媒體——deepfakes就是這樣創(chuàng)建的。

2018年1月發(fā)布的名為FakeApp的桌面應(yīng)用程序,可以讓所有擁有計(jì)算機(jī)科學(xué)知識(shí)的人和對(duì)此一無(wú)所知的人都能創(chuàng)建deepfakes。雖然它制作的視頻很容易被人看出來(lái)是假的,但這項(xiàng)技術(shù)已經(jīng)取得了長(zhǎng)足的進(jìn)步。

基礎(chǔ)設(shè)施

TensorFlow與PyTorch

目前,我們擁有很多深度學(xué)習(xí)框架。這個(gè)領(lǐng)域是廣闊的,這種多樣性表面上看是有意義的。但實(shí)際上,最近大多數(shù)人都在使用Tensorflow或PyTorch。如果你關(guān)心可靠性、易于部署性和模型重載等SREs 通常關(guān)心的問(wèn)題,那么你可能會(huì)選擇Tensorflow。如果你正在寫(xiě)一篇研究論文,而且不在谷歌工作,那么你很可能使用PyTorch。

ML作為一種服務(wù)隨處可見(jiàn)

今年,我們看到了更多的人工智能解決方案,它們被一個(gè)未獲得斯坦福大學(xué)機(jī)器學(xué)習(xí)博士學(xué)位的軟件工程師打包成一個(gè)供消費(fèi)的API。Google Cloud和Azure都改進(jìn)了舊服務(wù),并且增加了新服務(wù)。AWS機(jī)器學(xué)習(xí)服務(wù)列表開(kāi)始看起來(lái)十分令人生畏。

天啊,AWS的服務(wù)很快就會(huì)多到需要兩級(jí)目錄層次結(jié)構(gòu)來(lái)展示了。

盡管這種狂熱現(xiàn)象已經(jīng)冷卻了一些,但還是有很多創(chuàng)業(yè)公司發(fā)出了挑戰(zhàn)。每個(gè)人都承諾了模型訓(xùn)練的速度、推理過(guò)程中的易用性和驚人的模型性能。

只要輸入你的信用卡信息,上傳你的數(shù)據(jù),給模型一些時(shí)間去訓(xùn)練或者微調(diào),調(diào)用REST (或者,給更有前瞻性的創(chuàng)業(yè)公司GraphQL)的API,就可以成為人工智能方面的大師,甚至不需要搞清楚“隨機(jī)失活(dropout)”是什么。

有了這么多的選擇,為什么還有人會(huì)費(fèi)心自己建造模型和基礎(chǔ)設(shè)施呢?實(shí)際上,現(xiàn)成的MLaaS 產(chǎn)品在80% 的實(shí)用案例中表現(xiàn)得非常好。如果你希望剩下的20% 也能正常工作,那就沒(méi)那么幸運(yùn)了: 你不僅不能真正地選擇模型,甚至不能控制超參數(shù)。或者,如果你需要在云的舒適區(qū)之外的某個(gè)地方進(jìn)行推斷——一般情況下都做不到。這就是代價(jià)。

榮譽(yù)獎(jiǎng):AutoML和AI Hub

今年推出的兩項(xiàng)特別有趣的服務(wù)均由谷歌發(fā)布。

首先,Google Cloud AutoML是一套定制的NLP 和計(jì)算機(jī)視覺(jué)模型培訓(xùn)產(chǎn)品。這是什么意思?汽車(chē)設(shè)計(jì)師通過(guò)自動(dòng)微調(diào)幾個(gè)預(yù)先訓(xùn)練的模型,并選擇其中最好的那個(gè),從而解決了模型定制問(wèn)題。這意味著你很可能不需要自己去定制模型。

當(dāng)然,如果你想做一些真正新鮮或不同的東西,那么這個(gè)服務(wù)并不適合你。但是,谷歌在大量專(zhuān)有數(shù)據(jù)的基礎(chǔ)上預(yù)先訓(xùn)練其模型,這是一個(gè)附帶的好處。想想所有關(guān)于貓的照片,它們一定比Imagenet 更具推廣性!

第二,AI Hub 和TensorFlow Hub。在這兩者出現(xiàn)之前,重復(fù)使用某人的模型確實(shí)是件苦差事。基于GitHub 的隨機(jī)代碼很少能用,通常記錄得很差,而且一般來(lái)說(shuō),處理起來(lái)并不愉快。還有預(yù)先訓(xùn)練的遷移學(xué)習(xí)權(quán)重……這么說(shuō)吧,你甚至不想嘗試把它們用于工作中。

這正是TF Hub想要解決的問(wèn)題: 它是一個(gè)可靠的、有組織的模型存儲(chǔ)庫(kù),你可以對(duì)其進(jìn)行微調(diào)或構(gòu)建。只要加入幾行代碼——TF Hub 客戶端就可以從谷歌的服務(wù)器上獲取代碼和相應(yīng)的權(quán)重——然后,哇哦,它就可以正常工作了!

Ai Hub 更進(jìn)一步:它允許你共享整個(gè)ML管道,而不僅僅是模型!它仍然處于alpha 測(cè)試階段,但如果你明白我的意思的話,它已經(jīng)比一個(gè)連最新的文件也是“3年前才修改”的隨機(jī)存儲(chǔ)庫(kù)要好得多。

硬件

Nvidia(英偉達(dá)

如果你在2018年認(rèn)真研究過(guò)ML,尤其是DNN,那么你就曾用過(guò)一個(gè)(或多個(gè))GPU。因此,GPU的領(lǐng)頭羊在這一年里都非常忙碌。

隨著加密狂潮的冷卻和隨后的股價(jià)暴跌,Nvidia發(fā)布了基于圖靈架構(gòu)的全新一代消費(fèi)級(jí)卡。新卡僅使用了2017年發(fā)布的基于Volta芯片的專(zhuān)業(yè)卡,且包含了被稱(chēng)為T(mén)ensor Cores的新的高速矩陣乘法硬件。矩陣乘法是DNN運(yùn)行方式的核心,因此加快這些運(yùn)算將大大提高新GPU上神經(jīng)網(wǎng)絡(luò)訓(xùn)練的速度。

對(duì)于那些對(duì)“小”和“慢”的游戲GPU不滿意的人來(lái)說(shuō),Nvidia更新了他們的“超級(jí)計(jì)算平臺(tái)”。 DGX-2具有多達(dá)16塊Tesla V,用于FP16操作的480TFLOP(480萬(wàn)億次浮點(diǎn)運(yùn)算),真可謂是一款“怪物”盒子。而其價(jià)格也更新了,高達(dá)40萬(wàn)美元。

此外,自動(dòng)硬件也得到了更新。Jetson AGX Xavier是Nvidia希望能為下一代自動(dòng)駕駛汽車(chē)提供動(dòng)力的一個(gè)模塊。八核CPU、視覺(jué)加速器以及深度學(xué)習(xí)加速器,這些都是日益增長(zhǎng)的自動(dòng)駕駛行業(yè)所需的。

在一個(gè)有趣的開(kāi)發(fā)項(xiàng)目中,Nvidia為他們的游戲卡推出了基于DNN的一種功能:深度學(xué)習(xí)超級(jí)取樣(Deep Learning Super Sampling)。其想法是去替換抗鋸齒,目前主要通過(guò)先渲染分辨率高于所需(例如4倍)的圖片然后再將其縮放到本機(jī)監(jiān)視器分辨率來(lái)完成。

現(xiàn)在,Nvidia允許開(kāi)發(fā)人員在發(fā)布游戲之前以極高的質(zhì)量去訓(xùn)練圖像轉(zhuǎn)換模型。然后,使用預(yù)先訓(xùn)練的模型將游戲發(fā)送給最終用戶。在游戲過(guò)程中,圖形通過(guò)該模型來(lái)運(yùn)作以提高圖像質(zhì)量,而不會(huì)產(chǎn)生舊式抗鋸齒的成本。

Intel英特爾

英特爾在2018年絕對(duì)不是人工智能硬件領(lǐng)域的開(kāi)拓者,但似乎他們希望改變這一點(diǎn)。

令人驚訝的是,英特爾的大多數(shù)動(dòng)作都發(fā)生在軟件領(lǐng)域。英特爾正在努力使其現(xiàn)有和即將推出的硬件更加適合開(kāi)發(fā)人員。考慮到這一點(diǎn),他們發(fā)布了一對(duì)(既令人驚訝又有競(jìng)爭(zhēng)力的)工具包:OpenVINO和nGraph。

他們更新了自己的神經(jīng)計(jì)算棒:一個(gè)小型USB設(shè)備,可以加速任何帶USB端口的DNN,甚至是Raspberry Pi。

有關(guān)英特爾獨(dú)立GPU的傳聞變得越來(lái)越錯(cuò)綜復(fù)雜。雖然這一傳聞持續(xù)流傳,但新設(shè)備對(duì)DNN訓(xùn)練的適用性仍有待觀察。絕對(duì)適用于深度學(xué)習(xí)的是傳聞中的專(zhuān)業(yè)深度學(xué)習(xí)卡,它們的代號(hào)為Spring Hill和Spring Crest。而后者基于初創(chuàng)公司Nervana(英特爾幾年前已將其收購(gòu))的技術(shù)。

尋常(和不常見(jiàn))的定制硬件

谷歌推出了他們的第三代TPU:基于ASIC的DNN專(zhuān)用加速器,具有驚人的128Gb HMB內(nèi)存。256個(gè)這樣的設(shè)備組裝成一個(gè)具有超過(guò)每秒100千兆次性能的集合體。谷歌今年不再僅憑這些設(shè)備來(lái)挑逗世界的其他玩家了,而是通過(guò)Google Cloud向公眾提供TPU。

在類(lèi)似的、但主要針對(duì)推理應(yīng)用程序的項(xiàng)目中,亞馬遜已經(jīng)部署了AWS Inferentia:一種更便宜、更有效的在生產(chǎn)中運(yùn)行模型的方式。

谷歌還宣布了Edge TPU項(xiàng)目:這個(gè)芯片很?。?0個(gè)芯片加起來(lái)才有一美分硬幣的大小。與此同時(shí),它能做到在實(shí)時(shí)視頻上運(yùn)行DNN,并且?guī)缀醪幌娜魏文芰?,這就足夠了。

一個(gè)有趣的潛在新玩家是Graphcore。這家英國(guó)公司已經(jīng)籌集了3.1億美元,并在2018年推出了他們的第一款產(chǎn)品GC2芯片。根據(jù)基準(zhǔn)測(cè)試,GC2在進(jìn)行推理時(shí)碾壓了頂級(jí)Nvidia服務(wù)器GPU卡,同時(shí)消耗的功率顯著降低。

榮譽(yù)獎(jiǎng):AWS Deep Racer

亞馬遜推出了一款小型自動(dòng)駕駛汽車(chē)DeepRacer,以及一個(gè)賽車(chē)聯(lián)盟。這完全出人意料,但也有點(diǎn)像他們之前推出DeepLens時(shí)的情況。這款400美元的汽車(chē)配備了Atom處理器,400萬(wàn)像素?cái)z像頭,wifi,幾個(gè)USB端口,以及可運(yùn)行數(shù)小時(shí)的充足電量。

自動(dòng)駕駛模型可以使用完全在云端的3D模擬環(huán)境進(jìn)行訓(xùn)練,然后直接部署到這款車(chē)上。如果你一直夢(mèng)想著建造自己的自動(dòng)駕駛汽車(chē),那么亞馬遜的這款車(chē)就能讓你如愿,而不必再去自己創(chuàng)立受到VC支持的公司了。

接下來(lái)還有什么?重點(diǎn)會(huì)轉(zhuǎn)向決策智能

既然算法、基礎(chǔ)設(shè)施和硬件等讓AI變得有用的因素都比以往任何時(shí)候要更好,企業(yè)于是意識(shí)到開(kāi)始應(yīng)用AI的最大絆腳石在于其實(shí)際性層面:你如何將AI從想法階段落實(shí)到有效、安全又可靠的生產(chǎn)系統(tǒng)中?

應(yīng)用AI或應(yīng)用機(jī)器學(xué)習(xí)(ML),也稱(chēng)為決策智能,是為現(xiàn)實(shí)世界問(wèn)題創(chuàng)建AI解決方案的科學(xué)。雖然過(guò)去我們把重點(diǎn)放在算法背后的科學(xué)上,但未來(lái)我們應(yīng)該對(duì)該領(lǐng)域的端到端應(yīng)用給予更加平等的關(guān)注。

人工智能在促進(jìn)就業(yè)方面功大于過(guò)

“人工智能會(huì)拿走我們所有的工作”是媒體一直反復(fù)宣揚(yáng)的主題,也是藍(lán)領(lǐng)和白領(lǐng)共同的恐懼。而且從表面上看,這似乎是一個(gè)合理的預(yù)測(cè)。但到目前為止,情況恰恰相反。例如,很多人都通過(guò)創(chuàng)建標(biāo)簽數(shù)據(jù)集的工作拿到了薪酬。

像LevelApp這樣的應(yīng)用程序可以讓難民只需用手機(jī)標(biāo)記自己的數(shù)據(jù)就可以賺到錢(qián)。Harmon則更進(jìn)一步:他們甚至為難民營(yíng)中的移民提供設(shè)備,以便這些人可以做出貢獻(xiàn)并以此謀生。

除了數(shù)據(jù)標(biāo)簽之外,整個(gè)行業(yè)都是通過(guò)新的AI技術(shù)創(chuàng)建的。我們能夠做到幾年前無(wú)法想象的事情,比如自動(dòng)駕駛汽車(chē)或新藥研發(fā)。

更多與ML相關(guān)的計(jì)算將在邊緣領(lǐng)域進(jìn)行

Pipeline的后期階段通常通過(guò)降采樣或其他方式降低信號(hào)的保真度。另一方面,隨著AI模型變得越來(lái)越復(fù)雜,它們?cè)跀?shù)據(jù)更多的情況下表現(xiàn)得更好。將AI組件移近數(shù)據(jù)、靠近邊緣,是否會(huì)有意義嗎?

舉一個(gè)簡(jiǎn)單的例子:想象一個(gè)高分辨率的攝像機(jī),可以每秒30千兆次的速度生成高質(zhì)量的視頻。處理該視頻的計(jì)算機(jī)視覺(jué)模型在服務(wù)器上運(yùn)行。攝像機(jī)將視頻流式傳輸?shù)椒?wù)器,但上行帶寬有限,因此視頻會(huì)縮小并被高度壓縮。為何不將視覺(jué)模型移動(dòng)到相機(jī)并使用原始視頻流呢?

與此同時(shí),多個(gè)障礙總是存在,它們主要是:邊緣設(shè)備上可用的計(jì)算能力的數(shù)量和管理的復(fù)雜性(例如將更新的模型推向邊緣)。專(zhuān)用硬件(如Google的Edge TPU、Apple的神經(jīng)引擎等)、更高效的模型和優(yōu)化軟件的出現(xiàn),讓計(jì)算的局限性逐漸消失。通過(guò)改進(jìn)ML框架和工具,管理復(fù)雜性問(wèn)題不斷得到解決。

整合AI基礎(chǔ)架構(gòu)空間

前幾年人工智能基礎(chǔ)設(shè)施相關(guān)活動(dòng)層出不窮:盛大的公告、巨額的多輪融資和厚重的承諾。2018年,這個(gè)領(lǐng)域似乎降溫了。雖然仍然有很多新的進(jìn)步,但大部分貢獻(xiàn)都是由現(xiàn)有大型玩家做出的。

一個(gè)可能的解釋也許是我們對(duì)AI系統(tǒng)的理想基礎(chǔ)設(shè)施的理解還不夠成熟。由于問(wèn)題很復(fù)雜,需要長(zhǎng)期、持久、專(zhuān)注而且財(cái)力雄厚的努力,才能產(chǎn)生可行的解決方案——這是初創(chuàng)公司和小公司所不擅長(zhǎng)的。如果一家初創(chuàng)公司“解決”了AI的問(wèn)題,那絕對(duì)會(huì)讓人驚奇不已。

另一方面,ML基礎(chǔ)設(shè)施工程師卻很少見(jiàn)。對(duì)于大公司來(lái)說(shuō),一個(gè)僅有幾名員工、掙扎求生的創(chuàng)業(yè)公司顯然是很有價(jià)值的并購(gòu)目標(biāo)。這個(gè)行業(yè)中至少有幾個(gè)玩家是為了勝利在不斷奮斗的,它們同時(shí)建立了內(nèi)部和外部工具。例如,對(duì)于AWS和Google Cloud而言,AI基礎(chǔ)設(shè)施服務(wù)是一個(gè)主要賣(mài)點(diǎn)。

綜上可以預(yù)測(cè),未來(lái)在這個(gè)領(lǐng)域會(huì)出現(xiàn)一個(gè)整合多個(gè)玩家的壟斷者。

更多定制硬件

至少對(duì)于CPU而言,摩爾定律已經(jīng)失效了,并且這一事實(shí)已經(jīng)存在很多年了。GPU很快就會(huì)遭受類(lèi)似的命運(yùn)。雖然我們的模型變得越來(lái)越高效,但為了解決一些更高級(jí)的問(wèn)題,我們需要用到更多的計(jì)算能力。這可以通過(guò)分布式訓(xùn)練來(lái)解決,但它自身也有局限。

此外,如果你想在資源受限的設(shè)備上運(yùn)行一些較大的模型,分布式訓(xùn)練會(huì)變得毫無(wú)用處。進(jìn)入自定義AI加速器。根據(jù)你想要的或可以實(shí)現(xiàn)的自定義方式,可以節(jié)省一個(gè)數(shù)量級(jí)的功耗、成本或潛在消耗。

在某種程度上,即使是Nvidia的Tensor Cores也已經(jīng)投身于這一趨勢(shì)。如果沒(méi)有通用硬件的話,我們會(huì)看到更多的案例。

減少對(duì)訓(xùn)練數(shù)據(jù)的依賴(lài)

標(biāo)記數(shù)據(jù)通常很昂貴,或者不可用,也可能二者兼有。這一規(guī)則幾乎沒(méi)有例外。開(kāi)放的高質(zhì)量數(shù)據(jù)集,如MNIST、ImageNet、COCO、Netflix獎(jiǎng)和IMDB評(píng)論,都是令人難以置信的創(chuàng)新源泉。但是許多問(wèn)題并沒(méi)有可供使用的相應(yīng)數(shù)據(jù)集。研究人員不可能自己去建立數(shù)據(jù)集,而可提供贊助或發(fā)布數(shù)據(jù)集的大公司卻并不著急:他們正在構(gòu)建龐大的數(shù)據(jù)集,但不讓外人靠近。

那么,一個(gè)小型獨(dú)立實(shí)體,如創(chuàng)業(yè)公司或大學(xué)研究小組,如何為那些困難的問(wèn)題提供有趣的解決方案呢?構(gòu)建對(duì)監(jiān)督信號(hào)依賴(lài)性越來(lái)越小,但對(duì)未標(biāo)記和非結(jié)構(gòu)化數(shù)據(jù)(廉價(jià)傳感器的互聯(lián)和增多使得這類(lèi)數(shù)據(jù)變得很豐富)依賴(lài)性越來(lái)越大的系統(tǒng)就可以實(shí)現(xiàn)這一點(diǎn)。這在一定程度上解釋了人們對(duì)GAN、轉(zhuǎn)移和強(qiáng)化學(xué)習(xí)的興趣激增的原因:所有這些技術(shù)都需要較少(或根本不需要)對(duì)訓(xùn)練數(shù)據(jù)集的投資。

所以這一切僅僅是個(gè)泡沫?

這一行業(yè)已進(jìn)入熱門(mén)人工智能“盛夏”的第七年。這段時(shí)間內(nèi),大量的研究項(xiàng)目、學(xué)術(shù)資助、風(fēng)險(xiǎn)投資、媒體關(guān)注和代碼行都涌入了這個(gè)領(lǐng)域。

但人們有理由指出,人工智能所做出的大部分承諾仍然還未兌現(xiàn):他們最近優(yōu)步打車(chē)的行程依然是人類(lèi)駕駛員在開(kāi)車(chē);目前依然沒(méi)有出現(xiàn)早上能做煎蛋的實(shí)用機(jī)器人。我甚至不得不自己綁鞋帶,真是可悲至極!

然而,無(wú)數(shù)研究生和軟件工程師的努力并非徒勞。似乎每家大公司都已經(jīng)十分依賴(lài)人工智能,或者在未來(lái)實(shí)施此類(lèi)計(jì)劃。AI的藝術(shù)大行其道。自動(dòng)駕駛汽車(chē)雖然尚未出現(xiàn),但它們很快就會(huì)誕生了。

2018年,美國(guó)在人工智能領(lǐng)域發(fā)展迅速,中國(guó)也不遑多讓。這個(gè)趨勢(shì)從近期百度和BOSS直聘聯(lián)合發(fā)布的《2018年中國(guó)人工智能ABC人才發(fā)展報(bào)告》中就可窺一斑。

未來(lái)智能實(shí)驗(yàn)室是人工智能學(xué)家與科學(xué)院相關(guān)機(jī)構(gòu)聯(lián)合成立的人工智能,互聯(lián)網(wǎng)和腦科學(xué)交叉研究機(jī)構(gòu)。

未來(lái)智能實(shí)驗(yàn)室的主要工作包括:建立AI智能系統(tǒng)智商評(píng)測(cè)體系,開(kāi)展世界人工智能智商評(píng)測(cè);開(kāi)展互聯(lián)網(wǎng)(城市)云腦研究計(jì)劃,構(gòu)建互聯(lián)網(wǎng)(城市)云腦技術(shù)和企業(yè)圖譜,為提升企業(yè),行業(yè)與城市的智能水平服務(wù)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4761

    瀏覽量

    97164
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    38171

    瀏覽量

    296925
  • 智能硬件
    +關(guān)注

    關(guān)注

    205

    文章

    2404

    瀏覽量

    111053

原文標(biāo)題:從算法到硬件,一文讀懂2019年 AI如何演進(jìn)

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    存儲(chǔ)智能:AI NAS的技術(shù)路徑與未來(lái)演進(jìn)

    AI NAS的進(jìn)化本質(zhì)是存儲(chǔ)設(shè)備數(shù)據(jù)容器向認(rèn)知引擎的躍遷。隨著硬件性能提升、模型輕量化技術(shù)突破以及多模態(tài)工作流的成熟,未來(lái)的NAS將成為每個(gè)家庭和企業(yè)的私有化智能基座,重新定義人機(jī)協(xié)作的邊界。在這一進(jìn)程中,平衡性能、成本與隱私
    的頭像 發(fā)表于 12-03 09:14 ?534次閱讀
    <b class='flag-5'>從</b>存儲(chǔ)<b class='flag-5'>到</b>智能:<b class='flag-5'>AI</b> NAS的技術(shù)路徑與未來(lái)<b class='flag-5'>演進(jìn)</b>

    游戲引擎AI動(dòng)力核心

    顯卡技術(shù)演進(jìn)游戲引擎AI動(dòng)力核心 曾經(jīng)專(zhuān)為圖形渲染而生的顯卡,如今正成為推動(dòng)人工智能、邊緣計(jì)算和科學(xué)模擬的關(guān)鍵驅(qū)動(dòng)力。 近年來(lái),顯卡技術(shù)已從單純的圖形處理單元演變?yōu)橥ㄓ糜?jì)算加速器
    的頭像 發(fā)表于 10-30 11:08 ?108次閱讀

    需求落地:RISC-V如何重塑下一代AI硬件生態(tài)?

    本文由TechSugar編譯自SemiWiki人工智能(AI)正重塑計(jì)算領(lǐng)域的每一個(gè)層面,訓(xùn)練萬(wàn)億參數(shù)模型的超大規(guī)模數(shù)據(jù)中心,運(yùn)行實(shí)時(shí)推理任務(wù)的電池供電型邊緣設(shè)備,無(wú)一不受其影響。各領(lǐng)域?qū)?b class='flag-5'>
    的頭像 發(fā)表于 10-16 09:06 ?488次閱讀
    <b class='flag-5'>從</b>需求<b class='flag-5'>到</b>落地:RISC-V如何重塑下一代<b class='flag-5'>AI</b><b class='flag-5'>硬件</b>生態(tài)?

    AI芯片:科技探索與AGI愿景》—— 勾勒計(jì)算未來(lái)的戰(zhàn)略羅盤(pán)

    如果說(shuō)算力是AGI的“燃料”,那么AI芯片就是制造燃料的“精煉廠”。本書(shū)的卓越之處在于,它超越了單純的技術(shù)拆解,成功繪制了一幅專(zhuān)用智能邁向通用智能的“戰(zhàn)略路線圖”。作者以芯片為棱鏡,折射出算法
    發(fā)表于 09-17 09:32

    AI芯片:科技探索與AGI愿景》—— 深入硬件核心的AGI指南

    AI芯片:科技探索與AGI愿景》一書(shū)如同一張?jiān)敱M的“藏寶圖”,為讀者指明了通往下一代人工智能的硬件之路。作者沒(méi)有停留在空洞的概念層面,而是直擊核心,馮·諾依曼架構(gòu)的“內(nèi)存墻”瓶頸切入,清晰闡述了
    發(fā)表于 09-17 09:29

    AI的核心操控:算法硬件的協(xié)同進(jìn)化

    ? ? ? ?人工智能(AI)的核心操控涉及算法、算力和數(shù)據(jù)三大要素的深度融合,其技術(shù)本質(zhì)是通過(guò)硬件與軟件的協(xié)同優(yōu)化實(shí)現(xiàn)對(duì)復(fù)雜任務(wù)的自主決策與執(zhí)行。這一過(guò)程依賴(lài)多層技術(shù)棧的精密配合,
    的頭像 發(fā)表于 09-08 17:51 ?777次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+可期之變:AI硬件AI濕件

    ,又分為真菌計(jì)算和基于DNA的計(jì)算。 圖4 基本的真菌計(jì)算機(jī)結(jié)構(gòu) 在用化學(xué)和生物方法實(shí)現(xiàn)AI功能的過(guò)程中,要經(jīng)歷5個(gè)階段,見(jiàn)圖5所示。 圖5 以化學(xué)和生物方法實(shí)現(xiàn)AI功能各階段 期待AI
    發(fā)表于 09-06 19:12

    大朋 VR:對(duì)話:工具伙伴,AI 硬件的場(chǎng)景革命與關(guān)系重構(gòu)

    了?AI?眼鏡及智能硬件行業(yè)的新方向。 DPVR?CEO陳朝陽(yáng)在圓桌論壇中直言:“傳統(tǒng)硬件是以功能為核心,拼參數(shù)、堆配置;但AI硬件是以場(chǎng)景
    的頭像 發(fā)表于 09-05 09:17 ?497次閱讀

    生成式AI代理式AI:半導(dǎo)體技術(shù)賦能下一波創(chuàng)新浪潮

    AI領(lǐng)域始終在不斷演進(jìn),我們正見(jiàn)證一場(chǎng)“生成式AI”時(shí)代“代理式AI”時(shí)代的深刻變革。這場(chǎng)變
    的頭像 發(fā)表于 08-21 17:59 ?1323次閱讀
    <b class='flag-5'>從</b>生成式<b class='flag-5'>AI</b><b class='flag-5'>到</b>代理式<b class='flag-5'>AI</b>:半導(dǎo)體技術(shù)賦能下一波創(chuàng)新浪潮

    【書(shū)籍評(píng)測(cè)活動(dòng)NO.64】AI芯片,過(guò)去走向未來(lái):《AI芯片:科技探索與AGI愿景》

    到AGI,一起來(lái)探索AI芯片 本書(shū)創(chuàng)新視角出發(fā),系統(tǒng)梳理了AI芯片的前沿技術(shù)與未來(lái)方向,串聯(lián)起算法
    發(fā)表于 07-28 13:54

    AI技術(shù)如何推動(dòng)我們的商業(yè)和社會(huì)發(fā)展

    不斷發(fā)展的AI技術(shù)能否給人類(lèi)社會(huì)帶來(lái)類(lèi)似工業(yè)革命的跨越?它將如何推動(dòng)我們的商業(yè)和社會(huì)發(fā)展?它與人類(lèi)之間的關(guān)系又將如演進(jìn)
    的頭像 發(fā)表于 07-28 09:32 ?593次閱讀

    惡劣工況下的ADAS多源傳感器數(shù)據(jù)采集:硬件抗干擾算法泛化

    ADAS技術(shù)邁向場(chǎng)景攻堅(jiān),惡劣工況數(shù)據(jù)采集是提升算法的關(guān)鍵,卻面臨系統(tǒng)穩(wěn)定、數(shù)據(jù)有效等挑戰(zhàn)??抵\深耕相關(guān)工具鏈,硬件支撐、數(shù)據(jù)同步與采集等多方面給出解決方案,助你突破數(shù)據(jù)采集難題,提升ADAS
    的頭像 發(fā)表于 07-22 13:49 ?405次閱讀
    惡劣工況下的ADAS多源傳感器數(shù)據(jù)采集:<b class='flag-5'>從</b><b class='flag-5'>硬件</b>抗干擾<b class='flag-5'>到</b><b class='flag-5'>算法</b>泛化

    中偉視界:罐籠超員監(jiān)測(cè)AI算法,智慧礦山運(yùn)輸?shù)陌踩聵?biāo)準(zhǔn)

    罐籠超員AI監(jiān)測(cè)算法通過(guò)實(shí)時(shí)動(dòng)態(tài)統(tǒng)計(jì)與多相機(jī)協(xié)同,解決礦山罐籠超員問(wèn)題,提升運(yùn)輸安全。該系統(tǒng)利用智能硬件算法優(yōu)化,從根本上轉(zhuǎn)變傳統(tǒng)依賴(lài)人力的管理模式,為智慧礦山建設(shè)提供強(qiáng)有力的技術(shù)保
    的頭像 發(fā)表于 06-20 14:38 ?439次閱讀
    中偉視界:罐籠超員監(jiān)測(cè)<b class='flag-5'>AI</b><b class='flag-5'>算法</b>,智慧礦山運(yùn)輸?shù)陌踩聵?biāo)準(zhǔn)

    FPGA+AI王炸組合如何重塑未來(lái)世界:看看DeepSeek東方神秘力量如何預(yù)測(cè)......

    ”“大模型圈的大黑馬”“硅谷震驚了”“來(lái)自中國(guó)的學(xué)霸級(jí)AI”…… 智能手機(jī)自動(dòng)駕駛,數(shù)據(jù)中心到物聯(lián)網(wǎng),F(xiàn)PGA 正悄然改變著我們的生活。未來(lái),F(xiàn)PGA 又
    發(fā)表于 03-03 11:21

    CPUGPU:渲染技術(shù)的演進(jìn)和趨勢(shì)

    渲染技術(shù)是計(jì)算機(jī)圖形學(xué)的核心內(nèi)容之一,它是將三維場(chǎng)景轉(zhuǎn)換為二維圖像的過(guò)程。渲染技術(shù)一直在不斷演進(jìn),最初的CPU渲染后來(lái)的GPU渲染,性能和質(zhì)量都有了顯著提升。一、CPU
    的頭像 發(fā)表于 02-21 11:11 ?1381次閱讀
    <b class='flag-5'>從</b>CPU<b class='flag-5'>到</b>GPU:渲染技術(shù)的<b class='flag-5'>演進(jìn)</b>和趨勢(shì)