chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

1個(gè)AI模型=5輛汽車終身碳排量,AI為何如此耗能?

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2021-01-21 03:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

整理 | 彎月 責(zé)編 | 鄭麗媛
出品 | CSDN(ID:CSDNnews)

根據(jù)最新的研究結(jié)果,訓(xùn)練一個(gè)普通的 AI 模型消耗的能源相當(dāng)于五輛汽車一生排放的碳總量,而 BERT 模型的碳排放量約為 1400 磅二氧化碳,這相當(dāng)于一個(gè)人來回坐飛機(jī)橫穿美國。為何 AI 模型會如此費(fèi)電,它們與傳統(tǒng)的數(shù)據(jù)中心計(jì)算有何不同?

訓(xùn)練效率低下

傳統(tǒng)數(shù)據(jù)中心負(fù)責(zé)處理的工作包括視頻流,電子郵件和社交媒體。AI 所需的計(jì)算量則更多,因?yàn)樗枰x取大量的數(shù)據(jù)、持續(xù)學(xué)習(xí),直到完成訓(xùn)練。

與人類的學(xué)習(xí)方式相比,AI 的訓(xùn)練效率非常低下?,F(xiàn)代 AI 使用人工神經(jīng)網(wǎng)絡(luò),這是模擬人腦神經(jīng)元的數(shù)學(xué)計(jì)算。每兩個(gè)相鄰神經(jīng)元的連接強(qiáng)度都是神經(jīng)網(wǎng)絡(luò)上的一個(gè)參數(shù),名叫權(quán)重。神經(jīng)網(wǎng)絡(luò)的訓(xùn)練則需要從隨機(jī)權(quán)重開始,一遍遍地運(yùn)行和調(diào)整參數(shù),直到輸出與正確答案一致為止。

常見的一種訓(xùn)練語言神經(jīng)網(wǎng)絡(luò)的方法是,從維基百科和新聞媒體網(wǎng)站下載大量文本,然后把一些詞語遮擋起來,并要求 AI 猜測被遮擋起來的詞語。剛開始的時(shí)候,AI 會全部搞錯(cuò),但是,經(jīng)過不斷地調(diào)整后,AI 會逐漸學(xué)習(xí)數(shù)據(jù)中的模式,最終整個(gè)神經(jīng)網(wǎng)絡(luò)都會變得非常準(zhǔn)確。

相信你聽說過 BERT 模型,基于變換器的雙向編碼器表示技術(shù)(Bidirectional Encoder Representations from Transformers,簡稱 BERT),這是一項(xiàng)由 Google 提出的自然語言處理(NLP)的預(yù)訓(xùn)練技術(shù)。該模型使用了來自維基百科和其他文章的 33 億個(gè)單詞,而且在整個(gè)訓(xùn)練期間,BERT 讀取了該數(shù)據(jù)集 40 次。相比之下,一個(gè) 5 歲的孩子學(xué)說話只需要聽到 4500 萬個(gè)單詞,比 BERT 少3000倍。

尋找最佳結(jié)構(gòu)

語言模型構(gòu)建成本如此之高的原因之一在于,在開發(fā)模型期間,上述訓(xùn)練過程需要反復(fù)多次。因?yàn)檠芯咳藛T需要將神經(jīng)網(wǎng)絡(luò)調(diào)整到最優(yōu),即確定神經(jīng)元的個(gè)數(shù)、神經(jīng)元之間的連接數(shù)以及各個(gè)權(quán)重。他們需要反復(fù)嘗試很多組合,才能提高神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確度。相比之下,人類的大腦不需要尋找最佳結(jié)構(gòu),經(jīng)過幾億年的進(jìn)化,人類大腦已具備這種結(jié)構(gòu)。

隨著各大公司和學(xué)術(shù)界在 AI 領(lǐng)域的競爭愈演愈烈,不斷提高技術(shù)水平的壓力也越來越大。在自動翻譯等難度巨大的任務(wù)中,如果能將準(zhǔn)確度提高 1%,也將被視為重大的進(jìn)步,可以作為宣傳產(chǎn)品的籌碼。然而,為了獲得這 1% 的提升,研究人員需要嘗試成千上萬的結(jié)構(gòu)來訓(xùn)練模型,直到找到最佳模型。

隨著模型不斷發(fā)展,模型的復(fù)雜度逐年攀高。另一款與 BERT 類似的最新語言模型 GPT-2,其神經(jīng)網(wǎng)絡(luò)包含 15 億個(gè)權(quán)重。而 GPT-3 由于其高精度,引起了業(yè)界的轟動,但其權(quán)重高達(dá) 1750 億個(gè)。

此外,AI 模型的訓(xùn)練需要在專用硬件(例如圖形處理器)上進(jìn)行,這些硬件的功耗普遍高于傳統(tǒng) CPU。如果你的筆記本電腦加載了優(yōu)質(zhì)的顯卡,可以玩很多高端游戲,那么你肯定會注意到這臺機(jī)器產(chǎn)生的熱量也比普通電腦高很多。

所有這些都表明,開發(fā)先進(jìn)的 AI 模型需要大量的碳排放量。除非我們能夠利用百分百可再生能源,否則真的懷疑 AI 的進(jìn)步與減少溫室氣體排放以及減緩氣候變化,孰重孰輕?是否真的可以功過相抵?

最后,開發(fā) AI 的耗資如此巨大,能夠承擔(dān)得起各項(xiàng)費(fèi)用的公司與機(jī)構(gòu)實(shí)在少之又少,最終究竟應(yīng)該開發(fā)哪種模型的決定權(quán)無疑也落到了這群人的手中。

AI 模型訓(xùn)練應(yīng)該適可而止

本文并不是要否定人工智能研究的未來,只不過在訓(xùn)練 AI 模型的時(shí)候,我們需要采用更高效的方法,而且應(yīng)該做到適可而止。

隨著 AI 模型訓(xùn)練方法的效率提升,相信訓(xùn)練的成本也會下降。同時(shí),我們需要在訓(xùn)練模型的成本和使用模型的成本之間權(quán)衡取舍。例如,在 AI 模型準(zhǔn)確度到達(dá)一定高度后,每提升 1% 都需要付出巨大的精力,而實(shí)際得到的收益卻很少。不追求極致,更多地使用“適可而止”的模型,不僅可以降低碳排放量,而且也能為我們帶來更大獲益。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4820

    瀏覽量

    106276
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37201

    瀏覽量

    291548
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個(gè)AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片到AGI芯片

    復(fù)制人類智能的AI---AGI。 走向AGI的五個(gè)層次發(fā)現(xiàn)階段: ①L1,聊天機(jī)器人:具備基礎(chǔ)的對話能力,能夠理解和回應(yīng)簡單的文本輸入 ②L2,推理者:具備基本的邏輯推理能力,能夠分析復(fù)雜信息并進(jìn)行推斷
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的科學(xué)應(yīng)用

    和關(guān)聯(lián)性 AI驅(qū)動科學(xué):研究和模擬人類思維和認(rèn)識過程。 本章節(jié)作者為我們講解了第五范式,介紹了科學(xué)發(fā)現(xiàn)的一般方法和流程等。一、科學(xué)發(fā)現(xiàn)的5個(gè)范式 第一范式:產(chǎn)生于公元1000年左右的阿拉伯世界和歐洲
    發(fā)表于 09-17 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的未來:提升算力還是智力

    、浪費(fèi)資源與破壞環(huán)境 二、用小模型代替大模型 1、強(qiáng)化學(xué)習(xí) 2、指令調(diào)整 3、合成數(shù)據(jù) 三、終身學(xué)習(xí)與遷移學(xué)習(xí) 1、
    發(fā)表于 09-14 14:04

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    連接定義了神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)。 不同神經(jīng)網(wǎng)絡(luò)的DNN: 一、基于大模型AI芯片 1、Transformer 模型與引擎 1.1 Transformer
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+可期之變:從AI硬件到AI濕件

    的不同。隨著AI熱潮的興起,大腦的抽象模型已被提煉成各種的AI算法,并使用半導(dǎo)體芯片技術(shù)加以實(shí)現(xiàn)。 而大腦是一個(gè)由無數(shù)神經(jīng)元通過突觸連接而成的復(fù)雜網(wǎng)絡(luò),是極其復(fù)雜和精密的。大腦在本質(zhì)上
    發(fā)表于 09-06 19:12

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+內(nèi)容總覽

    是展望未來的AGI芯片,并探討相關(guān)的發(fā)展和倫理話題。 各章的目錄名稱如下: 第1章 大模型浪潮下,AI芯片的需求與挑戰(zhàn)免費(fèi) 第2章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu) 第3章
    發(fā)表于 09-05 15:10

    關(guān)于NanoEdge AI用于n-Class的問題求解

    ,但把模型的靜態(tài)庫加到Keil5的工程中編譯后運(yùn)行在STM32F407G-DISC1的開發(fā)板上仿真測試時(shí),我輸入的數(shù)據(jù)不管怎么變,AI模型
    發(fā)表于 08-11 06:44

    【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    創(chuàng)新、應(yīng)用創(chuàng)新、系統(tǒng)創(chuàng)新五個(gè)部分,接下來一一解讀。 算法創(chuàng)新 在深度學(xué)習(xí)AI芯片的創(chuàng)新上,書中圍繞大模型與Transformer算法的算力需求,提出了一系列架構(gòu)與方法創(chuàng)新,包括存內(nèi)計(jì)算技術(shù)、基于開源
    發(fā)表于 07-28 13:54

    如何賦能醫(yī)療AI模型應(yīng)用?

    “百模大戰(zhàn)”。不僅如此,這些通用AI模型還逐漸滲透到各個(gè)垂直行業(yè)中,其中生命科學(xué)和醫(yī)療健康行業(yè)成為了拓展速度較快的一個(gè)領(lǐng)域。從2023年2月至10月初,國內(nèi)市場上
    的頭像 發(fā)表于 05-07 09:36 ?445次閱讀
    如何賦能醫(yī)療<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>應(yīng)用?

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗(yàn)】+ 入門篇學(xué)習(xí)

    的是基礎(chǔ)篇,主要從為什么要學(xué)習(xí)AI Agent和開發(fā)AI Agent的知識儲備入手進(jìn)行介紹。作為入門AI Agent的小白還是很有必要學(xué)習(xí)的。這里將一些重要觀點(diǎn)作個(gè)歸納
    發(fā)表于 05-02 09:26

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    的自有模型移植,使首字詞生態(tài)速度比云端方案提升70%,賦能絕影多模態(tài)智能座艙強(qiáng)大的端側(cè)運(yùn)行能力,讓汽車擁有“有趣的靈魂”。 不僅如此,天璣AI開發(fā)套件已經(jīng)接入NVIDIA TAO生態(tài)
    發(fā)表于 04-13 19:52

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》----- 學(xué)習(xí)如何開發(fā)視頻應(yīng)用

    開發(fā)一個(gè)視頻內(nèi)容生成Agent。 訪問語聚AI平臺官網(wǎng) ,進(jìn)行注冊或登錄。 在平臺首頁,了解語聚AI的功能和應(yīng)用場景,特別是其支持的視頻生成相關(guān)的AI
    發(fā)表于 03-05 19:52

    霍爾電流傳感器的原邊端如何接入AI模型?

    霍爾電流傳感器的原邊端如何接入AI模型,以便AI分析問題解決問題?話題會不會太超前?現(xiàn)在正式AI風(fēng)口啊,豬都要起飛了
    發(fā)表于 03-03 15:18