chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

阿里全新AI推理方法入選ICML 2020,可減少AI對計(jì)算和內(nèi)存資源的消耗

牽手一起夢 ? 來源:C114通信網(wǎng) ? 作者:佚名 ? 2020-06-19 15:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,人工智能國際頂會ICML 2020公布了論文收錄結(jié)果,阿里巴巴7篇論文入選,是入選論文數(shù)量最多的中國科技公司。ICML是機(jī)器學(xué)習(xí)領(lǐng)域全球最具影響力的學(xué)術(shù)會議之一,今年接受率僅為21.8%。

根據(jù)ICML官方顯示,阿里7篇論文涵蓋在圖像識別、自然語言處理、搜索推薦等領(lǐng)域的研究成果,其中一篇《Boosting Deep Neural Network Efficiency with Dual-Module Inference》,提出了一種全新的AI推理方法,可大幅減少AI對計(jì)算和內(nèi)存資源的消耗,能將推理速度提升3倍。

近年來AI模型變得越來越復(fù)雜化,尤其是類似語言AI這類復(fù)雜模型,給計(jì)算、內(nèi)存資源帶來了新的挑戰(zhàn)。目前,業(yè)界通用的解決方法是采用更先進(jìn)的計(jì)算性能來運(yùn)行AI任務(wù),例如采用GPUFPGA或者NPU等異構(gòu)計(jì)算,但該方法并沒有從根源上解決問題。

阿里巴巴達(dá)摩院設(shè)計(jì)出了一種“AI雙腦思考”的方法,能讓大型神經(jīng)網(wǎng)絡(luò)像人類一樣學(xué)會“快思考”與“慢思考”,從而進(jìn)行高效且準(zhǔn)確的推理過程。

該方法被稱為“雙模推理”, 即將一個(gè)復(fù)雜任務(wù)拆分成兩個(gè)任務(wù),例如在復(fù)雜AI推理任務(wù)過程中,可以先以很小的資源運(yùn)行“小網(wǎng)絡(luò)”,同時(shí)分析哪些網(wǎng)絡(luò)的區(qū)域較為敏感,然后只對敏感區(qū)域在“大網(wǎng)絡(luò)”中運(yùn)行計(jì)算。

達(dá)摩院的科學(xué)家從理論上證明了雙模推理的可行性,且在CPU上實(shí)現(xiàn)了該方法。實(shí)際效果顯示,該方法能在保證模型精度的基礎(chǔ)上,在語言模型上減小40%的訪存,達(dá)到1.54倍-1.75倍的性能提升,同時(shí)可以在僅損耗0.5%精度基礎(chǔ)上,提升3倍的推理速度。

近年來,阿里在AI領(lǐng)域迎來了基礎(chǔ)研究與產(chǎn)業(yè)應(yīng)用成果雙爆發(fā)的階段。三年前,阿里巴巴成立了內(nèi)部研究機(jī)構(gòu)達(dá)摩院,深入AI研究前沿。據(jù)了解,阿里AI已在國際頂級技術(shù)賽事上獲得了近60項(xiàng)世界第一,500多篇論文入選國際頂會。同時(shí),阿里AI落地了多項(xiàng)重大研究成果,全面賦能各行各業(yè)。達(dá)摩院醫(yī)療AI團(tuán)隊(duì)疫情期間研發(fā)的AI診斷技術(shù),已在全球近600家醫(yī)院落地,完成50余萬例臨床診斷。

責(zé)任編輯:gt

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    280067
  • 阿里巴巴
    +關(guān)注

    關(guān)注

    7

    文章

    1638

    瀏覽量

    48246
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI推理的存儲,看好SRAM?

    電子發(fā)燒友網(wǎng)報(bào)道(文/黃晶晶)近幾年,生成式AI引領(lǐng)行業(yè)變革,AI訓(xùn)練率先崛起,帶動高帶寬內(nèi)存HBM一飛沖天。但我們知道AI推理的廣泛應(yīng)用才
    的頭像 發(fā)表于 03-03 08:51 ?1694次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>的存儲,看好SRAM?

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    資源分配的最優(yōu)策略建議,減少資源浪費(fèi),提升整體網(wǎng)絡(luò)效率。 客戶實(shí)證:AI推理引擎的精準(zhǔn)力量某大型政務(wù)云平臺遭遇核心業(yè)務(wù)運(yùn)行緩慢問題,初步
    發(fā)表于 07-16 15:29

    大家都在用什么AI軟件?有沒有好用的免費(fèi)的AI軟件推薦一下?

    大家都在用什么AI軟件?有沒有好用的免費(fèi)的AI軟件推薦一下?直接發(fā)個(gè)安裝包,謝謝。比如deepseek、Chatgpt、豆包、阿里AI、百度AI
    發(fā)表于 07-09 18:30

    大模型推理顯存和計(jì)算量估計(jì)方法研究

    方法。 一、引言 大模型推理是指在已知輸入數(shù)據(jù)的情況下,通過深度學(xué)習(xí)模型進(jìn)行預(yù)測或分類的過程。然而,大模型的推理過程對顯存和計(jì)算資源的需求較
    發(fā)表于 07-03 19:43

    Nordic收購 Neuton.AI 關(guān)于產(chǎn)品技術(shù)的分析

    生成比傳統(tǒng)框架(如 TensorFlow、PyTorch 等)小 10 倍的模型,模型體積低至個(gè)位數(shù) KB,并且推理速度更快、功耗更低。此次收購將 Neuton 的自動化 TinyML 平臺
    發(fā)表于 06-28 14:18

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    、內(nèi)存帶寬占用量大幅度降低50%,讓端側(cè)AI推理更聰明、響應(yīng)更迅速。 天璣AI開發(fā)套件2.0還首次引入基于NPU的端側(cè)LoRA訓(xùn)練,開發(fā)者在天璣NPU上進(jìn)行運(yùn)算訓(xùn)練,相比基于CPU的
    發(fā)表于 04-13 19:52

    曙光存儲全新升級AI存儲方案

    近日,曙光存儲全新升級AI存儲方案,秉持“AI加速”理念,面向AI訓(xùn)練、AI推理
    的頭像 發(fā)表于 03-31 11:27 ?497次閱讀

    適用于數(shù)據(jù)中心和AI時(shí)代的800G網(wǎng)絡(luò)

    數(shù)據(jù)中心依賴數(shù)千甚至上萬個(gè)GPU集群進(jìn)行高性能計(jì)算,對帶寬、延遲和數(shù)據(jù)交換效率提出極高要求。 AI云:以生成式AI為核心的云平臺,為多租戶環(huán)境提供推理服務(wù)。這類數(shù)據(jù)中心要求網(wǎng)絡(luò)具
    發(fā)表于 03-25 17:35

    Banana Pi 發(fā)布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計(jì)算與嵌入式開發(fā)

    RZ/V2N——近期在嵌入式世界2025上新發(fā)布,為 AI 計(jì)算、嵌入式系統(tǒng)及工自動化提供強(qiáng)大支持。這款全新計(jì)算平臺旨在滿足開發(fā)者和企業(yè)用戶對高性能、低功耗和靈活擴(kuò)展的需求。 [](
    發(fā)表于 03-19 17:54

    當(dāng)我問DeepSeek AI爆發(fā)時(shí)代的FPGA是否重要?答案是......

    ,以減少數(shù)據(jù)傳輸?shù)皆贫说男枨?,降低延遲和帶寬消耗。FPGA在邊緣計(jì)算中表現(xiàn)優(yōu)異,能夠?yàn)榍度胧皆O(shè)備提供高效的AI推理能力。 ? 實(shí)時(shí)應(yīng)用:在自
    發(fā)表于 02-19 13:55

    AI云端計(jì)算資源的多維度優(yōu)勢

    AI云端計(jì)算資源,作為AI技術(shù)與云計(jì)算深度融合的產(chǎn)物,在成本效益、性能優(yōu)化、數(shù)據(jù)安全、靈活擴(kuò)展以及創(chuàng)新加速等多個(gè)維度都具有顯著優(yōu)勢。下面,
    的頭像 發(fā)表于 01-07 11:11 ?489次閱讀

    阿里云開源推理大模型QwQ

    近日,阿里云通義團(tuán)隊(duì)宣布推出全新AI推理模型QwQ-32B-Preview,并同步實(shí)現(xiàn)了開源。這一舉措標(biāo)志著阿里云在
    的頭像 發(fā)表于 11-29 11:30 ?1173次閱讀

    AI云端計(jì)算資源有哪些類型

    AI云端計(jì)算資源涵蓋了從基礎(chǔ)設(shè)施到軟件服務(wù)的多個(gè)層面,為AI模型的訓(xùn)練、推理和部署提供了強(qiáng)大的支持。下面,
    的頭像 發(fā)表于 11-15 09:39 ?575次閱讀

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    計(jì)算的結(jié)合 我深刻體會到高性能計(jì)算(HPC)在AI for Science中的重要性。傳統(tǒng)的科學(xué)計(jì)算往往面臨計(jì)算量大、
    發(fā)表于 10-14 09:16

    英偉達(dá)推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1 系列開源模型一起,為全球企業(yè)的生成式 AI
    的頭像 發(fā)表于 07-25 09:48 ?1063次閱讀