chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Google發(fā)布新API,支持訓練更小更快的AI模型

獨愛72H ? 來源:雷鋒網 ? 作者:佚名 ? 2020-04-09 21:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

(文章來源:雷鋒網)
Google發(fā)布了 Quantification Aware Training(QAT)API,使開發(fā)人員可以利用量化的優(yōu)勢來訓練和部署模型AI模型。通過這個API,可以將輸入值從大集合映射到較小集合的輸出,同時,保持接近原始狀態(tài)的準確性。

新的API的目標是支持開發(fā)更小、更快、更高效的機器學習(ML)模型,這些模型非常適合在現(xiàn)有的設備上運行,例如那些計算資源非常寶貴的中小型企業(yè)環(huán)境中的設備。

通常,從較高精度到較低精度的過程有很多噪聲。因為量化把小范圍的浮點數壓縮為固定數量的信息存儲區(qū)中,這導致信息損失,類似于將小數值表示為整數時的舍入誤差(例如,在范圍[2.0,2.3]中的所有值都可以在相同的存儲中表示。)。問題在于,當在多個計算中使用有損數時,精度損失就會累積,這就需要為下一次計算重新標度。

谷歌新發(fā)布的QAT API通過在AI模型訓練過程中模擬低精度計算來解決此問題。在整個訓練過程中,將量化誤差作為噪聲引入,QAT API的算法會嘗試將誤差最小化,以便它學習這個過程中的變量,讓量化有更強的魯棒性。訓練圖是利用了將浮點對象轉換為低精度值,然后再將低精度值轉換回浮點的操作,從而確保了在計算中引入了量化損失,并確保了進一步的計算也可以模擬低精度。

谷歌在報告中給出的測試結果顯示,在開源Imagenet數據集的圖像分類模型(MobilenetV1 224)上進行測試,結果顯示未經量化的精度為71.03%,量化后的精度達到了71.06%。

Google發(fā)布新API,支持訓練更小更快的AI模型

針對相同數據集測試的另一種分類模型(Nasnet-Mobile)中測試,在量化后僅有1%的精度損失(74%至73%)。除了模擬精度降低的計算外,QAT API還負責記錄必要的統(tǒng)計信息,以量化訓練整個模型或模型的一部分。比如,這可以使開發(fā)人員能夠通過調用模型訓練API將模型轉換為量化的TensorFlow Lite模型?;蛘撸_發(fā)人員可以在模擬量化如何影響不同硬件后端的準確性的同時嘗試各種量化策略。

Google發(fā)布新API,支持訓練更小更快的AI模型

Google表示,在默認情況下,作為TensorFlow模型優(yōu)化工具包一部分的QAT API配置為與TensorFlow Lite中提供的量化執(zhí)行支持一起使用,TensorFlow Lite是Google的工具集,旨在將其TensorFlow機器學習框架上構建的模型能夠適應于移動設備,嵌入式物聯(lián)網設備?!拔覀兒芨吲d看到QAT API如何進一步使TensorFlow用戶在其支持TensorFlow Lite的產品中突破有效執(zhí)行的界限,以及它如何為研究新的量化算法和進一步開發(fā)具有不同精度特性的新硬件平臺打開大門”,Google在博客中寫道。

QAT API的正式發(fā)布是在TensorFlow Dev Summit上,也是在發(fā)布了用于訓練量子模型的機器學習框架TensorFlow Quantum之后發(fā)布。谷歌也在會議的會話中預覽了QAT API。
(責任編輯:fqj)

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6238

    瀏覽量

    109833
  • API
    API
    +關注

    關注

    2

    文章

    1932

    瀏覽量

    65543
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    ai_cube訓練模型最后部署失敗是什么原因?

    ai_cube訓練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    超低延時重構AI推理體驗!白山云發(fā)布“大模型API”產品

    白山云科技正式發(fā)布“大模型API”產品,首發(fā)上線DeepSeek-R1-0528、DeepSeek-R1-0528-Qwen3-8B、Qwen3-32B-FP8等大語言模型。基于白山全
    的頭像 發(fā)表于 07-02 17:26 ?823次閱讀
    超低延時重構<b class='flag-5'>AI</b>推理體驗!白山云<b class='flag-5'>發(fā)布</b>“大<b class='flag-5'>模型</b><b class='flag-5'>API</b>”產品

    Gemini API集成Google圖像生成模型Imagen 3

    開發(fā)者現(xiàn)在可以通過 Gemini API 訪問 Google 最先進的圖像生成模型 Imagen 3。該模型最初僅對付費用戶開放,不久后也將面向免費用戶推出。
    的頭像 發(fā)表于 05-14 16:53 ?750次閱讀

    海思SD3403邊緣計算AI數據訓練概述

    模型,將模型轉化為嵌入式AI模型,模型升級AI攝像機,進行
    發(fā)表于 04-28 11:11

    首創(chuàng)開源架構,天璣AI開發(fā)套件讓端側AI模型接入得心應手

    ,聯(lián)發(fā)科帶來了全面升級的天璣AI開發(fā)套件2.0,在模型庫規(guī)模、架構開放程度、前沿端側AI技術支持和端側LoRA訓練落地等方面均迎來全面躍遷,
    發(fā)表于 04-13 19:52

    利用RAKsmart服務器托管AI模型訓練的優(yōu)勢

    AI模型訓練需要強大的計算資源、高效的存儲和穩(wěn)定的網絡支持,這對服務器的性能提出了較高要求。而RAKsmart服務器憑借其核心優(yōu)勢,成為托管AI
    的頭像 發(fā)表于 03-18 10:08 ?419次閱讀

    Google發(fā)布最新AI模型Gemma 3

    Gemma 開放模型系列是 Google 推動實用 AI 技術普惠大眾的重要基石。上個月,Gemma 迎來了首個生日。回望過去一年,其成果斐然:全球下載量突破 1 億,社區(qū)欣欣向榮,衍生模型
    的頭像 發(fā)表于 03-18 09:51 ?1303次閱讀

    訓練好的ai模型導入cubemx不成功怎么處理?

    訓練好的ai模型導入cubemx不成功咋辦,試了好幾個模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    GPU是如何訓練AI模型

    AI模型訓練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何
    的頭像 發(fā)表于 12-19 17:54 ?1024次閱讀

    在設備上利用AI Edge Torch生成式API部署自定義大語言模型

    MediaPipe LLM Inference API 讓開發(fā)者們能夠將一些最受歡迎的 LLM 部署到設備上?,F(xiàn)在,我們很高興能進一步拓展對模型支持范圍,并讓大家部署到設備,而且具備優(yōu)秀的性能表現(xiàn)。今天
    的頭像 發(fā)表于 11-14 10:23 ?1628次閱讀
    在設備上利用<b class='flag-5'>AI</b> Edge Torch生成式<b class='flag-5'>API</b>部署自定義大語言<b class='flag-5'>模型</b>

    Google AI Edge Torch的特性詳解

    我們很高興地發(fā)布 Google AI Edge Torch,可將 PyTorch 編寫的模型直接轉換成 TFLite 格式 (.tflite),且有著優(yōu)異的
    的頭像 發(fā)表于 11-06 10:48 ?1408次閱讀
    <b class='flag-5'>Google</b> <b class='flag-5'>AI</b> Edge Torch的特性詳解

    為什么ai模型訓練要用gpu

    GPU憑借其強大的并行處理能力和高效的內存系統(tǒng),已成為AI模型訓練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?1291次閱讀

    AI模型訓練數據來源分析

    AI模型訓練數據來源廣泛且多元化,這些數據源對于構建和優(yōu)化AI模型至關重要。以下是對AI
    的頭像 發(fā)表于 10-23 15:32 ?5352次閱讀

    如何訓練自己的AI模型

    訓練自己的AI模型是一個復雜且耗時的過程,涉及多個關鍵步驟。以下是一個詳細的訓練流程: 一、明確需求和目標 首先,需要明確自己的需求和目標。不同的任務和應用領域需要不同類型的
    的頭像 發(fā)表于 10-23 15:07 ?6033次閱讀

    ai模型訓練需要什么配置

    AI模型訓練是一個復雜且資源密集的過程,它依賴于高性能的硬件配置來確保訓練的效率和效果。 一、處理器(CPU) CPU是計算機的核心部件,負責處理各種計算任務。在
    的頭像 發(fā)表于 10-17 18:10 ?5831次閱讀