chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

AI推理經(jīng)濟學的關鍵術語

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 2025-05-07 09:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

解析 AI 在生產(chǎn)環(huán)境中的部署成本,助力用戶實現(xiàn)性能優(yōu)化和盈利能力。

隨著AI模型的持續(xù)演進與應用普及,企業(yè)需要在價值最大化的目標下進行精心權衡。

這是因為推理(將數(shù)據(jù)輸入模型并獲取輸出的運算過程)面臨與模型訓練截然不同的計算挑戰(zhàn)。

預訓練模型(數(shù)據(jù)導入、token化分解及模式識別的過程)本質(zhì)上是單次的成本投入。但在推理過程中,模型的每個提示詞 (prompt)都會生成token,而每個token都會產(chǎn)生成本。

這意味著,隨著AI模型性能提升和應用規(guī)模擴大,token的生成量及其相關計算成本也會增加。對于希望構建AI能力的企業(yè)來說,關鍵在于控制計算成本的同時,以最快的速度、最高的準確性和服務質(zhì)量生成盡可能多的token。

為此,AI生態(tài)系統(tǒng)持續(xù)推動推理效率優(yōu)化與成本壓縮。得益于模型優(yōu)化技術的重大突破,過去一年中推理成本持續(xù)呈下降趨勢,催生了日益先進、高能效的加速計算基礎架構和全棧解決方案。

根據(jù)斯坦福大學“以人為本人工智能研究所 (HAI)”發(fā)布的《2025年人工智能指數(shù)報告》,“2022年11月至2024年10月期間,達到GPT-3.5水平系統(tǒng)的推理成本降幅超280倍。硬件層面的成本年降幅30%,而能效年提升率達40%。開放權重模型也在縮小與閉源模型的差距,部分基準測試中,性能差距在一年內(nèi)就從8%縮小到僅1.7%。多重趨勢共同作用下先進AI的門檻正在迅速降低。”

隨著模型持續(xù)演進引發(fā)需求及token量級增加,企業(yè)必須擴展其加速計算資源,以提供下一代AI邏輯推理工具,否則將面臨成本和能耗增加的風險。

以下是推理經(jīng)濟學概念的入門指南,幫助企業(yè)可以建立戰(zhàn)略定位,實現(xiàn)高效、高性價比且可盈利的大規(guī)模AI解決方案。

AI 推理經(jīng)濟學的關鍵術語

了解推理經(jīng)濟學的關鍵術語是理解其重要性的基礎。

詞元 (Token)是AI模型中的基本數(shù)據(jù)單位,源自訓練過程中的文本、圖像、音頻片段和視頻等數(shù)據(jù)。通過token化 (tokenization)過程,原始數(shù)據(jù)被解構成最小語義單元。在訓練過程中,模型會學習標記token之間的關系,從而執(zhí)行推理并生成準確、相關的輸出。

吞吐量 (Throughput)指的是模型在單位時間內(nèi)輸出的token量,其本身是運行模型基礎架構的一個函數(shù)。吞吐量通常以token/每秒為單位,吞吐量越高,意味著基礎架構的回報越高。

延遲(Latency)是指從輸入提示到模型開始響應所需的時間。較低的延遲意味著更快的響應。衡量延遲的兩種主要方法包括:

首 token 時延 (Time to First Token, TTFT):用戶輸入提示后,模型生成第一個輸出 token 所需的時間。

首 token 后,每個輸出 token 的時延 (Time per Output Token, TPOT):連續(xù) token 之間的平均輸出時間,也可以理解為,模型為每個用戶的查詢請求生成一個完整輸出 token 所需要的時間。它也被稱為“token 間延遲”或“token 到 token 延遲”。

TTFT和TPOT固然是重要的基準參數(shù),但它們只是眾多計算公式中的兩個部分,只關注這兩項指標仍可能導致性能衰減或成本超支。

為了考慮其他相互依賴的因素,IT領導者開始衡量“有效吞吐量(goodput)”,即在維持目標TTFT和TPOT水平的前提下,系統(tǒng)實際達成的有效吞吐量。這一指標使企業(yè)能夠以更全面的方式評估性能,保持吞吐量、延遲和成本的最優(yōu)配置,確保運營效率和優(yōu)秀的用戶體驗。

能效是衡量 AI 系統(tǒng)將電能轉(zhuǎn)化為計算輸出效率的指標,以每瓦特性能來表示。通過使用加速計算平臺,組織可以在降低能耗的同時,最大化每瓦特的 token 處理量。

擴展定律 (Scaling Law) 如何應用于推理成本

理解推理經(jīng)濟學的核心在于掌握 AI 的三大擴展定律:

-預訓練擴展 (Pretraining scaling):最初的擴展定律表明,通過提升訓練數(shù)據(jù)集規(guī)模、模型參數(shù)數(shù)量以及增加計算資源,能夠?qū)崿F(xiàn)模型智能水平和準確率的可預測性提升。

-后訓練 (Post-training):對模型的準確性和領域?qū)I(yè)性進行微調(diào),以便將其用于應用開發(fā)??梢允褂脵z索增強生成 (RAG) 等技術從企業(yè)數(shù)據(jù)庫返回更相關的答案。

-測試時擴展 (Test-time scaling,又稱“長思考”或“邏輯推理”):在推理過程中,模型會分配額外的計算資源,以評估多種可能的結(jié)果,然后得出最佳答案。

雖然AI在不斷發(fā)展,后訓練和測試時擴展技術也在持續(xù)迭代,但這并不意味著預訓練即將消失,它仍然是擴展模型的重要方法。要支持后訓練和測試時擴展,仍需要進行預訓練。

可盈利的 AI 需要全棧方案

相較于只經(jīng)過預訓練和后訓練的模型推理,采用測試時擴展的模型會生成多個token來解決復雜問題。這雖然可以顯著提升準確性和模型輸出的相關性,但計算成本也會更高。

更智能的 AI 意味著生成更多 token 來解決問題,而優(yōu)質(zhì)的用戶體驗意味著盡可能快地生成這些 token。AI 模型越智能、越快速,對公司和客戶的實用性就越大。

企業(yè)需要擴展其加速計算資源,構建能支持復雜問題求解、代碼生成和多步驟規(guī)劃的下一代 AI 邏輯推理工具,同時避免成本激增。

這需要先進的硬件和全面優(yōu)化的軟件棧。NVIDIA AI 工廠產(chǎn)品路線圖旨在滿足計算需求,幫助解決復雜的推理問題,同時實現(xiàn)更高的效率。

AI 工廠集成了高性能 AI 基礎設施、高速網(wǎng)絡和經(jīng)優(yōu)化的軟件,可大規(guī)模生產(chǎn)智能。這些組件設計靈活、可編程,使企業(yè)能夠優(yōu)先關注對其模型或推理需求更關鍵的領域。

為了進一步簡化在部署大規(guī)模 AI 邏輯推理模型時的操作,AI 工廠在高性能、低延遲的推理管理系統(tǒng)上運行,確保以盡可能低的成本滿足 AI 邏輯推理所需的速度和吞吐量,從而最大化提升 token 收入。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5431

    瀏覽量

    108270
  • AI
    AI
    +關注

    關注

    88

    文章

    37026

    瀏覽量

    290061
  • 模型
    +關注

    關注

    1

    文章

    3611

    瀏覽量

    51428

原文標題:推理經(jīng)濟學如何驅(qū)動 AI 價值最大化

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    AI推理的存儲,看好SRAM?

    電子發(fā)燒友網(wǎng)報道(文/黃晶晶)近幾年,生成式AI引領行業(yè)變革,AI訓練率先崛起,帶動高帶寬內(nèi)存HBM一飛沖天。但我們知道AI推理的廣泛應用才能推動A
    的頭像 發(fā)表于 03-03 08:51 ?2177次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>的存儲,看好SRAM?

    什么是AI模型的推理能力

    NVIDIA 的數(shù)據(jù)工廠團隊為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎,該模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的頭像 發(fā)表于 09-23 15:19 ?555次閱讀

    一文看懂AI訓練、推理與訓推一體的底層關系

    我們正在參加全球電子成就獎的評選,歡迎大家?guī)臀覀兺镀薄x謝支持很多人聽過“大模型”,但沒搞懂兩件事。我們總說AI有多強,但真正決定AI能否落地的,是它的兩個階段:訓練(Training)和推理
    的頭像 發(fā)表于 09-19 11:58 ?1161次閱讀
    一文看懂<b class='flag-5'>AI</b>訓練、<b class='flag-5'>推理</b>與訓推一體的底層關系

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    復制人類智能的AI---AGI。 走向AGI的五個層次發(fā)現(xiàn)階段: ①L1,聊天機器人:具備基礎的對話能力,能夠理解和回應簡單的文本輸入 ②L2,推理者:具備基本的邏輯推理能力,能夠分析復雜信息并進行推斷
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    主要步驟: ①溯因②假說③實驗 1、科學推理的類型 ①演繹②歸納 2、自動化科學發(fā)現(xiàn)框架 AI-笛卡兒-----自動化科學發(fā)現(xiàn)框架,利用數(shù)據(jù)和知識來生成和評估候選的科學假說。 4項規(guī)則:三、直覺
    發(fā)表于 09-17 11:45

    華為亮相2025金融AI推理應用落地與發(fā)展論壇

    近日,2025金融AI推理應用落地與發(fā)展論壇在上海舉行。中國銀聯(lián)執(zhí)行副總裁涂曉軍、華為數(shù)字金融軍團CEO曹沖出席本次論壇并發(fā)表致辭。論壇上,華為公司副總裁、數(shù)據(jù)存儲產(chǎn)品線總裁周躍峰博士發(fā)布AI
    的頭像 發(fā)表于 08-15 09:45 ?724次閱讀

    今日看點丨華為發(fā)布AI推理創(chuàng)新技術UCM;比亞迪汽車出口暴增130%

    緩存加速算法工具,分級管理推理過程中產(chǎn)生的KV Cache記憶數(shù)據(jù),可擴大推理上下文窗口,實現(xiàn)高吞吐、低時延的推理體驗,降低每Token推理成本。 ? 尤為
    發(fā)表于 08-13 09:45 ?2631次閱讀

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡智能診斷邁向 “自愈”時代

    模態(tài)的技術特性,DeepSeek正加速推動AI在金融、政務、科研及網(wǎng)絡智能化等關鍵領域的深度應用。 信而泰:AI推理引擎賦能網(wǎng)絡智能診斷新范式信而泰深度整合DeepSeek-R1大模型
    發(fā)表于 07-16 15:29

    成本控制視角下MCX插頭大小的制造經(jīng)濟學

    在MCX插頭的制造經(jīng)濟學中,尺寸選擇從來不是簡單的“越小越好”,而是性能、成本、工藝的系統(tǒng)平衡。德索精密工業(yè)以17年技術積淀,為客戶提供從0.8mm超薄型到5mm高功率型的全尺寸矩陣,用數(shù)據(jù)驅(qū)動的成本控制方案,讓每一款MCX插頭都成為性價比最優(yōu)解。
    的頭像 發(fā)表于 06-19 08:45 ?307次閱讀
    成本控制視角下MCX插頭大小的制造<b class='flag-5'>經(jīng)濟學</b>

    華為AI WAN在智算邊緣推理網(wǎng)絡中的關鍵優(yōu)勢

    WAN:智算邊緣推理網(wǎng)絡架構、實踐及產(chǎn)業(yè)進展”的演講,詳細闡述了AI WAN在智算邊緣推理網(wǎng)絡中的關鍵優(yōu)勢及其對產(chǎn)業(yè)發(fā)展的深遠意義。
    的頭像 發(fā)表于 04-09 09:53 ?676次閱讀

    淺談AI Agent的發(fā)展階段

    2025年伊始,有關AI變革潛力的討論熱度正不斷攀升。人們對AI的關注焦點正從AI工具轉(zhuǎn)向創(chuàng)建及部署AI Agent。在今年最新發(fā)布的文章中,美國數(shù)據(jù)分析與
    的頭像 發(fā)表于 02-19 09:50 ?1216次閱讀

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?1063次閱讀
    使用NVIDIA<b class='flag-5'>推理</b>平臺提高<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    生成式AI推理技術、市場與未來

    OpenAI o1、QwQ-32B-Preview、DeepSeek R1-Lite-Preview的相繼發(fā)布,預示著生成式AI研究正從預訓練轉(zhuǎn)向推理(Inference),以提升AI邏輯推理
    的頭像 發(fā)表于 01-20 11:16 ?1101次閱讀
    生成式<b class='flag-5'>AI</b><b class='flag-5'>推理</b>技術、市場與未來

    AI推理CPU當?shù)溃珹rm驅(qū)動高效引擎

    本應發(fā)揮關鍵作用,但其重要性卻常常被忽視。 ? “對于那些希望將大語言模型(LLM)集成到產(chǎn)品和服務中的企業(yè)和開發(fā)者來說,CPU 通常是首選”。Arm 中國區(qū)業(yè)務全球副總裁鄒挺在接受采訪時表示。為了適應AI推理的應用落地,CPU
    的頭像 發(fā)表于 11-13 14:34 ?3796次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>CPU當?shù)溃珹rm驅(qū)動高效引擎

    李開復:中國擅長打造經(jīng)濟實惠的AI推理引擎

    10月22日上午,零一萬物公司的創(chuàng)始人兼首席執(zhí)行官李開復在與外媒的交流中透露,其公司旗下的Yi-Lightning(閃電模型)在推理成本上已實現(xiàn)了顯著優(yōu)勢,比OpenAI的GPT-4o模型低了31倍。他強調(diào),中國擅長打造經(jīng)濟實惠的AI
    的頭像 發(fā)表于 10-22 16:54 ?962次閱讀