chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI應(yīng)用如何不被淘汰?深耕RAG與數(shù)據(jù)底座是關(guān)鍵

looger123 ? 來源:looger123 ? 作者:looger123 ? 2025-05-23 16:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

截至2025年,生成式AI大模型的能力仍在迅速提升。如果關(guān)注這個領(lǐng)域,會發(fā)現(xiàn)有不少創(chuàng)業(yè)者花大量精力打造的AI應(yīng)用,但往往很快就被新一代大模型“原生功能”所取代。

這一類應(yīng)用被歸類是Prompt(提示詞)包裝層應(yīng)用,這些應(yīng)用通過設(shè)計提示詞調(diào)用大模型基礎(chǔ)能力,但沒有構(gòu)建更深層次業(yè)務(wù)價值。因為應(yīng)用的價值主要靠大模型的原始能力,所以很容易被不斷變強的大模型取代。

如何開發(fā)出不容易被大模型“抄家”的AI應(yīng)用?

對此,英特爾技術(shù)專家認(rèn)為,大模型應(yīng)用開發(fā)不應(yīng)僅僅沿著大模型本身能力的延展,直接基于大模型開發(fā)智能體,這樣很容易隨著大模型能力的提升而被淘汰。大模型應(yīng)用開發(fā)要從大模型不擅長或無法克服的點進(jìn)行切入,如解決數(shù)據(jù)地基的問題。

目前大模型最明顯的兩個問題都與數(shù)據(jù)有關(guān)。

首當(dāng)其沖的就是幻覺。大模型本質(zhì)上是在做概率運算,輸出的內(nèi)容越多,概率偏差就越大。此外,訓(xùn)練數(shù)據(jù)質(zhì)量也會導(dǎo)致幻覺。而要在短期內(nèi)徹底消除幻覺問題,則需要根本性的技術(shù)變革為前提。

第二,是大模型的知識無法實時更新。大模型預(yù)訓(xùn)練都有固定的時間,可能是幾個月甚至是幾年之前,完全不知道新發(fā)生的事情,無法及時更新自己的知識庫。做出的回答也只能基于舊的已知內(nèi)容。

針對這兩大問題,業(yè)內(nèi)達(dá)成的共識就是基于RAG(檢索增強生成)構(gòu)建知識庫,它在預(yù)訓(xùn)練的大模型基礎(chǔ)上連接外部的數(shù)據(jù)源,所有的任務(wù)和回答的內(nèi)容上下文都從知識庫中提取,然后,由大模型做出回答。

具體操作中,企業(yè)需要把內(nèi)部的文檔資料轉(zhuǎn)化為機器能讀懂的形式。先對文檔進(jìn)行切分,然后再進(jìn)行向量化處理,最后存到向量數(shù)據(jù)庫里。當(dāng)用戶提出問題時,問題也被轉(zhuǎn)成向量,基于這些在向量數(shù)據(jù)庫里進(jìn)行檢索,最后根據(jù)檢索到的內(nèi)容生成答復(fù)。

在生成答復(fù)的時候,召回率和準(zhǔn)確率是非常關(guān)鍵的指標(biāo)。召回率看的是,在所有“真正相關(guān)”的文檔中,有多少被檢索到了。而準(zhǔn)確率Precision看的是,在所有被檢索出來的文檔中,有多少是“真正相關(guān)”的。

英特爾專家表示,當(dāng)看到這些技術(shù)細(xì)節(jié)后,就應(yīng)該意識到,大模型的效果受到太多因素或環(huán)節(jié)的影響。比如,負(fù)責(zé)把文本轉(zhuǎn)換成向量的Embedding模型的選擇,切分文檔的大小,檢索數(shù)據(jù)的處理等等都會影響最后生成的結(jié)果。

在英特爾專家看來,做大模型開發(fā),直接從智能體開始或許不是最優(yōu)選。數(shù)據(jù)基礎(chǔ)上的微小差異,最終效果可能會差出很多。換言之,如果能處理好數(shù)據(jù)本身,而不只是單純依靠大模型本身的表現(xiàn),則會創(chuàng)造更多不可替代的價值。

快速上手,在云上構(gòu)建企業(yè)級RAG開發(fā)環(huán)境

目前,國內(nèi)外多家大型企業(yè)都基于大語言模型和RAG技術(shù)構(gòu)建了企業(yè)知識庫,而且很多一線員工都非常認(rèn)可。鑒于RAG知識庫對企業(yè)非常重要,火山引擎推出了支持RAG場景的云主機鏡像。

wKgZPGgwMSKAW7uoAACD44HeLdc037.png

火山引擎在大模型服務(wù)領(lǐng)域表現(xiàn)非常亮眼。根據(jù)IDC發(fā)布的《中國公有云大模型服務(wù)市場格局分析,1Q25》報告,火山引擎在2024年中國公有云大模型調(diào)用量市場中占據(jù)了46.4%的份額,位居第一。

火山引擎不僅有火山方舟這種大模型服務(wù)平臺,還有扣子(Coze)這類低代碼AI應(yīng)用開發(fā)平臺,以及HiAgent這樣的企業(yè)專屬AI應(yīng)用創(chuàng)新平臺。新推出的RAG鏡像則是讓普通開發(fā)者以更低的門檻,開發(fā)出不容易被大模型“抄家”的AI應(yīng)用。

RAG鏡像中不僅包含Embedding(嵌入式)模塊,還有向量數(shù)據(jù)庫、Re-rank模型和7B的DeepSeek蒸餾模型,甚至還提供了數(shù)據(jù)預(yù)處理服務(wù),以及處理在線問答服務(wù)的模塊和前端頁面,而且所有軟件棧都經(jīng)過了提前優(yōu)化。

火山引擎的RAG鏡像作為面向企業(yè)的服務(wù),參考了OPEA的架構(gòu)。OPEA是英特爾在去年發(fā)起的開源社區(qū),利用開放架構(gòu)和模塊化組件的方式,幫助企業(yè)構(gòu)建可擴展的AI應(yīng)用部署基礎(chǔ)。相比普通的開源架構(gòu),火山引擎的鏡像具備更多企業(yè)級特性。

很多云廠商也提供了RAG服務(wù),這些服務(wù)對普通用戶來說門檻更低,但對于專業(yè)開發(fā)者而言,這些“黑盒”屏蔽了大量技術(shù)細(xì)節(jié)。而火山引擎的RAG鏡像作為開源方案,讓開發(fā)者能夠看到更多底層細(xì)節(jié),從多個技術(shù)維度進(jìn)行優(yōu)化,從而構(gòu)建起真正的技術(shù)壁壘。

DeepSeek爆火之后,很多企業(yè)都計劃進(jìn)行本地部署,市場上出現(xiàn)了很多一體機解決方案,一臺一體機里經(jīng)常會有8張高性能顯卡,這套方案的成本并不低,在沒有明確業(yè)務(wù)需求之前,動輒幾十萬的成本投入或許并不明智。

現(xiàn)在,用戶只需要在火山引擎上選擇好虛擬機和鏡像,就能在三分鐘內(nèi)搭建好一套開發(fā)環(huán)境,開始各種學(xué)習(xí)和實踐。為了幫助開發(fā)者提升能力,英特爾還準(zhǔn)備了一系列課程,幫助大家補齊相關(guān)知識,更輕松地邁出從0到1的第一步,打好數(shù)據(jù)基礎(chǔ)。

大模型應(yīng)用開發(fā)的三要素,硬件平臺是基礎(chǔ)

wKgZO2gwMSKAAhApAAI3AB9Ii3M769.png

英特爾專家總結(jié)了大模型應(yīng)用開發(fā)的三要素,除了剛才提到的軟件棧和配套的指導(dǎo)課程,硬件環(huán)境同樣至關(guān)重要。火山引擎基于英特爾至強處理器打造了多種云主機,最近推出的基于英特爾至強6性能核處理器的通用型實例 g4il,非常適合做大模型應(yīng)用開發(fā)。

wKgZPGgwMSOAHEoEAAJLeZey79o825.png

g4il是火山引擎的第四代通用型實例,其中 “g” 代表通用型,“4” 表示第四代,“i” 代表英特爾CPU平臺。與第三代相比,其整體性能有顯著提升,無論是在數(shù)據(jù)庫應(yīng)用、Web應(yīng)用,還是圖像渲染方面表現(xiàn)都更加出色,而在AI推理方面的優(yōu)勢更是尤為突出。

wKgZO2gwMSOAH-PrAAH5tydP9o4234.png

得益于集成AMX加速器,英特爾至強6處理器已成為目前最擅長AI推理的x86架構(gòu)處理器之一。在火山引擎的g4il實例中,用戶可以使用CPU完成AI推理。相比基于GPU的方案,它具備成本更低、資源更容易獲得的優(yōu)勢,能滿足基本需求。

基于CPU的AI推理方案特別適合用于AI應(yīng)用的開發(fā)和驗證階段。搭配前面提到的火山引擎RAG鏡像,用戶可以在云上快速搭建起一套大模型應(yīng)用的開發(fā)環(huán)境,大大降低了對硬件資源的門檻。

而到了生產(chǎn)環(huán)節(jié),通常需要采用CPU+GPU的異構(gòu)計算架構(gòu)。比如,可以使用帶有AMX的至強CPU來處理Embedding(文本嵌入)、Re-Rank、向量數(shù)據(jù)庫等輕量級AI負(fù)載,讓GPU專注于處理重型AI負(fù)載,從而提高資源利用率和整體處理能力。

wKgZPGgwMSOAOOivAAJtVTOHD_E122.png

g4il的一大亮點在于:用戶只需選擇一臺配備16 vCPU或32 vCPU的云主機,即使不使用GPU,也能運行參數(shù)量為7或14B的DeepSeek蒸餾版模型。值得一提的是,該方案還支持DeepSeek推薦的高精度計算格式BF16,進(jìn)一步提升推理質(zhì)量。

小結(jié)

在技術(shù)快速演進(jìn)的當(dāng)下,借助云平臺進(jìn)行開發(fā),既能降低試錯成本,又能加快創(chuàng)新速度,為企業(yè)和開發(fā)者提供了更靈活的選擇。更重要的是,通過精細(xì)化RAG等技術(shù)深耕數(shù)據(jù)底座,而不只是單純靠巧妙的提示詞,才能打造出不容易被大模型“抄家”的AI應(yīng)用。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10196

    瀏覽量

    174674
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35136

    瀏覽量

    279746
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3141

    瀏覽量

    4066
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗】+ 入門篇學(xué)習(xí)

    工程、RAG技術(shù)、和AI Agent是3個重要方面。其中AI Agent作為2024年最新興的技術(shù)領(lǐng)域,具備很好的應(yīng)用前景,本書對零基礎(chǔ)小白普及和應(yīng)用AI Agent有著很好的指導(dǎo)作用
    發(fā)表于 05-02 09:26

    DevEco Studio AI輔助開發(fā)工具兩大升級功能 鴻蒙應(yīng)用開發(fā)效率再提升

    帶來了前所未有的智能問答體驗。 RAG增強型與傳統(tǒng)生成式AI關(guān)鍵差異: 圖2:DeepSeek模型增強RAG能力前后效果對比圖 升級點2:新增代碼解釋功能,提升初學(xué)者開發(fā)效率 針對
    發(fā)表于 04-18 14:43

    AI Agent 應(yīng)用與項目實戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識庫

    則將檢索到的內(nèi)容與原始查詢結(jié)合,生成最終響應(yīng)。這種設(shè)計使得AI系統(tǒng)能夠突破訓(xùn)練數(shù)據(jù)的限制,實現(xiàn)知識的動態(tài)更新。書中詳細(xì)介紹了RAG的完整工作流程:從數(shù)據(jù)提取開始,通過文本分割將長文檔切
    發(fā)表于 03-07 19:49

    利用OpenVINO和LlamaIndex工具構(gòu)建多模態(tài)RAG應(yīng)用

    Retrieval-Augmented Generation (RAG) 系統(tǒng)可以通過從知識庫中過濾關(guān)鍵信息來優(yōu)化 LLM 任務(wù)的內(nèi)存占用及推理性能。歸功于文本解析、索引和檢索等成熟工具的應(yīng)用,為
    的頭像 發(fā)表于 02-21 10:18 ?2123次閱讀
    利用OpenVINO和LlamaIndex工具構(gòu)建多模態(tài)<b class='flag-5'>RAG</b>應(yīng)用

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】RAG基本概念

    RAG應(yīng)用架構(gòu)具備清晰的分層設(shè)計。知識庫構(gòu)建層,著重于將各類非結(jié)構(gòu)化數(shù)據(jù)進(jìn)行有效處理,轉(zhuǎn)化為計算機能夠理解的形式,通過向量化編碼技術(shù)為數(shù)據(jù)賦予數(shù)字特征,并建立動態(tài)索引以便快速查詢更新。檢索增強層,采用
    發(fā)表于 02-08 00:22

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+第一章初體驗

    AI系統(tǒng)開發(fā)中。 2以問題驅(qū)動技術(shù)選型:是否引入RAG取決于業(yè)務(wù)對事實性、實時性的要求,而非盲目追求技術(shù)潮流。 3重視數(shù)據(jù)質(zhì)量:RAG的效果高度依賴檢索庫的完備性與準(zhǔn)確性,需建立
    發(fā)表于 02-07 10:42

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+Embedding技術(shù)解讀

    今天學(xué)習(xí)大模型RAG 檢索增強生成技術(shù)Embedding,即嵌入,是一種將離散數(shù)據(jù)(如文字、圖像、音頻等)轉(zhuǎn)換為連續(xù)的密集向量表示的技術(shù)。這些向量能夠反映原始數(shù)據(jù)之間的關(guān)系,使得計算機能夠更好地處
    發(fā)表于 01-17 19:53

    旋轉(zhuǎn)測徑儀的底座如何保證穩(wěn)定性?

    關(guān)鍵字:旋轉(zhuǎn)測徑儀,底座材質(zhì),測徑儀底座結(jié)構(gòu),旋轉(zhuǎn)測徑儀穩(wěn)定性, 旋轉(zhuǎn)測徑儀的底座保證穩(wěn)定性是確保測量精度和儀器長期穩(wěn)定運行的關(guān)鍵。以下是一
    發(fā)表于 01-09 14:04

    檢索增強型生成(RAG)系統(tǒng)詳解

    ? 近年來,人工智能取得了巨大的飛躍,這主要歸功于大型語言模型(LLMs)。LLMs非常擅長理解和生成類似人類的文本,它們促成了多種新工具的創(chuàng)建,比如先進(jìn)的聊天機器人和AI作家。 盡管LLMs在生
    的頭像 發(fā)表于 12-24 10:44 ?1038次閱讀
    檢索增強型生成(<b class='flag-5'>RAG</b>)系統(tǒng)詳解

    RAG的概念及工作原理

    檢索增強型生成(RAG)系統(tǒng)正在重塑我們處理AI驅(qū)動信息的方式。作為架構(gòu)師,我們需要理解這些系統(tǒng)的基本原理,從而有效地發(fā)揮它們的潛力。 什么是RAG? 總體而言,RAG系統(tǒng)通過將大型語
    的頭像 發(fā)表于 12-17 13:41 ?1914次閱讀
    <b class='flag-5'>RAG</b>的概念及工作原理

    Cloudera推出RAG Studio,助力企業(yè)快速部署聊天機器人

    近日,數(shù)據(jù)、分析和AI混合平臺廠商Cloudera宣布了一項創(chuàng)新舉措——推出RAG(Retrieval-Augmented Generation,檢索增強生成)Studio。這一平臺的問世,標(biāo)志著
    的頭像 發(fā)表于 12-12 11:06 ?731次閱讀

    名單公布!【書籍評測活動NO.52】基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化

    (Retrieval-Augmented Agenerated,檢索增強生成)與Agent(AI智能體)。本篇小棗君首先嘗試用通俗易懂的語言幫助大家認(rèn)識RAG這一重要應(yīng)用形式。 01 了解大模型的“幻覺” 在了解為什么出現(xiàn)RAG
    發(fā)表于 12-04 10:50

    使用OpenVINO和LlamaIndex構(gòu)建Agentic-RAG系統(tǒng)

    RAG 系統(tǒng)的全稱是 Retrieval-augmented Generation,本質(zhì)上是 Prompt Engineering,通過在 Prompt 中注入檢索得到的外部數(shù)據(jù),可以有效地
    的頭像 發(fā)表于 10-12 09:59 ?760次閱讀
    使用OpenVINO和LlamaIndex構(gòu)建Agentic-<b class='flag-5'>RAG</b>系統(tǒng)

    英特爾軟硬件構(gòu)建模塊如何幫助優(yōu)化RAG應(yīng)用

    深入研究檢索增強生成 (Retrieval Augmented Generation, RAG),該創(chuàng)新方法定義了企業(yè)和機構(gòu)如何利用大語言模型(LLM)來發(fā)揮其數(shù)據(jù)的價值。本文將探索若干英特爾
    的頭像 發(fā)表于 07-24 15:12 ?888次閱讀
    英特爾軟硬件構(gòu)建模塊如何幫助優(yōu)化<b class='flag-5'>RAG</b>應(yīng)用