chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

穿過幻覺荒野,大模型RAG越野賽

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2025-01-28 14:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgZO2eYdsOAClSbAAm48a8Dapo467.jpg

2025年初,大模型賽場熱度不減,有拼成本優(yōu)勢,拼Tokens調(diào)用量的短跑賽;有比慢思考,比大模型推理能力的長跑賽。但在觀看這些“經(jīng)典賽事”的同時(shí),我們還需要注意另一場正在舉行中,并且對大模型行業(yè)未來至關(guān)重要的比賽——RAG越野賽。

所謂RAG,是指Retrieval-Augmented Generation檢索增強(qiáng)生成。顧名思義,RAG是將大語言模型的生成能力與搜索引擎的信息檢索能力進(jìn)行結(jié)合,這已經(jīng)成為目前主流大模型的標(biāo)配。

之所以說RAG是一場越野賽,是因?yàn)榇竽P妥畋蝗速|(zhì)疑的問題,就是生成內(nèi)容時(shí)經(jīng)常會出現(xiàn)有明顯訛誤的大模型幻覺。這些幻覺就像崇山峻嶺,遮擋了大模型的進(jìn)化之路。

而RAG的戰(zhàn)略價(jià)值,就在于它是克服大模型幻覺的核心方案。換言之,誰能贏得RAG越野賽,誰就能解決大模型的核心痛點(diǎn),將AI帶到下一個時(shí)代。

讓我們進(jìn)入大模型RAG的賽道,看看這場越野將把AI帶向何方。

wKgZO2eYdsSABPYqAAI-dQPcEXI563.jpg

讓我們先把時(shí)針調(diào)回到你第一次接觸大語言模型的時(shí)候。初次嘗試與大模型聊天,驚艷之外,是不是感覺好像有哪里不對?

這種不適感,很可能來自大模型的三個問題:

1.胡言亂語。對話過程中,我們經(jīng)常會發(fā)現(xiàn)大模型說一些明顯不符合常識的話,比如“林黛玉的哥哥是林沖”“魯智深是法國文學(xué)家”之類的。這就是LLM模型的運(yùn)行原理,導(dǎo)致其在內(nèi)容生成過程中會為了生成而生成,不管信息正確與否。這也就是廣受詬病的大模型幻覺。業(yè)內(nèi)普遍認(rèn)為,幻覺不除,大模型就始終是玩具而非工具。

2.信息落后。大模型還有一個問題,就是知識庫更新較慢,從而導(dǎo)致如果我們問近期發(fā)生的新聞與實(shí)時(shí)熱點(diǎn)它都無法回答。但問題在于,我們工作生活中的主要問題都具有時(shí)效性,這導(dǎo)致大模型的實(shí)用價(jià)值大打折扣。

3.缺乏根據(jù)。另一種情況是,大模型給出了回答,但我們無法判斷這些回答的真?zhèn)魏涂煽啃?。畢竟我們知道有大模型幻覺的存在,進(jìn)而會對AGIC產(chǎn)生疑慮。我們更希望能夠讓大模型像論文一樣標(biāo)注每條信息的來源,從而降低辨別成本。

這些問題可以被統(tǒng)稱為“幻覺荒野”。而想要穿越這片荒野,最佳途徑就是將大模型的理解、生成能力,與搜索引擎的信息檢索融合在一起。

因?yàn)樾畔z索能夠給大模型提供具有時(shí)效性的信息,并且指明每條信息的來源。在檢索帶來的信息庫加持下,大模型也可以不再“胡言亂語”。

檢索是方法,生成是目的,通過高質(zhì)量的檢索系統(tǒng),大模型有望克服幻覺這個最大挑戰(zhàn)。

于是,RAG技術(shù)應(yīng)運(yùn)而生。

wKgZO2eYdsSANADTAAHx4SYgNEY985.jpg

在RAG賽道上,檢索的優(yōu)劣將很大程度上影響生成模型最終生成結(jié)果的優(yōu)劣。比如說,百度在中文搜索領(lǐng)域的積累,帶來了語料、語義理解、知識圖譜等方面的積淀。這些積淀有助于提升中文RAG的質(zhì)量,從而讓RAG技術(shù)更快在中文大模型中落地。在搜索引擎領(lǐng)域,百度構(gòu)建了龐大的知識庫與實(shí)時(shí)數(shù)據(jù)體系,在眾多需要專業(yè)檢索的垂直領(lǐng)域進(jìn)行了重點(diǎn)布局。

其實(shí),把搜索領(lǐng)域的積累,第一時(shí)間帶到大模型領(lǐng)域,這一點(diǎn)并不容易。因?yàn)槲覀兌贾溃嫦蛉祟惖乃阉鹘Y(jié)果并不適合大模型來閱讀理解。想要實(shí)現(xiàn)高質(zhì)量的RAG,就需要尋找能夠高效支持搜索業(yè)務(wù)場景和大模型生成場景的架構(gòu)解決方案。

wKgZPGeYdsWAXRTcAALi0gt4N3o472.jpg

百度早在2023年3月發(fā)布文心一言時(shí)就提出了檢索增強(qiáng),大模型發(fā)展到今天,檢索增強(qiáng)也早成為業(yè)界共識。百度檢索增強(qiáng)融合了大模型能力和搜索系統(tǒng),構(gòu)建了“理解-檢索-生成”的協(xié)同優(yōu)化技術(shù),提升了模型技術(shù)及應(yīng)用效果。通俗來看,理解階段,基于大模型理解用戶需求,對知識點(diǎn)進(jìn)行拆解;檢索階段,面向大模型進(jìn)行搜索排序優(yōu)化,并將搜索返回的異構(gòu)信息統(tǒng)一表示,送給大模型;生成階段,綜合不同來源的信息做出判斷,并基于大模型邏輯推理能力,解決信息沖突等問題,從而生成準(zhǔn)確率高、時(shí)效性好的答案。

就這樣,RAG成為百度文心大模型的核心差異化技術(shù)路徑??梢哉f,檢索增強(qiáng)成為文心大模型的一張名片。

讓我們隨便問個問題,測測

如今,基本主流大模型都會提供RAG體驗(yàn),比如告知用戶模型調(diào)用了多少個網(wǎng)頁,檢索信息的出處在哪里等。但RAG這場越野賽依舊有著鮮明的身位差距,想要知道這個排位方法也非常簡單,隨便問各款大模型一個相同的問題就可以。

比如說,春節(jié)將至,逛廟會是北京春節(jié)必不可少的一部分。但北京春節(jié)廟會眾多,小伙伴們肯定會想知道哪個廟會更適合自己,以及他們的營業(yè)時(shí)間是怎么樣的。

于是,我把“北京春節(jié)廟會哪個更推薦?它們的營業(yè)時(shí)間是什么?”分別提問給百度文心一言、豆包、Kimi、DeepSeek等。在這里,文心一言我們使用的是付費(fèi)版,文心大模型4.0 Turbo。

文心一言的答案是這樣的,首先它結(jié)合檢索到的信息,推薦了數(shù)十個北京的春節(jié)廟會,并且列出了每個廟會的地點(diǎn)、時(shí)間等信息。

wKgZO2eYdsWAfRJsAAHHUJQ1MYE296.jpg

wKgZPGeYdsWAEJ_6AAFZTl5NAU0333.jpg

wKgZO2eYdsWAIMoeAAINGyXGG3Y416.jpg

wKgZPGeYdsaAcdhKAAF3B1ODOXc385.jpg

但到這里還沒有結(jié)束,接下來文心一言還進(jìn)行了總結(jié)。

wKgZO2eYdsaAW2n1AAH8uS3-DhY274.jpg

wKgZPGeYdsaAL9WyAAMKB2UfBoA519.jpg

可以看到,文心一言理解了我“最推薦”的提問,給出眾多選項(xiàng)的同時(shí),還主要推薦了東岳廟廟會、地壇廟會、娘娘廟廟會、石景山游樂園廟會,并且給出了相應(yīng)的推薦理由,做到了在信息全面化與推薦個性化之間達(dá)成平衡。

同樣的問題給到豆包,則會發(fā)現(xiàn)它的回答也非常不錯,但內(nèi)容完整度上有所欠缺。

wKgZO2eYdsaAOF2GAAIk07NPKXY438.jpg

豆包的答案,是按照每類愛好者應(yīng)該去哪個廟會進(jìn)行分類,總共給出了7個廟會的信息。但需要注意的是,一方面豆包的答案在廟會數(shù)量和對每個廟會特色的介紹上都不夠詳盡。另外豆包沒有進(jìn)行總結(jié),并不符合問題中“哪個最推薦”的訴求。

同樣的問題給Kimi則是另一種景象。

wKgZPGeYdseAIJRLAAJps6J4ThE174.jpg

不知道為什么,Kimi的答案里只回答了廠甸廟會一個答案,完全沒有提及其他廟會。這樣確實(shí)符合“最推薦”的需求,但未免過分片面和武斷,沒有讓用戶完整了解北京春節(jié)廟會的信息。

同樣的問題來問最近火熱的DeepSeek R1大模型,會發(fā)現(xiàn)它也能進(jìn)行RAG深度聯(lián)網(wǎng)檢索,并且給出了思考過程,最終給出了10個廟會的推薦信息。

wKgZO2eYdseAbeBlAANocnQ01pI425.jpg

wKgZPGeYdseAUtAeAAEX6E68I3Y164.jpg

唯一稍顯不足的是,其最終也是只給出了幾個廟會的基本情況,沒有呼應(yīng)“最推薦”哪個廟會的提問,并且其思考過程稍顯冗長,閱讀體驗(yàn)也有待提升。

從中不難看出,在“今年春節(jié)去哪個廟會”這樣非常具有時(shí)效性與實(shí)用性的問答上,幾家大模型回答得都還可以,但還是有差異的。這背后就是RAG技術(shù)能力的差異。

單看RAG能力,文心一言在檢索增強(qiáng),尤其是上面這類問答類需求上更顯優(yōu)勢,另外我們也能看到,文心一言在結(jié)果呈現(xiàn)上調(diào)用了表格工具來結(jié)構(gòu)化呈現(xiàn)結(jié)果。整體來說,在深度思考和工具調(diào)用上,文心一言表現(xiàn)不錯。

不難看出,檢索增強(qiáng)對大模型實(shí)用性和體驗(yàn)感有著非常重要的影響。

wKgZO2eYdsiAXivoAAJTzIXvvw4463.jpg

RAG越野賽的持續(xù),或許將會給整個數(shù)字世界帶來新的驚喜。

比如說,RAG可能是——

1.搜索引擎的新引擎。讓大模型理解信息檢索,也將反向帶給搜索引擎與全新發(fā)展動力,用戶的模糊性搜索、提問性搜索、多模態(tài)搜索將被更好滿足。

2.大語言模型的新支點(diǎn)。大模型不僅要生成內(nèi)容,更要生成可信、可靠、即時(shí)的內(nèi)容,想要實(shí)現(xiàn)這些目標(biāo),RAG是已經(jīng)得到驗(yàn)證的核心方向。

3.通往未來的一張船票。預(yù)訓(xùn)練大模型只是故事的起點(diǎn),而故事的高潮則在于創(chuàng)造AI原生應(yīng)用的無盡可能性。理解、生成、檢索這些數(shù)智核心能力的相遇與融合,或許才能真正揭示出AI原生應(yīng)用的底層邏輯與未來形態(tài)。

基礎(chǔ)模型本身是需要靠應(yīng)用才能顯現(xiàn)出來價(jià)值。這個時(shí)代無數(shù)人在好奇,AI原生應(yīng)用的核心載體應(yīng)該是什么?

或許,理解、檢索與生成的結(jié)合就是方向。

又或許,RAG越野賽的盡頭就是答案。

wKgZO2eYdsiAOFYtAAIHOMGMcWg384.jpg

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    38010

    瀏覽量

    295995
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3435

    瀏覽量

    4958
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    openDACS 2025 開源EDA與芯片項(xiàng) 題七:基于大模型的生成式原理圖設(shè)計(jì)

    領(lǐng)域,對促進(jìn)產(chǎn)業(yè)高質(zhì)量發(fā)展具有重要意義。本項(xiàng)包含7道題,下面是題七 基于大模型的生成式原理圖設(shè)計(jì)的介紹。 2. 命題單位及題Chai
    發(fā)表于 11-13 11:49

    RAG實(shí)踐:一文掌握大模型RAG過程

    RAG(Retrieval-Augmented Generation,檢索增強(qiáng)生成), 一種AI框架,將傳統(tǒng)的信息檢索系統(tǒng)(例如數(shù)據(jù)庫)的優(yōu)勢與生成式大語言模型(LLM)的功能結(jié)合在一起。不再
    的頭像 發(fā)表于 10-27 18:23 ?1128次閱讀
    <b class='flag-5'>RAG</b>實(shí)踐:一文掌握大<b class='flag-5'>模型</b><b class='flag-5'>RAG</b>過程

    全新坦克400智享版搭載禾科技激光雷達(dá)

    2025 年 10 月 21 日,主題為“潮酷越野新時(shí)代”的全新坦克 400 預(yù)售發(fā)布會成功舉行,長城汽車推出全新坦克 400 Hi4-Z 智享版和全新坦克 400 Hi4-T 智享版,標(biāo)配禾
    的頭像 發(fā)表于 10-23 16:56 ?558次閱讀

    使用 llm-agent-rag-llamaindex 筆記本時(shí)收到的 NPU 錯誤怎么解決?

    使用 conda create -n ov-nb-demos python=3.11 創(chuàng)建運(yùn)行 llm-agent-rag-llamaindex notebook 的環(huán)境。 執(zhí)行“創(chuàng)建
    發(fā)表于 06-23 06:26

    《AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識庫

    應(yīng)用。第六章深入探討了RAG架構(gòu)的工作原理,該技術(shù)通過在推理過程中實(shí)時(shí)檢索和注入外部知識來增強(qiáng)模型的生成能力。RAG架構(gòu)的核心是檢索器和生成器兩大模塊,檢索器負(fù)責(zé)從知識庫中找到與當(dāng)前查詢相關(guān)的文檔片段,生成器
    發(fā)表于 03-07 19:49

    利用OpenVINO和LlamaIndex工具構(gòu)建多模態(tài)RAG應(yīng)用

    Retrieval-Augmented Generation (RAG) 系統(tǒng)可以通過從知識庫中過濾關(guān)鍵信息來優(yōu)化 LLM 任務(wù)的內(nèi)存占用及推理性能。歸功于文本解析、索引和檢索等成熟工具的應(yīng)用,為
    的頭像 發(fā)表于 02-21 10:18 ?3091次閱讀
    利用OpenVINO和LlamaIndex工具構(gòu)建多模態(tài)<b class='flag-5'>RAG</b>應(yīng)用

    【「基于大模型RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】RAG基本概念

    隨著大模型在25年初的進(jìn)一步發(fā)展,RAG應(yīng)用已成為新的一個趨勢,很榮幸有機(jī)會試讀這本<基于大模型RAG應(yīng)用開發(fā)與優(yōu)化>,書本很厚,有500多頁,誠意滿滿。 本書所闡述
    發(fā)表于 02-08 00:22

    【「基于大模型RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+第一章初體驗(yàn)

    3降低幻覺風(fēng)險(xiǎn):通過引入權(quán)威數(shù)據(jù)源(如學(xué)術(shù)論文、企業(yè)文檔),RAG為生成過程提供“事實(shí)錨點(diǎn)”,減少模型虛構(gòu)內(nèi)容的可能性。 4輕量化部署:開發(fā)者無需頻繁微調(diào)大模型,僅需優(yōu)化檢索模塊即可
    發(fā)表于 02-07 10:42

    【「基于大模型RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+Embedding技術(shù)解讀

    今天學(xué)習(xí)大模型RAG 檢索增強(qiáng)生成技術(shù)Embedding,即嵌入,是一種將離散數(shù)據(jù)(如文字、圖像、音頻等)轉(zhuǎn)換為連續(xù)的密集向量表示的技術(shù)。這些向量能夠反映原始數(shù)據(jù)之間的關(guān)系,使得計(jì)算機(jī)能夠更好地處
    發(fā)表于 01-17 19:53

    【「基于大模型RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度學(xué)習(xí)模型基礎(chǔ)上,使用新的、特定任務(wù)相關(guān)的數(shù)據(jù)
    發(fā)表于 01-14 16:51

    云服務(wù)器 Flexus X 實(shí)例:RAG 開源項(xiàng)目 FastGPT 部署,玩轉(zhuǎn)大模型

    本篇文章主要通過 Flexus 云服務(wù)器 X 實(shí)例 部署 RAG 開源項(xiàng)目 FastGPT,通過 FastGPT 可以使用大模型生成用戶需要的內(nèi)容。 Flexus 云服務(wù)器 X 實(shí)例具有柔性算力,六
    的頭像 發(fā)表于 01-08 11:49 ?1967次閱讀
    云服務(wù)器 Flexus X 實(shí)例:<b class='flag-5'>RAG</b> 開源項(xiàng)目 FastGPT 部署,玩轉(zhuǎn)大<b class='flag-5'>模型</b>

    檢索增強(qiáng)型生成(RAG)系統(tǒng)詳解

    成流暢且類似人類的文本方面表現(xiàn)出色,但它們有時(shí)在事實(shí)準(zhǔn)確性上存在困難。當(dāng)準(zhǔn)確性非常重要時(shí),這可能是一個巨大的問題。 那么,這個問題的解決方案是什么呢?答案是檢索增強(qiáng)型生成(RAG)系統(tǒng)。 RAG集成了像GPT這樣的模型的強(qiáng)大功能
    的頭像 發(fā)表于 12-24 10:44 ?1630次閱讀
    檢索增強(qiáng)型生成(<b class='flag-5'>RAG</b>)系統(tǒng)詳解

    借助浪潮信息元腦企智EPAI高效創(chuàng)建大模型RAG

    面對大量不斷迭代的新知識,大模型必須“終身學(xué)習(xí)”才能滿足實(shí)際應(yīng)用的需求。RAG(Retrieval-augmented Generation,檢索增強(qiáng)生成)讓生成式大模型能夠利用外部的知識源來增強(qiáng)
    的頭像 發(fā)表于 12-19 14:32 ?1023次閱讀
    借助浪潮信息元腦企智EPAI高效創(chuàng)建大<b class='flag-5'>模型</b><b class='flag-5'>RAG</b>

    RAG的概念及工作原理

    檢索增強(qiáng)型生成(RAG)系統(tǒng)正在重塑我們處理AI驅(qū)動信息的方式。作為架構(gòu)師,我們需要理解這些系統(tǒng)的基本原理,從而有效地發(fā)揮它們的潛力。 什么是RAG? 總體而言,RAG系統(tǒng)通過將大型語言模型
    的頭像 發(fā)表于 12-17 13:41 ?3015次閱讀
    <b class='flag-5'>RAG</b>的概念及工作原理

    名單公布!【書籍評測活動NO.52】基于大模型RAG應(yīng)用開發(fā)與優(yōu)化

    (Retrieval-Augmented Agenerated,檢索增強(qiáng)生成)與Agent(AI智能體)。本篇小棗君首先嘗試用通俗易懂的語言幫助大家認(rèn)識RAG這一重要應(yīng)用形式。 01 了解大模型的“幻覺” 在了解為什么出現(xiàn)
    發(fā)表于 12-04 10:50