chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用OpenVINO和LlamaIndex構(gòu)建Agentic-RAG系統(tǒng)

英特爾物聯(lián)網(wǎng) ? 來源:英特爾物聯(lián)網(wǎng) ? 2024-10-12 09:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:楊亦誠英特爾 AI 軟件工程師

背景

RAG 系統(tǒng)的全稱是 Retrieval-augmented Generation,本質(zhì)上是 Prompt Engineering,通過在 Prompt 中注入檢索得到的外部數(shù)據(jù),可以有效地解決大語言模型在知識(shí)時(shí)效性和專業(yè)性上的不足。但同時(shí)傳統(tǒng)的 RAG 系統(tǒng)也有它的缺陷,例如靈活性較差,由于 RAG 會(huì)過分依賴于向量數(shù)據(jù)庫的檢索結(jié)果,導(dǎo)致其在解決一些復(fù)雜問題的時(shí)候,只是一味地 “搬運(yùn)” 檢索結(jié)果,無法通過推理找到更優(yōu)的解決途徑,此外隨著向量數(shù)據(jù)庫的規(guī)模增大,傳統(tǒng) RAG 也無法高效對(duì)輸入請(qǐng)求進(jìn)行分類和過濾,導(dǎo)致檢索過程猶如“大海撈針”,費(fèi)時(shí)費(fèi)力。

79c784fa-877b-11ef-b8af-92fbcf53809c.png

圖:Agentic-RAG系統(tǒng)示例

而基于 AI 智能體的 RAG 系統(tǒng)(以下簡(jiǎn)稱 Agentic-RAG )恰好可以解決傳統(tǒng) RAG 在靈活性上的不足,它通過將多個(gè)不同類別的 RAG 檢測(cè)器,以工具的形式集成在 AI 智能體中,讓 AI 智能體根據(jù)用戶的請(qǐng)求,判斷是否需要調(diào)用 RAG 搜索上下文,以及調(diào)用哪個(gè) RAG 工具進(jìn)行檢索,例如在回答一個(gè)歷史相關(guān)的問題時(shí),Agentic-RAG 就會(huì)優(yōu)先在歷史類的 RAG 檢索器中搜索答案,又或是在回答一個(gè)涉及數(shù)學(xué)計(jì)算的問題時(shí),Agentic-RAG 則不會(huì)使用 RAG,而是調(diào)用數(shù)據(jù)計(jì)算相關(guān)的工具,甚至如果 LLM 本身具備一定的數(shù)據(jù)運(yùn)算能力話,則完全不需要調(diào)用外部工具,直接輸出答案。當(dāng)然我們也可以將 RAG 和其他外部工具結(jié)合起來,協(xié)同解決更復(fù)雜的問題,如上圖所示,在這個(gè)過程中,AI智能 體會(huì)將任務(wù)拆解后,在每個(gè)步驟中分別調(diào)用不同的工具,或是 RAG 組件來輸出最終答案。接下來我們就一起看下如何利用 OpenVINO 和 LlamaIndex 工具來構(gòu)建一個(gè) Agentic-RAG 系統(tǒng)。

完整示例:

https://github.com/openvinotoolkit/openvino_notebooks/blob/latest/notebooks/llm-rag-llamaindex/llm-rag-llamaindex.ipynb

第一步模型轉(zhuǎn)換與量化

LLM 和 Embedding 模型是 RAG系統(tǒng)中必要的組件,這里我們可以通過 Optimum-intel CLI 分別把他們轉(zhuǎn)化為 OpenVINO 的 IR 格式,并進(jìn)行量化壓縮。

安裝方法:

pip install optimum[openvino]

LLM:

optimum-cli export openvino --model {llm_model_id} --task text-generation-with-past --trust-remote-code --weight-format int4 {llm_model_path}

Embedding:

pip install optimum[openvino]

第二步 模型任務(wù)初始化

目前基于 OpenVINO 的 LLM,Embedding 以及 Reranker 任務(wù)均已被集成在 LlamaIndex 框架中,開發(fā)者可以非常方便地利用導(dǎo)出的 LLM 和 Embedding 模型,將這兩類任務(wù)在 LlamaIndex 中進(jìn)行初始化。

安裝方法:

pip install llama-index llama-index-llms-openvino llama-index-embeddings-openvino

LLM:

from llama_index.llms.openvino import OpenVINOLLM


llm = OpenVINOLLM(  
  model_name=str(llm_model_path),  
  tokenizer_name=str(llm_model_path),  
  context_window=3900,  
  max_new_tokens=1000,  
  model_kwargs={"ov_config": ov_config},  
  device_map=llm_device.value,  
  completion_to_prompt=completion_to_prompt,
  )

Embedding:

from llama_index.embeddings.huggingface_openvino import OpenVINOEmbedding


embedding = OpenVINOEmbedding(folder_name=embedding_model_path, device=embedding_device.value)

第三步 構(gòu)建RAG工具

接下來我們可以利用初始化后的 LLM 以及 Embedding 組件來構(gòu)建 RAG 工具。第一步需要在 LlamaIndex 創(chuàng)建一個(gè)標(biāo)準(zhǔn)的 RAG 檢索引擎,為了方便演示,該檢索器僅使用默認(rèn)的向量相似度搜索方式進(jìn)行上下文過濾,如果想了解更完整的 RAG 搭建方法,可以參考 OpenVINO notebooks 倉庫中的另一個(gè)示例:

https://github.com/openvinotoolkit/openvino_notebooks/tree/latest/notebooks/llm-rag-llamaindex

from llama_index.readers.file import PyMuPDFReader
from llama_index.core import VectorStoreIndex, Settings
from llama_index.core.tools import FunctionTool


Settings.embed_model = embedding
Settings.llm = llm
loader = PyMuPDFReader()
documents = loader.load(file_path=text_example_en_path)
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine(similarity_top_k=2)

在完成 RAG 檢索引擎創(chuàng)建后,可以直接調(diào)用 LlamaIndex 的接口將它包裝為一個(gè) Agent 的工具,如下所示,同時(shí)需要添加對(duì)該工具的描述,以便 LLM 判斷在什么時(shí)候調(diào)用什么工具。

from llama_index.core.tools import QueryEngineTool


budget_tool = QueryEngineTool.from_defaults(  
  query_engine,  
  name="Xeon6",  
  description="A RAG engine with some basic facts about Intel Xeon 6 processors with E-cores",
)

此外,為了演示 Agentic-RAG 對(duì)于復(fù)雜任務(wù)的拆解與多工具間的路由能力,我們還可以再準(zhǔn)備兩個(gè)單獨(dú)的數(shù)學(xué)運(yùn)算工具,供 LLM 選擇。

def multiply(a: float, b: float) -> float:  
  """Multiply two numbers and returns the product"""  
  return a * b


multiply_tool = FunctionTool.from_defaults(fn=multiply)


def add(a: float, b: float) -> float:  
  """Add two numbers and returns the sum"""  
  return a + b


add_tool = FunctionTool.from_defaults(fn=add)

第四步 構(gòu)建 Agent 任務(wù)流水線

因?yàn)樵撌纠杏玫降?Llama3 還不支持 Function-call,所以這里我們可以創(chuàng)建了一個(gè)基于 ReAct 的 Agent 。在 LlamaIndex中搭建 Agent 流水線只需要一行代碼,通過 ReAct Agent.from_tools 接口可以創(chuàng)建一個(gè)基礎(chǔ)的 ReAct Agent ,并將剛才定義好的工具及 LLM 組件綁定到該 Agent 中。

agent = ReActAgent.from_tools([multiply_tool, add_tool, budget_tool], llm=llm, verbose=True)

接下來可以測(cè)試下效果,我們向 Agent 咨詢了關(guān)于“4顆第六代 Xeon CPU 最大線程數(shù)“的問題,可以看到 Agent 首先會(huì)調(diào)用 Xeon 6 的 RAG 系統(tǒng)查詢單顆 CPU 支持的最大線程數(shù),然后再調(diào)用數(shù)學(xué)運(yùn)算工具將獲得的線程數(shù)乘以4,最后將得到的數(shù)字反饋給用戶。

response = agent.chat("What's the maximum number of cores in an Intel Xeon 6 processor server with 4 sockets ? Go step by step, using a tool to do any math.")

Thought: The current language of the user is English. I need to use a tool to help me answer the question.

Action: Xeon6

Action Input: {'input': 'maximum cores in a single socket'}

Observation:

According to the provided context information, the maximum cores in a single socket is 144.

Thought: The current language of the user is English. I need to use a tool to help me answer the question.

Action: multiply

Action Input: {'a': 144, 'b': 4}

Observation: 576

Thought: The current language of the user is English. I can answer without using any more tools. I'll use the user's language to answer

Answer: The maximum number of cores in an Intel Xeon 6 processor server with 4 sockets is 576.

總結(jié)和展望

通過將 Agent 和 RAG 進(jìn)行結(jié)合,我們直接提升 LLM 在解決復(fù)雜任務(wù)時(shí)的能力,相較于傳統(tǒng)的 RAG,Agentic-RAG 更具產(chǎn)業(yè)落地價(jià)值。同時(shí)隨著多智能體方法的引入,基于 Agent 的 RAG 將逐步取代傳統(tǒng) RAG 系統(tǒng),實(shí)現(xiàn)更靈活,更精確的大語言模型應(yīng)用業(yè)務(wù)體系。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301411
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52111
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    476

    瀏覽量

    11605
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    118

    瀏覽量

    768

原文標(biāo)題:使用 OpenVINO? 和 LlamaIndex 構(gòu)建 Agentic-RAG 系統(tǒng)|開發(fā)者實(shí)戰(zhàn)

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于OpenVINO和LangChain構(gòu)建RAG問答系統(tǒng)

    隨著生成式 AI 的興起,和大語言模型對(duì)話聊天的應(yīng)用變得非常熱門,但這類應(yīng)用往往只能簡(jiǎn)單地和你“聊聊家?!?,并不能針對(duì)某些特定的行業(yè),給出非常專業(yè)和精準(zhǔn)的答案。這也是由于大語言模型(以下簡(jiǎn)稱 LLM)在時(shí)效性和專業(yè)性上的局限所導(dǎo)致,現(xiàn)在市面上大部分開源的 LLM 幾乎都只是使用某一個(gè)時(shí)間點(diǎn)前的公開數(shù)據(jù)進(jìn)行訓(xùn)練,因此它無法學(xué)習(xí)到這個(gè)時(shí)間點(diǎn)之后的知識(shí),并且也無法保證在專業(yè)領(lǐng)域上知識(shí)的準(zhǔn)確性。那有沒有辦法讓你的模型學(xué)習(xí)到新的知識(shí)呢?
    的頭像 發(fā)表于 12-25 11:10 ?1940次閱讀
    基于<b class='flag-5'>OpenVINO</b>和LangChain<b class='flag-5'>構(gòu)建</b><b class='flag-5'>RAG</b>問答<b class='flag-5'>系統(tǒng)</b>

    利用OpenVINOLlamaIndex工具構(gòu)建多模態(tài)RAG應(yīng)用

    文本內(nèi)容構(gòu)建 RAG 流水線已經(jīng)相對(duì)成熟。然而為視頻內(nèi)容構(gòu)建 RAG 流水線則困難得多。由于視頻結(jié)合了圖像,音頻和文本元素,因此需要更多和更復(fù)雜的數(shù)據(jù)處理能力。本文將介紹如何利用
    的頭像 發(fā)表于 02-21 10:18 ?3383次閱讀
    利用<b class='flag-5'>OpenVINO</b>和<b class='flag-5'>LlamaIndex</b>工具<b class='flag-5'>構(gòu)建</b>多模態(tài)<b class='flag-5'>RAG</b>應(yīng)用

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+第一章初體驗(yàn)

    的deepseek,讓美股暴跌17%,讓美國的星際之門計(jì)劃直接流產(chǎn)了,想笑出聲。 《基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化》一書從理論到實(shí)踐,系統(tǒng)性地介紹了如何結(jié)合大模型與RAG技術(shù)構(gòu)建高效
    發(fā)表于 02-07 10:42

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】RAG基本概念

    RAG應(yīng)用架構(gòu)具備清晰的分層設(shè)計(jì)。知識(shí)庫構(gòu)建層,著重于將各類非結(jié)構(gòu)化數(shù)據(jù)進(jìn)行有效處理,轉(zhuǎn)化為計(jì)算機(jī)能夠理解的形式,通過向量化編碼技術(shù)為數(shù)據(jù)賦予數(shù)字特征,并建立動(dòng)態(tài)索引以便快速查詢更新。檢索增強(qiáng)層,采用
    發(fā)表于 02-08 00:22

    為什么無法在RedHat中構(gòu)建OpenVINO? 2022.2?

    嘗試使用 RedHat* (UBI 9) 構(gòu)建OpenVINO? 2022.2 在 CMAKE 操作過程中遇到錯(cuò)誤
    發(fā)表于 03-05 08:25

    無法使用Raspberry與Ubuntu 20.04構(gòu)建OpenVINO?怎么辦?

    ie_wheel -j8 7 安裝 車輪構(gòu)建:cd Openvino pip3 安裝 -r src/bindings/python/wheel/requirements.txt 編譯 再次使用命令:進(jìn)行ie_wheel
    發(fā)表于 03-06 06:42

    為什么無法從源代碼推斷OpenVINO?構(gòu)建中的VPU?

    為什么無法從源代碼推斷OpenVINO?構(gòu)建中的 VPU
    發(fā)表于 03-06 07:12

    如何為Raspbian Bullseye構(gòu)建開源OpenVINO??

    為 Raspbian* Bullseye 構(gòu)建開源OpenVINO? 的變通方法步驟
    發(fā)表于 03-07 07:07

    《AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識(shí)庫

    系統(tǒng)整體性能。在實(shí)際應(yīng)用中,還需要考慮文檔更新的增量處理、查詢結(jié)果的質(zhì)量評(píng)估、系統(tǒng)可擴(kuò)展性等問題。這些工程實(shí)踐的經(jīng)驗(yàn)對(duì)于構(gòu)建高性能的RAG應(yīng)用系統(tǒng)
    發(fā)表于 03-07 19:49

    使用 llm-agent-rag-llamaindex 筆記本時(shí)收到的 NPU 錯(cuò)誤怎么解決?

    使用 conda create -n ov-nb-demos python=3.11 創(chuàng)建運(yùn)行 llm-agent-rag-llamaindex notebook 的環(huán)境。 執(zhí)行“創(chuàng)建
    發(fā)表于 06-23 06:26

    從源代碼構(gòu)建OpenVINO工具套件時(shí)報(bào)錯(cuò)怎么解決?

    從源退貨開始構(gòu)建OpenVINO?工具套件錯(cuò)誤: Could not find a package configuration file provided by \"ade\"
    發(fā)表于 08-15 06:45

    在Raspberry Pi上從源代碼構(gòu)建OpenVINO 2021.3收到錯(cuò)誤怎么解決?

    在 Raspberry Pi 上從源代碼構(gòu)建 OpenVINO?2021.3。 運(yùn)行OpenVINO?推理,并收到錯(cuò)誤消息: ModuleNotFoundError:沒有
    發(fā)表于 08-15 08:24

    如何使用交叉編譯方法為Raspbian 32位操作系統(tǒng)構(gòu)建OpenVINO工具套件的開源分發(fā)

    提供如何使用交叉編譯方法為 Raspbian* 32 位操作系統(tǒng)構(gòu)建 OpenVINO? 工具套件的開源分發(fā)。 單擊主題上的 了解詳細(xì)信息: 系統(tǒng)要求注意本指南假定您的 Raspber
    發(fā)表于 08-15 06:28

    如何使用Python包裝器正確構(gòu)建OpenVINO工具套件

    構(gòu)建該工具套件。 如果您未明確指定 Python 版本,CMake 會(huì)選擇系統(tǒng)級(jí) Python 版本(2.7),而且您的 Python 腳本將不起作用。 注意以下說明假定您已安裝了 Python
    發(fā)表于 08-15 07:13

    什么是LlamaIndexLlamaIndex數(shù)據(jù)框架的特點(diǎn)和功能

    LlamaIndex是一個(gè)數(shù)據(jù)框架,用于讓基于LLM的應(yīng)用程序攝取、結(jié)構(gòu)化和訪問私有或領(lǐng)域特定的數(shù)據(jù)。它提供Python和Typescript版本。
    的頭像 發(fā)表于 01-05 11:08 ?1.2w次閱讀
    什么是<b class='flag-5'>LlamaIndex</b>?<b class='flag-5'>LlamaIndex</b>數(shù)據(jù)框架的特點(diǎn)和功能