簡介
本文整理了來自Daily Dose of Data Science最熱門或最新的文章,其中極具特色的動圖以生動形象的方式,幫助我們更好的理解AI中的一些核心技術(shù),希望能夠幫助大家更好的理解和使用AI。
大模型
Transformer vs. Mixture of Experts
混合專家 (MoE) 是一種流行的架構(gòu),它使用不同的“專家”來改進(jìn) Transformer 模型。
下圖解釋了它們與 Transformers 的區(qū)別。

Transformer 使用前饋網(wǎng)絡(luò)。
MoE 使用專家,它們是前饋網(wǎng)絡(luò),但與 Transformer 中的網(wǎng)絡(luò)相比規(guī)模較小。在推理過程中,會選擇一部分專家。這使得 MoE 中的推理速度更快。
Fine-tuning LLMs
傳統(tǒng)的微調(diào)(如下圖所示)對于 LLM 來說是不可行的,因?yàn)檫@些模型具有數(shù)十億個(gè)參數(shù)并且大小為數(shù)百 GB,并且并非每個(gè)人都可以使用這樣的計(jì)算基礎(chǔ)設(shè)施。

值得慶幸的是,今天我們有許多最佳方法來微調(diào) LLM,下面描述了五種流行的技術(shù):

LoRA :添加兩個(gè)低秩矩陣 A ,以及 B包含可訓(xùn)練參數(shù)的權(quán)重矩陣。無需進(jìn)行微調(diào)W,只需調(diào)整這些低秩矩陣中的更新即可。
LoRA-FA :雖然 LoRA 顯著減少了可訓(xùn)練參數(shù)的總量,但它仍然需要大量的激活記憶來更新低秩權(quán)重。LoRA-FA(FA 代表 Frozen-A)會凍結(jié)矩陣,A并且僅更新矩陣B。
VeRA :在 LoRA 中,每一層都有一對不同的低秩矩陣A和B,并且這兩個(gè)矩陣都經(jīng)過訓(xùn)練。然而,在 VeRA 中,矩陣A和B是凍結(jié)的、隨機(jī)的,并在所有模型層之間共享。VeRA 專注于學(xué)習(xí)較小的、特定于層的縮放向量,記為b和d,它們是此設(shè)置中唯一可訓(xùn)練的參數(shù)。
Delta-LoRA :除了訓(xùn)練低秩矩陣之外,W還會對矩陣進(jìn)行調(diào)整,但不是以傳統(tǒng)方式。相反,將兩個(gè)連續(xù)訓(xùn)練步驟中低秩矩陣乘積與之間的差值(或增量)A添加B到W。
LoRA+ :在 LoRA 中,矩陣A和B都以相同的學(xué)習(xí)率更新。作者發(fā)現(xiàn),為矩陣設(shè)置更高的學(xué)習(xí)率B可以獲得更優(yōu)的收斂效果。
RAG(檢索增強(qiáng)生成)
傳統(tǒng)RAG
傳統(tǒng)RAG系統(tǒng)存在以下一些問題:

這些系統(tǒng)檢索一次,生成一次。這意味著如果檢索到的上下文不夠,LLM就無法動態(tài)搜索更多信息。
RAG 系統(tǒng)可以提供相關(guān)的上下文,但無法通過復(fù)雜的查詢進(jìn)行推理。如果查詢需要多個(gè)檢索步驟,傳統(tǒng)的 RAG 就顯得力不從心了。
適應(yīng)性較差。LLM 無法根據(jù)實(shí)際問題調(diào)整策略。
Agentic RAG
Agentic RAG 的工作流程如下:

如上所示,我們的想法是在 RAG 的每個(gè)階段引入代理行為。
我們可以把智能體想象成能夠主動思考任務(wù)的人——規(guī)劃、調(diào)整、迭代,直到找到最佳解決方案,而不僅僅是遵循既定的指令。LLM 的強(qiáng)大功能使這一切成為可能。
讓我們逐步理解這一點(diǎn):
步驟 1-2)用戶輸入查詢,代理重寫它(刪除拼寫錯(cuò)誤,簡化嵌入等)
步驟 3)另一個(gè)代理決定是否需要更多細(xì)節(jié)來回答查詢。
步驟4)如果不是,則將重寫的查詢作為提示發(fā)送給LLM。
步驟 5-8) 如果答案是肯定的,另一個(gè)代理會查看其可以訪問的相關(guān)資源(矢量數(shù)據(jù)庫、工具和 API 以及互聯(lián)網(wǎng)),并決定哪個(gè)資源有用。檢索相關(guān)上下文并將其作為提示發(fā)送給 LLM。
步驟9)以上兩條路徑中的任意一條都會產(chǎn)生響應(yīng)。
步驟 10)最后一個(gè)代理檢查答案是否與查詢和上下文相關(guān)。
步驟11)如果是,則返回響應(yīng)。
步驟 12)如果不是,則返回步驟 1。此過程持續(xù)幾次迭代,直到系統(tǒng)承認(rèn)它無法回答查詢。
這使得 RAG 更加穩(wěn)健,因?yàn)樵诿恳徊街?,代理行為都能確保個(gè)體結(jié)果與最終目標(biāo)保持一致。
Corrective RAG
Corrective RAG(CRAG)是改進(jìn) RAG 系統(tǒng)的常用技術(shù)。它引入了對檢索到的文檔進(jìn)行自我評估的步驟,有助于保留生成的響應(yīng)的相關(guān)性。
以下是其工作原理的概述:

首先根據(jù)用戶查詢搜索文檔。
使用 LLM 評估檢索到的上下文是否相關(guān)。
僅保留相關(guān)上下文。
如果需要的話,進(jìn)行網(wǎng)絡(luò)搜索。
聚合上下文并生成響應(yīng)。
RAG 的 5 種分塊策略

智能體
5種智能體設(shè)計(jì)模式
Agentic behaviors允許 LLM 通過結(jié)合自我評估、規(guī)劃和協(xié)作來改進(jìn)他們的輸出!
下圖展示了構(gòu)建 AI 代理時(shí)采用的 5 種最流行的設(shè)計(jì)模式。

反射模式
LLM會審查其工作以發(fā)現(xiàn)錯(cuò)誤并不斷迭代直到產(chǎn)生最終的響應(yīng)。
工具使用模式
工具允許 LLM 通過以下方式收集更多信息:
查詢矢量數(shù)據(jù)庫
執(zhí)行 Python 腳本
調(diào)用API等
這很有幫助,因?yàn)?LLM 不僅僅依賴于其內(nèi)部知識。
ReAct(Reason and Action)模式
ReAct 結(jié)合了以上兩種模式:
代理可以反映生成的輸出。
它可以使用工具與世界互動。
這使得它成為當(dāng)今使用最強(qiáng)大的模式之一。
規(guī)劃模式
AI 不會一次性解決請求,而是通過以下方式創(chuàng)建路線圖:
細(xì)分任務(wù)
概述目標(biāo)
這種戰(zhàn)略思維可以更有效地解決任務(wù)。
Multi-agent模式
在此設(shè)置中:
我們有幾個(gè)agent。
每個(gè)agent都被分配了專門的角色和任務(wù)。
每個(gè)agent還可以訪問工具。
所有agent共同努力以交付最終結(jié)果,同時(shí)在需要時(shí)將任務(wù)委派給其他agent。
智能體系統(tǒng)的5個(gè)等級
Agentic AI 系統(tǒng)不僅僅生成文本;它們還可以做出決策、調(diào)用函數(shù),甚至運(yùn)行自主工作流程。
該圖解釋了人工智能代理的 5 個(gè)級別——從簡單的響應(yīng)者到完全自主的代理。

基本響應(yīng)器僅生成文本
路由器模式?jīng)Q定何時(shí)采取路徑
工具調(diào)用選擇并運(yùn)行工具
多代理模式管理多個(gè)代理
自主模式完全獨(dú)立運(yùn)作
MCP
Function calling & MCP
在 MCP 成為主流(或像現(xiàn)在這樣流行)之前,大多數(shù) AI 工作流程依賴于傳統(tǒng)的函數(shù)調(diào)用。
現(xiàn)在,MCP(模型上下文協(xié)議)正在改變開發(fā)人員為代理構(gòu)建工具訪問和編排的方式。
以下是解釋函數(shù)調(diào)用和 MCP 的視覺說明:

Function calling(函數(shù)調(diào)用)
函數(shù)調(diào)用是一種機(jī)制,它允許 LLM 根據(jù)用戶的輸入識別它需要什么工具以及何時(shí)調(diào)用它。
它通常的工作方式如下:
LLM 收到來自用戶的提示。
LLM 決定其所需的工具。
程序員實(shí)現(xiàn)程序來接受來自 LLM 的工具調(diào)用請求并準(zhǔn)備函數(shù)調(diào)用。
函數(shù)調(diào)用(帶有參數(shù))被傳遞給處理實(shí)際執(zhí)行的后端服務(wù)。
MCP(模型上下文協(xié)議)
函數(shù)調(diào)用關(guān)注的是模型想要做什么,而 MCP 關(guān)注的是如何讓工具變得可發(fā)現(xiàn)和可用——尤其是跨多個(gè)代理、模型或平臺。
MCP 無需在每個(gè)應(yīng)用程序或代理中都安裝硬接線工具,而是:
標(biāo)準(zhǔn)化工具的定義、托管和向 LLM 公開的方式。
使 LLM 能夠輕松發(fā)現(xiàn)可用的工具、了解其模式并使用它們。
在調(diào)用工具之前提供批準(zhǔn)和審計(jì)工作流程。
將工具實(shí)施與消費(fèi)的關(guān)注點(diǎn)分開。
MCP & A2A
Agent2Agent (A2A) 協(xié)議讓 AI 代理可以連接到其他代理。

MCP 為代理提供訪問工具的權(quán)限。
而 A2A 允許代理與其他代理連接并以團(tuán)隊(duì)形式協(xié)作。

Next thing
在代理領(lǐng)域:
MCP 標(biāo)準(zhǔn)化了代理到工具的通信。
Agent2Agent 協(xié)議標(biāo)準(zhǔn)化了 Agent 到 Agent 的通信。
但還缺少一件東西……

AG-UI(代理-用戶交互協(xié)議)標(biāo)準(zhǔn)化了后端代理和前端 UI 之間的交互層(下圖綠色層)。

審核編輯 黃宇
-
AI
+關(guān)注
關(guān)注
89文章
38154瀏覽量
296827 -
大模型
+關(guān)注
關(guān)注
2文章
3447瀏覽量
4973
發(fā)布評論請先 登錄

圖解AI核心技術(shù):大模型、RAG、智能體、MCP
評論