作者:Sebastian Raschka
機器之心編譯
編輯:趙陽
LoRA 微調(diào)方法,隨著大模型的出現(xiàn)而走紅。
進NLP群—>加入NLP交流群
最近幾個月,ChatGPT 等一系列大語言模型(LLM)相繼出現(xiàn),隨之而來的是算力緊缺日益嚴重。雖然人人都想打造專屬于自己的大模型,但是能負擔得起上億參數(shù)模型訓(xùn)練的機構(gòu)卻寥寥無幾。在快速發(fā)展的人工智能領(lǐng)域,以高效和有效的方式使用大型語言模型正變得越來越重要。LoRA(Low-Rank Adaption,低秩自適應(yīng)) 作為微調(diào) LLMs 一種比較出圈的技術(shù),其額外引入了可訓(xùn)練的低秩分解矩陣,同時固定住預(yù)訓(xùn)練權(quán)重,從而大大減少了下游任務(wù)的可訓(xùn)練參數(shù)數(shù)量。本文中,來自 Lightning AI 首席人工智能教育家 Sebastian Raschka 將帶你了解如何以高效的方式用 LoRA 來微調(diào) LLM。下面是全文內(nèi)容。為什么要進行微調(diào)?預(yù)訓(xùn)練大語言模型通常被稱為基礎(chǔ)模型,這樣稱呼的原因是:大語言模型在各種任務(wù)中表現(xiàn)良好,可以將它們用作對目標任務(wù)進行微調(diào)的基礎(chǔ)。正如 Sebastian Raschka 在上一篇博文《Understanding Parameter-Efficient Finetuning of Large Language Models: From Prefix Tuning to LLaMA-Adapters》中所討論的,微調(diào)能夠使模型適應(yīng)目標域和目標任務(wù)。盡管如此,大模型在計算上的成本可能非常昂貴 —— 模型越大,更新其網(wǎng)絡(luò)層的成本就越高。如果不想將網(wǎng)絡(luò)中所有的層都進行更新,可以使用諸如前綴微調(diào)和適配器之類的高效調(diào)參方法。如今,有一種更流行的微調(diào)技術(shù):Hu 等人提出的低秩自適應(yīng)(LoRA)。什么是 LoRA?它是如何工作的?它與其他流行的微調(diào)方法相比如何?本文將回答所有這些問題。



其中 x 表示輸入,如下所示:



-
下載預(yù)訓(xùn)練的權(quán)重:https://github.com/Lightning-AI/lit-llama/blob/main/howto/download_weights.md
-
使用 LoRA 進行微調(diào):https://github.com/Lightning-AI/lit-llama/blob/main/howto/finetune_lora.md
-
使用適配器進行微調(diào):https://github.com/Lightning-AI/lit-llama/blob/main/howto/finetune_adapter.md(可選,用于比較研究)
下一節(jié)將比較 7B LLaMA 基礎(chǔ)模型與使用 LoRA 和 LLaMA Adapter 微調(diào)的 7B LLaMA 基礎(chǔ)模型。(請注意,需要具有至少 24 GB RAM 的 GPU)。計算性能基準本節(jié)中,作者將比較 LLaMA 7B 基礎(chǔ)模型與使用 LoRA 和 LLaMA Adapter 微調(diào)的基礎(chǔ)模型的計算性能。微調(diào)數(shù)據(jù)集是 Alpaca 52k 指令數(shù)據(jù)集,其結(jié)構(gòu)如下:
-
種子任務(wù)池,包含一組人工編寫的指令(本例中為 175 條)和樣本指令;
-
使用預(yù)訓(xùn)練的 LLM(如 GPT-3)來確定任務(wù)類別;
-
給定新指令,讓預(yù)訓(xùn)練的 LLM 生成響應(yīng)結(jié)果;
-
在將響應(yīng)結(jié)果添加到任務(wù)池之前,先收集、剪枝和篩選響應(yīng)結(jié)果。






-
語言模型
+關(guān)注
關(guān)注
0文章
561瀏覽量
10779 -
LoRa
+關(guān)注
關(guān)注
352文章
1778瀏覽量
234764 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1589瀏覽量
9056
原文標題:調(diào)教LLaMA類模型沒那么難,LoRA將模型微調(diào)縮減到幾小時
文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

【飛騰派4G版免費試用】仙女姐姐的嵌入式實驗室之五~LLaMA.cpp及3B“小模型”O(jiān)penBuddy-StableLM-3B
【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀
MEMS器件縮減模型建模方法研究
新突破!超級計算機上深度學習訓(xùn)練時間縮減到數(shù)分鐘
使用LoRA和Hugging Face高效訓(xùn)練大語言模型
iPhone都能微調(diào)大模型了嘛

一種新穎的大型語言模型知識更新微調(diào)范式

不要錯過!NVIDIA “大模型沒那么泛!”主題活動

評論