LLM可以標(biāo)記人類偏好數(shù)據(jù),用于強(qiáng)化學(xué)習(xí)嗎?盡管之前有一些類似的研究,但從沒有人系統(tǒng)地對比RLHF和RLAIF的性能。今天,我們?yōu)榇蠹規(guī)硪豁桮oogle最新的研究,來看看LLM是否懂得人類的偏好。
基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)通過收集人類反饋,以強(qiáng)化學(xué)習(xí)方法訓(xùn)練LLM,可以更好地理解人類偏好。然而,這個方法有一個很大的問題:收集高質(zhì)量的人類反饋非常困難和耗時。
那有沒有更好的方法呢?
RLAIF方法
RLAIF即Reinforcement learning from AI feedback。顧名思義,RLAIF是指使用LLM來代替人類標(biāo)記偏好,基于這些標(biāo)記數(shù)據(jù)訓(xùn)練獎勵模型,然后進(jìn)行RL微調(diào)。
下圖是一個展示了RLAIF(上)和RLHF(下)的基本流程。

如圖所示,在RLAIF中,首先使用LLM來評估給定的文本和2個候選回復(fù),然后,這些由LLM生成的偏好數(shù)據(jù)被用來訓(xùn)練一個獎勵模型,這個獎勵模型用于強(qiáng)化學(xué)習(xí),以便進(jìn)一步優(yōu)化LLM。
一個LLM用于評估回復(fù)的prompt示例如下圖,遵循以下流程:
Preamble-描述任務(wù)介紹和說明
Few-shot exemplars(可選)
Sample to annotate
結(jié)束字符串

在這篇研究中,作者還探索了:
避免位置偏差: 候選回復(fù)喂給LLM的順序可能會偏向它喜歡的候選順序,尤其是在 LLM 參數(shù)較小的情況下。為了減輕位置偏差的影響,作者進(jìn)行了雙重推理和平均處理。

prompt改進(jìn): 還嘗試了使用思維鏈(CoT)推理和self-consistency等方法促進(jìn)LLM的評估。
實驗結(jié)果
作者使用PaLM 2 Extra-Small(XS)在OpenAI的過濾過的TL;DR數(shù)據(jù)集上訓(xùn)練了一個SFT模型作為baseline。
對于RLHF方法,獎勵模型在OpenAI的TL;DR人類偏好數(shù)據(jù)集上進(jìn)行訓(xùn)練。
對于RLAIF方法,使用PaLM 2 L生成AI標(biāo)記的偏好
對于強(qiáng)化學(xué)習(xí),使用A2C訓(xùn)練策略。策略和價值模型都是從SFT模型初始化的。
實驗主要有以下發(fā)現(xiàn):
在性能方面:RLAIF與RLHF有相似的表現(xiàn)。
在人類評估上,與SFT策略相比,RLAIF被偏好71%的時間,而RLHF則被偏好73%的時間。盡管RLHF略微優(yōu)于RLAIF,但這個差異在統(tǒng)計上并不顯著。

直接對比勝率:RLAIF與RLHF在被偏好的程度上是平等的,勝率都是50%。
與人工寫的摘要比較:RLAIF和RLHF生成的摘要分別在79%和80%的時間內(nèi)被更偏好,與參考摘要的差異也不具統(tǒng)計意義。
影響因素:RLAIF和RLHF策略傾向于生成比SFT策略更長的摘要,這可能是質(zhì)量提升的一個因素。
長度調(diào)整后表現(xiàn):即使控制摘要的長度,RLAIF和RLHF都依然在同樣的幅度內(nèi)優(yōu)于SFT策略。
下圖是SFT,RLHF和RLAIF策略生成的示例摘要。RLHF和RLAIF 比SFT產(chǎn)生更高質(zhì)量的摘要。

對于prompt方式,使用詳細(xì)的OpenAI preamble和CoT給出了最高的對齊性能。少樣本提示并沒有提高準(zhǔn)確性,甚至可能使它變得更糟。

Self-Consistency with CoT對性能的影響如下,用T=1采樣會導(dǎo)致與人類偏好的一致性較低。

作者還對用于評估的LLM的參數(shù)大小進(jìn)行了探索,發(fā)現(xiàn)與人類偏好的一致性隨著LLM大小的增加而增加。

總結(jié)
這項工作似乎暗示RLAIF是一個不依賴于人工標(biāo)注的、與RLHF可行的替代方案。但是,為了更好地了解這些發(fā)現(xiàn)是否能推廣到其他NLP任務(wù),還需要在更廣泛的任務(wù)范圍內(nèi)進(jìn)行實驗。
-
模型
+關(guān)注
關(guān)注
1文章
3649瀏覽量
51713 -
強(qiáng)化學(xué)習(xí)
+關(guān)注
關(guān)注
4文章
269瀏覽量
11903 -
LLM
+關(guān)注
關(guān)注
1文章
340瀏覽量
1257
原文標(biāo)題:RLAIF:一個不依賴人工的RLHF替代方案
文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
請問OTA是否一定依賴于ymodem協(xié)議?
SILABS CP2103芯片是否不依賴于我錯過的微/ picoblaze處理器?
一種不依賴于棋盤格等輔助標(biāo)定物體實現(xiàn)像素級相機(jī)和激光雷達(dá)自動標(biāo)定的方法
一個新的Ad hoc安全組密鑰管理方案
據(jù)調(diào)查64%的人表示:日常生活中不依賴物聯(lián)網(wǎng)設(shè)備
量子技術(shù)革GPS的命:不依賴衛(wèi)星就可以進(jìn)行導(dǎo)航
PHP簡單實現(xiàn)不依賴于Unix系統(tǒng)Cron的定時任務(wù)程序資料說明
INS是一種不依賴于外部信息的自主式導(dǎo)航系統(tǒng)
一個種不依賴昂貴檢測設(shè)備的偏置電流測試方法
以色列成立新研究中心,開發(fā)不依賴GPS的導(dǎo)航系統(tǒng)
智行者發(fā)布國內(nèi)首款不依賴高精地圖的高級別自動駕駛解決方案
一個種不依賴昂貴檢測設(shè)備的偏置電流測試方法
RLHF實踐中的框架使用與一些坑 (TRL, LMFlow)

RLAIF:一個不依賴人工的RLHF替代方案
評論