chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從ID-based到LLM-based:可遷移推薦系統(tǒng)發(fā)展

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來(lái)源:未知 ? 2023-11-12 22:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgaomVQ25GAOc1GAAQ6oOGY_2g553.png

Paper List:https://github.com/westlake-repl/Recommendation-Systems-without-Explicit-ID-Features-A-Literature-Review

wKgaomVQ25KAbYLtAAAl6LOgh3c145.png可遷移推薦系統(tǒng)發(fā)展歷程

推薦系統(tǒng)的核心目標(biāo)是通過(guò)建模用戶(hù)的歷史行為預(yù)測(cè)最有可能交互的下一個(gè)目標(biāo)。而這一目標(biāo)在用戶(hù)交互記錄較少的情況下尤為困難,即長(zhǎng)期困擾推薦系統(tǒng)領(lǐng)域發(fā)展的冷啟動(dòng)問(wèn)題。在這些新用戶(hù)很少并且其交互序列有限的新推薦系統(tǒng)場(chǎng)景中,前期的模型訓(xùn)練往往缺乏足夠的樣本數(shù)據(jù)。對(duì)有限訓(xùn)練數(shù)據(jù)的建模也必然無(wú)法獲得用戶(hù)滿(mǎn)意的推薦結(jié)果,使得平臺(tái)成長(zhǎng)受到很大阻礙。

遷移學(xué)習(xí)是學(xué)術(shù)界和工業(yè)界為了解決這一問(wèn)題所一直關(guān)注的解決方案。如果可以向新場(chǎng)景中引入預(yù)先訓(xùn)練到的知識(shí)幫助建模用戶(hù)序列或加速建模速度,這將極大緩解下游新場(chǎng)景中冷啟動(dòng)問(wèn)題帶來(lái)的巨大成本。

為此,對(duì)可遷移推薦系統(tǒng)的研究幾乎貫穿了推薦系統(tǒng)領(lǐng)域發(fā)展的每一個(gè)階段。從基于物品 ID 和用戶(hù) ID 的矩陣分解時(shí)代,可遷移推薦系統(tǒng)必須基于上下游場(chǎng)景的數(shù)據(jù)覆蓋實(shí)現(xiàn)基于 ID 的推薦系統(tǒng)遷移學(xué)習(xí)。

到近幾年模態(tài)理解技術(shù)發(fā)展迅猛,研究人員逐漸轉(zhuǎn)向利用純模態(tài)信息建模用戶(hù)序列,從而實(shí)現(xiàn)在上下游場(chǎng)景沒(méi)有數(shù)據(jù)覆蓋的情況下實(shí)現(xiàn)可遷移推薦系統(tǒng)。再到當(dāng)下利用大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型(LLM)完成 ‘one-for-all’ 的推薦系統(tǒng)大模型得到大量關(guān)注。可遷移推薦系統(tǒng)乃至推薦系統(tǒng)大模型的研究已成為推薦系統(tǒng)領(lǐng)域發(fā)展的下一個(gè)方向。

wKgaomVQ25KAIg_TAAAuhh9-KLM251.png

基于ID的可遷移推薦系統(tǒng)

第一階段是矩陣分解時(shí)代,使用 ID embedding 來(lái)建模物品的協(xié)同過(guò)濾算法是推薦系統(tǒng)的主流范式,并在之后的 15 年間主導(dǎo)了整個(gè)推薦系統(tǒng)社區(qū)。經(jīng)典架構(gòu)包括:雙塔架構(gòu)、CTR 模型、會(huì)話(huà)和序列推薦、Graph 網(wǎng)絡(luò)。他們無(wú)不采用 ID embedding 來(lái)對(duì)物品進(jìn)行建模,整個(gè)推薦系統(tǒng)現(xiàn)有的 SOTA 體系也幾乎都是采用基于 ID 特征的建模手段。

這一階段,可遷移推薦系統(tǒng)自然依靠 ID 實(shí)現(xiàn),而且必須在上下游場(chǎng)景之間有數(shù)據(jù)重疊,即要求不同數(shù)據(jù)集之間存在共同用戶(hù)或者物品,例如大公司里存在多個(gè)業(yè)務(wù)場(chǎng)景, 通過(guò)老的業(yè)務(wù)引流新的業(yè)務(wù)。這一階段的早期工作有 PeterRec [1](SIGIR2020)、Conure [2](SIGIR2021)和 CLUE [3] (ICDM2021)等。

wKgaomVQ25KARutKAAQs6Fm8hIk392.png

PeterRec 是推薦系統(tǒng)領(lǐng)域首篇論文明確提出基于自監(jiān)督預(yù)訓(xùn)練(自回歸與 Mask 語(yǔ)言模型)的用戶(hù)表征具備通用性,并清晰地呈現(xiàn)出該預(yù)訓(xùn)練的通用表征可用于跨域推薦和用戶(hù)畫(huà)像預(yù)測(cè),顯著提升性能,其中,采用用戶(hù)畫(huà)像預(yù)測(cè)評(píng)估用戶(hù)表征的通用性被后續(xù)相關(guān)論文廣泛沿用。

同時(shí),PeterRec 提出,通用型用戶(hù)模型在下游任務(wù)遷移過(guò)程,應(yīng)該做到參數(shù)有效共享(公司往往有上百種用戶(hù)畫(huà)像要預(yù)測(cè),數(shù)十個(gè)業(yè)務(wù)推薦場(chǎng)景),并引入基于 Adapter 技術(shù),也是推薦系統(tǒng)首次采用 Adapter,通過(guò)微調(diào)模型補(bǔ)丁實(shí)現(xiàn)不同任務(wù)有效遷移學(xué)習(xí)。另外,PeterRec 還發(fā)布了一套大規(guī)模的跨域推薦系統(tǒng)數(shù)據(jù)集。

wKgaomVQ25KASmR-AAHZd-i50qU618.png

Conure 是推薦系統(tǒng)領(lǐng)域首個(gè)用戶(hù)通用表征的終生學(xué)習(xí)(lifelong learning)模型,首次提出一個(gè)模型連續(xù)學(xué)習(xí)和同時(shí)服務(wù)多個(gè)不同的下游任務(wù)。作者提出的‘一人一世界’概念啟發(fā)了當(dāng)下推薦系統(tǒng) one4all 模型的研究。

wKgaomVQ25KAPEA0AAEtmV1G9yU674.png

CLUE 認(rèn)為 PeterRec 與 Conure 算法在學(xué)習(xí)用戶(hù)表征時(shí),采用自回歸或者 mask 機(jī)制都是基于物品粒度的預(yù)測(cè),而最優(yōu)的用戶(hù)表征顯然應(yīng)該是對(duì)完整的用戶(hù)序列進(jìn)行建模和訓(xùn)練,因此結(jié)合對(duì)比學(xué)習(xí),獲得了更優(yōu)的結(jié)果。

wKgaomVQ25KABf0lAAV_QF5xruw256.png

這期間有一些同時(shí)期或者 future work,包括阿里的 Star 模型(One Model to Serve All: Star Topology Adaptive Recommender for Multi-Domain CTR Prediction),以及 ShopperBERT 模型 (One4all User Representation for Recommender Systems in E-commerce)。

wKgaomVQ25KAP925AAAtJ0fTuoM601.png

基于模態(tài)信息的可遷移推薦系統(tǒng)

以上工作基于共享(用戶(hù)或者物品)ID 方式實(shí)現(xiàn)領(lǐng)域之間的遷移性和跨域推薦,比較適用于公司內(nèi)部不同業(yè)務(wù)之間, 而現(xiàn)實(shí)中不同推薦系統(tǒng)很難共享用戶(hù)與 item 的 ID 信息,使得跨平臺(tái)推薦這一類(lèi)研究具有明顯的局限性。

相比之下,深度學(xué)習(xí)的其他社區(qū),如自然語(yǔ)言處理(NLP)與計(jì)算機(jī)視覺(jué)(CV)領(lǐng)域近幾年已經(jīng)涌現(xiàn)出一系列有影響力的通用型大模型,又稱(chēng)基礎(chǔ)模型(foundation model),如 BERT、GPT、Vision Transformer 等。相比推薦系統(tǒng) ID 特征,NLP 與 CV 任務(wù)基于多模態(tài)文本與圖像像素特征,可以較好的實(shí)現(xiàn)模型在不同任務(wù)之間的復(fù)用與遷移。

替換 ID 特征、基于模態(tài)內(nèi)容實(shí)現(xiàn)不同系統(tǒng)與平臺(tái)之間的遷移是該階段的主流方向。這一階段的代表性工作有 TransRec [4]、MoRec [5](SIGIR2023)、AdapterRec [6](WSDM2024)、NineRec [7] 等。另外,同時(shí)期的工作還有人大趙鑫老師團(tuán)隊(duì) UnisRec 以及張永峰老師團(tuán)隊(duì)的 P5。

wKgaomVQ25OAHQPrAAHAOmMheS0048.png

TransRec 是首個(gè)研究混合模態(tài)遷移的推薦系統(tǒng)模型,也是首次考慮圖像像素的遷移學(xué)習(xí)模型。TransRec 采用端到端訓(xùn)練方式,而不是直接抽取離線(xiàn) item 多模態(tài)表征。

與基于 ID 的序列推薦模型比較,經(jīng)過(guò) finetune 的 TransRec 可以有效提升推薦結(jié)果。TransRec 證實(shí)了大規(guī)模數(shù)據(jù)上利用混合模態(tài)信息預(yù)訓(xùn)練可以有效學(xué)習(xí)用戶(hù)和物品的關(guān)系,并且可以遷移到下游推薦任務(wù),實(shí)現(xiàn)通用推薦,論文還研究了 scaling effect 效果,并會(huì)發(fā)布多套多模態(tài)數(shù)據(jù)集。與 TransRec 同時(shí)期的工作是人大趙鑫老師團(tuán)隊(duì) UnisRec,UnisRec 主要聚焦 text 模態(tài)。

wKgaomVQ25OAbN-7AAH-vX3gs8c675.png

wKgaomVQ25OAeE8EAAGWXQzFbZg333.png

MoRec 首次系統(tǒng)性回答了使用最先進(jìn)的模態(tài)編碼器表征物品(MoRec)是否能取代經(jīng)典的 itemID embedding 范式(DRec)這一問(wèn)題。論文基于 MoRec 與 IDRec 的公平比較展開(kāi):如果在冷熱場(chǎng)景下 MoRec 都能打敗 IDRec,那么推薦系統(tǒng)將有望迎來(lái)經(jīng)典范式的變革。這一觀(guān)點(diǎn)來(lái)自于 MoRec 完全基于物品的模態(tài)信息,此類(lèi)內(nèi)容信息天生具有遷移能力,論文通過(guò)扎實(shí)的實(shí)驗(yàn)系統(tǒng)性證明了 MoRec 有潛力實(shí)現(xiàn)通用大模型。

結(jié)論 1:對(duì)于時(shí)序推薦架構(gòu) SASRec,在常規(guī)場(chǎng)景(既有熱 item 也有一部分冷 item),MoRec 在文本上明顯優(yōu)于 IDRec,而在圖片上則和 IDRec 效果相當(dāng)。在冷啟動(dòng)場(chǎng)景,MoRec 大幅優(yōu)于 IDRec,在熱門(mén)商品推薦場(chǎng)景,MoRec 和 IDRec 效果相當(dāng)。

結(jié)論 2:MoRec 為推薦系統(tǒng)和 NLP、CV 等多模態(tài)社區(qū)建立了聯(lián)系,而且一般來(lái)說(shuō),可以很好的繼承 NLP 和 CV 領(lǐng)域的最新進(jìn)展。

結(jié)論 3:工業(yè)界流行的 Two-stage 離線(xiàn)特征提取推薦方式會(huì)導(dǎo)致 MoRec 性能顯著下降(特別是對(duì)于視覺(jué)推薦),這在實(shí)踐中不應(yīng)該被忽視。同時(shí),盡管多模態(tài)領(lǐng)域的預(yù)訓(xùn)練模型在近年來(lái)取得了革命性的成功,但其表征還沒(méi)有做到通用性和泛化性,至少對(duì)于推薦系統(tǒng)是這樣(MoRec 論文也被 Google DeepMind 團(tuán)隊(duì)邀請(qǐng)給了一個(gè) talk,Google researcher 對(duì)該工作評(píng)價(jià)非常高)。受此啟發(fā),近期已經(jīng)出現(xiàn)很多相關(guān)工作。

wKgaomVQ25OAcNZ0AAK01JDUWhM053.png

AdapterRec 首次系統(tǒng)性討論了基于模態(tài)信息的高效遷移方法。論文評(píng)估了基于適配器(Adapter)的模型補(bǔ)丁。與以往工作在下游遷移時(shí)微調(diào)全部參數(shù)不同,AdapterRec 在遷移時(shí)在模型網(wǎng)絡(luò)中插入并僅微調(diào)適配器網(wǎng)絡(luò)。論文在大規(guī)模文本、圖片模態(tài)數(shù)據(jù)上進(jìn)行了豐富的驗(yàn)證實(shí)驗(yàn)。

結(jié)果表明,基于文本、圖片模態(tài)的適配器都可以實(shí)現(xiàn)良好的遷移效果?;谖谋灸B(tài)時(shí),適配器技術(shù)可以在微調(diào)極少量參數(shù)的計(jì)算成本下實(shí)現(xiàn)與微調(diào)全部參數(shù)相近的遷移結(jié)果。AdapterRec 證實(shí)了基于適配器技術(shù)的高效遷移方法是實(shí)現(xiàn)通用推薦系統(tǒng)大模型的重要環(huán)節(jié)。

wKgaomVQ25OAfBjLAAEZgTc3Z3M291.png

NineRec 提出了迄今為止推薦系統(tǒng)領(lǐng)域規(guī)模最大最多樣的多模態(tài)遷移學(xué)習(xí)數(shù)據(jù)集。論文延續(xù) MoRec 與 IDRec 公平比較的原則,系統(tǒng)性評(píng)估了 MoRec 的遷移能力并給出詳見(jiàn)的指導(dǎo)建議與評(píng)估平臺(tái)。NineRec 提供了一套大規(guī)模預(yù)訓(xùn)練數(shù)據(jù)集和九個(gè)下游場(chǎng)景數(shù)據(jù)集,其中僅預(yù)訓(xùn)練數(shù)據(jù)集就包含 200 萬(wàn)用戶(hù)、14 萬(wàn)物品以及近 2500 萬(wàn)條交互記錄信息。

論文設(shè)計(jì)大規(guī)模實(shí)驗(yàn)評(píng)估了多種經(jīng)典推薦架構(gòu)(SASRec,BERT4Rec,NextItNet,GRU4Rec)與物品編碼器(BERT,Roberta,OPT,ResNet,Swin Transformer)的遷移表現(xiàn),并驗(yàn)證了端到端遷移(End-to-End)與兩階段遷移(Two-stage)對(duì)于遷移推薦的影響。實(shí)驗(yàn)結(jié)果表明,利用端到端訓(xùn)練技術(shù)可以極大程度上激發(fā)模態(tài)信息的潛能,僅使用經(jīng)典框架如 SASRec 即可超越近期同類(lèi)型可遷移推薦模型。

論文還驗(yàn)證了基于純模態(tài)信息的 zero-shot 遷移能力。NineRec 為基于模態(tài)的推薦系統(tǒng)遷移學(xué)習(xí)和推薦大模型發(fā)展提供了全新的平臺(tái)和基準(zhǔn)。NineRec(只有文本和圖片模態(tài))之后,團(tuán)隊(duì)聯(lián)合發(fā)布了 MicroLens [11] 數(shù)據(jù)集,是當(dāng)前最大的短視頻推薦數(shù)據(jù)集包含原始短視頻,是其他相關(guān)數(shù)據(jù)集規(guī)模的數(shù)千倍,用戶(hù)量達(dá)到 3000 萬(wàn),點(diǎn)擊行為達(dá)到 10 億,可以用于訓(xùn)練推薦系統(tǒng)大模型。NineRec 與 MicroLens 算力和數(shù)據(jù)集收集費(fèi)用都超過(guò)百萬(wàn)人民幣。

wKgaomVQ25OAG5aeAAAr2pbNr48565.png基于LLM的可遷移推薦系統(tǒng)

當(dāng)下人工智能領(lǐng)域進(jìn)入大模型時(shí)代,越來(lái)越多的通用大模型在各個(gè)領(lǐng)域被提出,極大的促進(jìn)了 AI 社區(qū)的發(fā)展。然而大模型技術(shù)在推薦系統(tǒng)領(lǐng)域應(yīng)用還處于早期階段。諸多問(wèn)題并沒(méi)有得到很好的回答,如利用大語(yǔ)言模型理解推薦任務(wù)是否能大幅超越原有的 ID 范式?是否越大規(guī)模參數(shù)的大模型網(wǎng)絡(luò)可以帶來(lái)通用推薦表征?回答這些問(wèn)題是推動(dòng)推薦系統(tǒng)社區(qū)進(jìn)入大模型時(shí)代的敲門(mén)磚,受到了越來(lái)越多科研團(tuán)隊(duì)的關(guān)注。

這里主要介紹 P5 [8] 和 GPT4Rec [9],P5 是采用 LM 作為推薦 backbone,而 GPT4Rec 則是極限地評(píng)估 1750 億的 item encoder 表能能力, 后續(xù)工作也非常多(例如基于 prompt,基于chain of thought,基于 ChatGPT 等),例如同時(shí)期的工作還有 Google 的 LLM for rating prediction [10]與 GPT4Rec 類(lèi)似,都是采用遷移模型評(píng)估性能極限,一個(gè)專(zhuān)注 top-n item 推薦,一個(gè)專(zhuān)注 rating prediction。

P5 提出了一種基于文本模態(tài)的多任務(wù)大模型框架,將多種經(jīng)典推薦任務(wù)轉(zhuǎn)化為統(tǒng)一的自然語(yǔ)言理解任務(wù),包括序列推薦、評(píng)分預(yù)測(cè)、推薦理由、摘要以及直接推薦等多種任務(wù)。模型設(shè)計(jì)上,P5 通過(guò)基于提示(prompt)的自然語(yǔ)言格式來(lái)構(gòu)建任務(wù),將這些相關(guān)的推薦任務(wù)統(tǒng)一為序列到序列(seq-to-seq)框架中進(jìn)行學(xué)習(xí)。數(shù)據(jù)方面,P5 將各種可用數(shù)據(jù),例如用戶(hù)信息、物品元數(shù)據(jù)、用戶(hù)評(píng)論以及用戶(hù)與物品的互動(dòng)數(shù)據(jù)轉(zhuǎn)化為自然語(yǔ)言序列。豐富的訓(xùn)練數(shù)據(jù)產(chǎn)生了滿(mǎn)足個(gè)性化推薦需求的語(yǔ)義信息。

wKgaomVQ25SALevaAAKvD5g62vU755.png

GPT4Rec 首次探索了使用百億規(guī)模大語(yǔ)言模型作為物品編碼器。論文提出并回答了幾個(gè)關(guān)鍵性的問(wèn)題:1)基于文本的協(xié)同過(guò)濾推薦算法(TCF)的性能隨著物品編碼器參數(shù)量不斷增加表現(xiàn)如何?是否在千億規(guī)模能達(dá)到上限?2)超大參數(shù)的 LLM,如 175B 參數(shù) GPT-3,是否能產(chǎn)生通用的 item 表征?3)基于公平比較,裝配了 175B 參數(shù)量的 LLM 的推薦系統(tǒng)算法能否打敗基于 ID 的經(jīng)典算法;4)基于 LLM 的 TCF 算法距離推薦系統(tǒng)通用大模型還有多遠(yuǎn)?

實(shí)驗(yàn)結(jié)果表明:

1. 175B 的參數(shù) LM 可能還沒(méi)有達(dá)到其性能上限,通過(guò)觀(guān)察到 LLM 的參數(shù)量從 13B 到 175B 時(shí),TCF 模型的性能還沒(méi)有收斂。這一現(xiàn)象表明將來(lái)使用更多參數(shù)的 LLM 用作文本編碼器是有帶來(lái)更高的推薦準(zhǔn)確性的潛力的;

2. 即使是由極其龐大的 LM(如 GPT-3)學(xué)習(xí)到的物品表示,也未必能形成一個(gè)通用的表征。在相應(yīng)的推薦系統(tǒng)數(shù)據(jù)集微調(diào)仍然對(duì)于獲得 SOTA 仍然是必要的,至少對(duì)文本推薦任務(wù)來(lái)說(shuō)是如此;

3. 即使采用 175B 和微調(diào)的 66B 的語(yǔ)言模型,當(dāng)使用 DSSM 作為推薦骨架時(shí),TCF 仍然很大程度的劣于 IDRec,但是對(duì)于序列推薦模型,LLM 即便采用凍住的表征,也基本可以跟 IDRec 相媲美;

4. 雖然裝配了 175B 參數(shù)量 LLM 的 TCF 模型的表現(xiàn)優(yōu)于隨機(jī)采樣的 item 的推薦,甚至達(dá)到了 6-40 倍的提升。但與在推薦數(shù)據(jù)上重新訓(xùn)練的 TCF 模型相比,它們?nèi)匀挥芯薮蟮牟罹唷?/span>另外,論文發(fā)現(xiàn):

5. ChatGPT 在典型的推薦系統(tǒng)場(chǎng)景與 TCF 相比表現(xiàn)存在較大的差距,文章猜測(cè)需要更加精細(xì)的 prompt,ChatGPT 才有可能用于某些真實(shí)推薦場(chǎng)景。

wKgaomVQ25SAeUpDAAIjsnzcfoA933.png

wKgaomVQ25SAdzCQAAAtTL4L6hI436.png總結(jié)

目前推薦系統(tǒng)社區(qū)內(nèi),基于模態(tài)內(nèi)容的大模型研究仍處于起步階段:

1. 基于傳統(tǒng)的 ID 的推薦算法難以解決模態(tài)場(chǎng)景問(wèn)題;

2. 已有的基于模態(tài)內(nèi)容的跨域推薦系統(tǒng)文獻(xiàn)通用性較低;

3. 非端到端的聯(lián)合訓(xùn)練提取的特征可能存在粒度尺度不匹配等問(wèn)題,通常只能生成次優(yōu)的推薦水平;

4. 社區(qū)缺少包含模態(tài)內(nèi)容的可用于遷移學(xué)習(xí)研究的大規(guī)模公開(kāi)數(shù)據(jù)集,缺少基準(zhǔn)和排行榜(leaderboard);

5. 已有文獻(xiàn)中的推薦系統(tǒng)大模型參數(shù)量和訓(xùn)練數(shù)據(jù)太小(相對(duì)于 NLP 與 CV 領(lǐng)域),缺少開(kāi)源的推薦系統(tǒng)大模型預(yù)訓(xùn)練參數(shù)。

wKgaomVQ25SALi3nAAAC0jQz1zo800.svg

參考文獻(xiàn)

wKgaomVQ25SALi3nAAAC0jQz1zo800.svg ?[1] Parameter-efficient transfer from sequential behaviors for user modeling and recommendation (SIGIR2020)

[2] One Person, One Model, One World: Learning Continual User Representation without Forgetting (SIGIR2021)

[3] Learning transferable user representations with sequential behaviors via contrastive pre-training (ICDM2021)

[4] TransRec: Learning Transferable Recommendation from Mixture-of-Modality Feedback. Arxiv2022/06

[5] Where to Go Next for Recommender Systems? ID- vs. Modality-based Recommender Models Revisited (SIGIR2023)

[6] Exploring Adapter-based Transfer Learning for Recommender Systems: Empirical Studies and Practical Insights (WSDM2024)

[7] NineRec: A Suite of Transfer Learning Datasets for ModalityBased Recommender Systems. Arxiv2023/09

[8] Recommendation as Language Processing (RLP): A Unified Pretrain, Personalized Prompt & Predict Paradigm (P5) (Recsys2022)

[9] Exploring the Upper Limits of Text-Based Collaborative Filtering Using Large Language Models: Discoveries and Insights. Arxiv2023/05

[10] Do LLMs Understand User Preferences? Evaluating LLMs On User Rating Prediction. Arxiv2023/05

[11] A Content-Driven Micro-Video Recommendation Dataset at Scale. Arxiv2023/09

參考技術(shù)貼:

1)https://zhuanlan.zhihu.com/p/624557649 機(jī)器學(xué)習(xí)心得(八):推薦系統(tǒng)是不是即將迎來(lái)預(yù)訓(xùn)練時(shí)代?

2)https://zhuanlan.zhihu.com/p/633839409 SIGIR2023 | ID vs 模態(tài): 推薦系統(tǒng)ID范式有望被顛覆?

3)https://zhuanlan.zhihu.com/p/642797247 推薦系統(tǒng)范式之爭(zhēng),LLM vs. ID?

4)https://zhuanlan.zhihu.com/p/437671278 推薦系統(tǒng)通用用戶(hù)表征預(yù)訓(xùn)練研究進(jìn)展

5)https://zhuanlan.zhihu.com/p/661836095 推薦系統(tǒng)何去何從(Google DeepMind受邀報(bào)告)

6)https://zhuanlan.zhihu.com/p/661954235 推薦系統(tǒng)預(yù)訓(xùn)練大模型范式發(fā)展


原文標(biāo)題:從ID-based到LLM-based:可遷移推薦系統(tǒng)發(fā)展

文章出處:【微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:從ID-based到LLM-based:可遷移推薦系統(tǒng)發(fā)展

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    米爾RK3576部署端側(cè)多模態(tài)多輪對(duì)話(huà),6TOPS算力驅(qū)動(dòng)30億參數(shù)LLM

    ]。 RK3576 工作狀態(tài) 本文目錄 本文目錄 一、引言 1.1 什么是多輪對(duì)話(huà)? 1.2 多輪對(duì)話(huà)系統(tǒng)鳥(niǎo)瞰:三顆“核心”協(xié)同驅(qū)動(dòng) 1.3 核心邏輯:多輪對(duì)話(huà)的處理流程 二、工程化落地:源碼部署的全
    發(fā)表于 09-05 17:25

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專(zhuān)為 LLM 推理部署加速優(yōu)化的開(kāi)源庫(kù),幫助開(kāi)發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?1436次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    針對(duì)基于 Diffusion 和 LLM 類(lèi)別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?1095次閱讀
    使用NVIDIA Triton和TensorRT-<b class='flag-5'>LLM</b>部署TTS應(yīng)用的最佳實(shí)踐

    Keil MDKIAR EWARM:通過(guò)工程遷移實(shí)現(xiàn)項(xiàng)目資產(chǎn)的更好管理

    對(duì)于需要統(tǒng)一開(kāi)發(fā)環(huán)境或涉及多核架構(gòu)(如Cortex-A/R)的項(xiàng)目,越來(lái)越多的用戶(hù)選擇Keil MDK遷移到IAR EWARM。這就會(huì)面臨著需要將之前的Keil MDK工程遷移到IAR EWARM的問(wèn)題。本文將介紹如何高效完成
    的頭像 發(fā)表于 05-08 09:03 ?858次閱讀
    <b class='flag-5'>從</b>Keil MDK<b class='flag-5'>到</b>IAR EWARM:通過(guò)工程<b class='flag-5'>遷移</b>實(shí)現(xiàn)項(xiàng)目資產(chǎn)的更好管理

    小白學(xué)大模型:零實(shí)現(xiàn) LLM語(yǔ)言模型

    ://github.com/FareedKhan-dev/train-llm-from-scratch本文將為你提供一個(gè)簡(jiǎn)單直接的方法,從下載數(shù)據(jù)生成文本,帶你一步步構(gòu)建大院模型。步
    的頭像 發(fā)表于 04-30 18:34 ?895次閱讀
    小白學(xué)大模型:<b class='flag-5'>從</b>零實(shí)現(xiàn) <b class='flag-5'>LLM</b>語(yǔ)言模型

    無(wú)法在OVMS上運(yùn)行來(lái)自Meta的大型語(yǔ)言模型 (LLM),為什么?

    無(wú)法在 OVMS 上運(yùn)行來(lái)自 Meta 的大型語(yǔ)言模型 (LLM),例如 LLaMa2。 OVMS GitHub* 存儲(chǔ)庫(kù)運(yùn)行 llama_chat Python* Demo 時(shí)遇到錯(cuò)誤。
    發(fā)表于 03-05 08:07

    HarmonyOS Next 應(yīng)用元服務(wù)開(kāi)發(fā)-分布式數(shù)據(jù)對(duì)象遷移數(shù)據(jù)文件資產(chǎn)遷移

    提供了async版本供該場(chǎng)景使用。 當(dāng)前,wantParams中“sessionId”字段在遷移流程中被系統(tǒng)占用,建議開(kāi)發(fā)者在wantParams中定義其他key值存儲(chǔ)該分布式數(shù)據(jù)對(duì)象生成的id,避免
    發(fā)表于 12-24 10:11

    什么是LLM?LLM在自然語(yǔ)言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語(yǔ)言處理(NLP)領(lǐng)域迎來(lái)了革命性的進(jìn)步。其中,大型語(yǔ)言模型(LLM)的出現(xiàn),標(biāo)志著我們對(duì)語(yǔ)言理解能力的一次飛躍。LLM通過(guò)深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得機(jī)器能夠以前
    的頭像 發(fā)表于 11-19 15:32 ?4227次閱讀

    INA219遷移到INA232

    電子發(fā)燒友網(wǎng)站提供《INA219遷移到INA232.pdf》資料免費(fèi)下載
    發(fā)表于 11-14 14:17 ?1次下載
    <b class='flag-5'>從</b>INA219<b class='flag-5'>遷移</b>到INA232

    LLM技術(shù)對(duì)人工智能發(fā)展的影響

    隨著人工智能技術(shù)的飛速發(fā)展,大型語(yǔ)言模型(LLM)技術(shù)已經(jīng)成為推動(dòng)AI領(lǐng)域進(jìn)步的關(guān)鍵力量。LLM技術(shù)通過(guò)深度學(xué)習(xí)和自然語(yǔ)言處理技術(shù),使得機(jī)器能夠理解和生成自然語(yǔ)言,極大地?cái)U(kuò)展了人工智能的應(yīng)用范圍
    的頭像 發(fā)表于 11-08 09:28 ?2227次閱讀

    報(bào)告ID與Modbus異常響應(yīng)

    17功能碼用于讀取站設(shè)備的ID、類(lèi)型描述、當(dāng)前狀態(tài)以及其他信息,不支持廣播模式。響應(yīng)消息的構(gòu)成依賴(lài)于設(shè)備而不盡相同。
    的頭像 發(fā)表于 11-07 17:06 ?1484次閱讀

    C6000C7000遷移

    電子發(fā)燒友網(wǎng)站提供《C6000C7000遷移.pdf》資料免費(fèi)下載
    發(fā)表于 10-30 10:38 ?0次下載
    C6000<b class='flag-5'>到</b>C7000<b class='flag-5'>遷移</b>

    NY8B062F 14 I/O+12-通道ADC 8位EPROM-Based單片機(jī)手冊(cè)

    電子發(fā)燒友網(wǎng)站提供《NY8B062F 14 I/O+12-通道ADC 8位EPROM-Based單片機(jī)手冊(cè).pdf》資料免費(fèi)下載
    發(fā)表于 10-28 10:47 ?2次下載

    端InfiniBand網(wǎng)絡(luò)解決LLM訓(xùn)練瓶頸

    的,這需要大量的計(jì)算資源和高速數(shù)據(jù)傳輸網(wǎng)絡(luò)。端端InfiniBand(IB)網(wǎng)絡(luò)作為高性能計(jì)算和AI模型訓(xùn)練的理想選擇,發(fā)揮著重要作用。在本文中,我們將深入探討大型語(yǔ)言模型(LLM)訓(xùn)練的概念,并探索端端InfiniBand
    的頭像 發(fā)表于 10-23 11:26 ?7833次閱讀
    端<b class='flag-5'>到</b>端InfiniBand網(wǎng)絡(luò)解決<b class='flag-5'>LLM</b>訓(xùn)練瓶頸

    USCI模塊遷移到eUSCI模塊

    電子發(fā)燒友網(wǎng)站提供《USCI模塊遷移到eUSCI模塊.pdf》資料免費(fèi)下載
    發(fā)表于 10-18 10:39 ?0次下載
    <b class='flag-5'>從</b>USCI模塊<b class='flag-5'>遷移</b>到eUSCI模塊