chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

從ID-based到LLM-based:可遷移推薦系統(tǒng)發(fā)展

智能感知與物聯(lián)網技術研究所 ? 來源:未知 ? 2023-11-12 22:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgaomVQ25GAOc1GAAQ6oOGY_2g553.png

Paper List:https://github.com/westlake-repl/Recommendation-Systems-without-Explicit-ID-Features-A-Literature-Review

wKgaomVQ25KAbYLtAAAl6LOgh3c145.png可遷移推薦系統(tǒng)發(fā)展歷程

推薦系統(tǒng)的核心目標是通過建模用戶的歷史行為預測最有可能交互的下一個目標。而這一目標在用戶交互記錄較少的情況下尤為困難,即長期困擾推薦系統(tǒng)領域發(fā)展的冷啟動問題。在這些新用戶很少并且其交互序列有限的新推薦系統(tǒng)場景中,前期的模型訓練往往缺乏足夠的樣本數(shù)據(jù)。對有限訓練數(shù)據(jù)的建模也必然無法獲得用戶滿意的推薦結果,使得平臺成長受到很大阻礙。

遷移學習是學術界和工業(yè)界為了解決這一問題所一直關注的解決方案。如果可以向新場景中引入預先訓練到的知識幫助建模用戶序列或加速建模速度,這將極大緩解下游新場景中冷啟動問題帶來的巨大成本。

為此,對可遷移推薦系統(tǒng)的研究幾乎貫穿了推薦系統(tǒng)領域發(fā)展的每一個階段。從基于物品 ID 和用戶 ID 的矩陣分解時代,可遷移推薦系統(tǒng)必須基于上下游場景的數(shù)據(jù)覆蓋實現(xiàn)基于 ID 的推薦系統(tǒng)遷移學習。

到近幾年模態(tài)理解技術發(fā)展迅猛,研究人員逐漸轉向利用純模態(tài)信息建模用戶序列,從而實現(xiàn)在上下游場景沒有數(shù)據(jù)覆蓋的情況下實現(xiàn)可遷移推薦系統(tǒng)。再到當下利用大規(guī)模預訓練語言模型(LLM)完成 ‘one-for-all’ 的推薦系統(tǒng)大模型得到大量關注??蛇w移推薦系統(tǒng)乃至推薦系統(tǒng)大模型的研究已成為推薦系統(tǒng)領域發(fā)展的下一個方向。

wKgaomVQ25KAIg_TAAAuhh9-KLM251.png

基于ID的可遷移推薦系統(tǒng)

第一階段是矩陣分解時代,使用 ID embedding 來建模物品的協(xié)同過濾算法是推薦系統(tǒng)的主流范式,并在之后的 15 年間主導了整個推薦系統(tǒng)社區(qū)。經典架構包括:雙塔架構、CTR 模型、會話和序列推薦、Graph 網絡。他們無不采用 ID embedding 來對物品進行建模,整個推薦系統(tǒng)現(xiàn)有的 SOTA 體系也幾乎都是采用基于 ID 特征的建模手段。

這一階段,可遷移推薦系統(tǒng)自然依靠 ID 實現(xiàn),而且必須在上下游場景之間有數(shù)據(jù)重疊,即要求不同數(shù)據(jù)集之間存在共同用戶或者物品,例如大公司里存在多個業(yè)務場景, 通過老的業(yè)務引流新的業(yè)務。這一階段的早期工作有 PeterRec [1](SIGIR2020)、Conure [2](SIGIR2021)和 CLUE [3] (ICDM2021)等。

wKgaomVQ25KARutKAAQs6Fm8hIk392.png

PeterRec 是推薦系統(tǒng)領域首篇論文明確提出基于自監(jiān)督預訓練(自回歸與 Mask 語言模型)的用戶表征具備通用性,并清晰地呈現(xiàn)出該預訓練的通用表征可用于跨域推薦和用戶畫像預測,顯著提升性能,其中,采用用戶畫像預測評估用戶表征的通用性被后續(xù)相關論文廣泛沿用。

同時,PeterRec 提出,通用型用戶模型在下游任務遷移過程,應該做到參數(shù)有效共享(公司往往有上百種用戶畫像要預測,數(shù)十個業(yè)務推薦場景),并引入基于 Adapter 技術,也是推薦系統(tǒng)首次采用 Adapter,通過微調模型補丁實現(xiàn)不同任務有效遷移學習。另外,PeterRec 還發(fā)布了一套大規(guī)模的跨域推薦系統(tǒng)數(shù)據(jù)集。

wKgaomVQ25KASmR-AAHZd-i50qU618.png

Conure 是推薦系統(tǒng)領域首個用戶通用表征的終生學習(lifelong learning)模型,首次提出一個模型連續(xù)學習和同時服務多個不同的下游任務。作者提出的‘一人一世界’概念啟發(fā)了當下推薦系統(tǒng) one4all 模型的研究。

wKgaomVQ25KAPEA0AAEtmV1G9yU674.png

CLUE 認為 PeterRec 與 Conure 算法在學習用戶表征時,采用自回歸或者 mask 機制都是基于物品粒度的預測,而最優(yōu)的用戶表征顯然應該是對完整的用戶序列進行建模和訓練,因此結合對比學習,獲得了更優(yōu)的結果。

wKgaomVQ25KABf0lAAV_QF5xruw256.png

這期間有一些同時期或者 future work,包括阿里的 Star 模型(One Model to Serve All: Star Topology Adaptive Recommender for Multi-Domain CTR Prediction),以及 ShopperBERT 模型 (One4all User Representation for Recommender Systems in E-commerce)。

wKgaomVQ25KAP925AAAtJ0fTuoM601.png

基于模態(tài)信息的可遷移推薦系統(tǒng)

以上工作基于共享(用戶或者物品)ID 方式實現(xiàn)領域之間的遷移性和跨域推薦,比較適用于公司內部不同業(yè)務之間, 而現(xiàn)實中不同推薦系統(tǒng)很難共享用戶與 item 的 ID 信息,使得跨平臺推薦這一類研究具有明顯的局限性。

相比之下,深度學習的其他社區(qū),如自然語言處理(NLP)與計算機視覺(CV)領域近幾年已經涌現(xiàn)出一系列有影響力的通用型大模型,又稱基礎模型(foundation model),如 BERT、GPT、Vision Transformer 等。相比推薦系統(tǒng) ID 特征,NLP 與 CV 任務基于多模態(tài)文本與圖像像素特征,可以較好的實現(xiàn)模型在不同任務之間的復用與遷移。

替換 ID 特征、基于模態(tài)內容實現(xiàn)不同系統(tǒng)與平臺之間的遷移是該階段的主流方向。這一階段的代表性工作有 TransRec [4]、MoRec [5](SIGIR2023)、AdapterRec [6](WSDM2024)、NineRec [7] 等。另外,同時期的工作還有人大趙鑫老師團隊 UnisRec 以及張永峰老師團隊的 P5。

wKgaomVQ25OAHQPrAAHAOmMheS0048.png

TransRec 是首個研究混合模態(tài)遷移的推薦系統(tǒng)模型,也是首次考慮圖像像素的遷移學習模型。TransRec 采用端到端訓練方式,而不是直接抽取離線 item 多模態(tài)表征。

與基于 ID 的序列推薦模型比較,經過 finetune 的 TransRec 可以有效提升推薦結果。TransRec 證實了大規(guī)模數(shù)據(jù)上利用混合模態(tài)信息預訓練可以有效學習用戶和物品的關系,并且可以遷移到下游推薦任務,實現(xiàn)通用推薦,論文還研究了 scaling effect 效果,并會發(fā)布多套多模態(tài)數(shù)據(jù)集。與 TransRec 同時期的工作是人大趙鑫老師團隊 UnisRec,UnisRec 主要聚焦 text 模態(tài)。

wKgaomVQ25OAbN-7AAH-vX3gs8c675.png

wKgaomVQ25OAeE8EAAGWXQzFbZg333.png

MoRec 首次系統(tǒng)性回答了使用最先進的模態(tài)編碼器表征物品(MoRec)是否能取代經典的 itemID embedding 范式(DRec)這一問題。論文基于 MoRec 與 IDRec 的公平比較展開:如果在冷熱場景下 MoRec 都能打敗 IDRec,那么推薦系統(tǒng)將有望迎來經典范式的變革。這一觀點來自于 MoRec 完全基于物品的模態(tài)信息,此類內容信息天生具有遷移能力,論文通過扎實的實驗系統(tǒng)性證明了 MoRec 有潛力實現(xiàn)通用大模型。

結論 1:對于時序推薦架構 SASRec,在常規(guī)場景(既有熱 item 也有一部分冷 item),MoRec 在文本上明顯優(yōu)于 IDRec,而在圖片上則和 IDRec 效果相當。在冷啟動場景,MoRec 大幅優(yōu)于 IDRec,在熱門商品推薦場景,MoRec 和 IDRec 效果相當。

結論 2:MoRec 為推薦系統(tǒng)和 NLP、CV 等多模態(tài)社區(qū)建立了聯(lián)系,而且一般來說,可以很好的繼承 NLP 和 CV 領域的最新進展。

結論 3:工業(yè)界流行的 Two-stage 離線特征提取推薦方式會導致 MoRec 性能顯著下降(特別是對于視覺推薦),這在實踐中不應該被忽視。同時,盡管多模態(tài)領域的預訓練模型在近年來取得了革命性的成功,但其表征還沒有做到通用性和泛化性,至少對于推薦系統(tǒng)是這樣(MoRec 論文也被 Google DeepMind 團隊邀請給了一個 talk,Google researcher 對該工作評價非常高)。受此啟發(fā),近期已經出現(xiàn)很多相關工作。

wKgaomVQ25OAcNZ0AAK01JDUWhM053.png

AdapterRec 首次系統(tǒng)性討論了基于模態(tài)信息的高效遷移方法。論文評估了基于適配器(Adapter)的模型補丁。與以往工作在下游遷移時微調全部參數(shù)不同,AdapterRec 在遷移時在模型網絡中插入并僅微調適配器網絡。論文在大規(guī)模文本、圖片模態(tài)數(shù)據(jù)上進行了豐富的驗證實驗。

結果表明,基于文本、圖片模態(tài)的適配器都可以實現(xiàn)良好的遷移效果?;谖谋灸B(tài)時,適配器技術可以在微調極少量參數(shù)的計算成本下實現(xiàn)與微調全部參數(shù)相近的遷移結果。AdapterRec 證實了基于適配器技術的高效遷移方法是實現(xiàn)通用推薦系統(tǒng)大模型的重要環(huán)節(jié)。

wKgaomVQ25OAfBjLAAEZgTc3Z3M291.png

NineRec 提出了迄今為止推薦系統(tǒng)領域規(guī)模最大最多樣的多模態(tài)遷移學習數(shù)據(jù)集。論文延續(xù) MoRec 與 IDRec 公平比較的原則,系統(tǒng)性評估了 MoRec 的遷移能力并給出詳見的指導建議與評估平臺。NineRec 提供了一套大規(guī)模預訓練數(shù)據(jù)集和九個下游場景數(shù)據(jù)集,其中僅預訓練數(shù)據(jù)集就包含 200 萬用戶、14 萬物品以及近 2500 萬條交互記錄信息。

論文設計大規(guī)模實驗評估了多種經典推薦架構(SASRec,BERT4Rec,NextItNet,GRU4Rec)與物品編碼器(BERT,Roberta,OPT,ResNet,Swin Transformer)的遷移表現(xiàn),并驗證了端到端遷移(End-to-End)與兩階段遷移(Two-stage)對于遷移推薦的影響。實驗結果表明,利用端到端訓練技術可以極大程度上激發(fā)模態(tài)信息的潛能,僅使用經典框架如 SASRec 即可超越近期同類型可遷移推薦模型。

論文還驗證了基于純模態(tài)信息的 zero-shot 遷移能力。NineRec 為基于模態(tài)的推薦系統(tǒng)遷移學習和推薦大模型發(fā)展提供了全新的平臺和基準。NineRec(只有文本和圖片模態(tài))之后,團隊聯(lián)合發(fā)布了 MicroLens [11] 數(shù)據(jù)集,是當前最大的短視頻推薦數(shù)據(jù)集包含原始短視頻,是其他相關數(shù)據(jù)集規(guī)模的數(shù)千倍,用戶量達到 3000 萬,點擊行為達到 10 億,可以用于訓練推薦系統(tǒng)大模型。NineRec 與 MicroLens 算力和數(shù)據(jù)集收集費用都超過百萬人民幣。

wKgaomVQ25OAG5aeAAAr2pbNr48565.png基于LLM的可遷移推薦系統(tǒng)

當下人工智能領域進入大模型時代,越來越多的通用大模型在各個領域被提出,極大的促進了 AI 社區(qū)的發(fā)展。然而大模型技術在推薦系統(tǒng)領域應用還處于早期階段。諸多問題并沒有得到很好的回答,如利用大語言模型理解推薦任務是否能大幅超越原有的 ID 范式?是否越大規(guī)模參數(shù)的大模型網絡可以帶來通用推薦表征?回答這些問題是推動推薦系統(tǒng)社區(qū)進入大模型時代的敲門磚,受到了越來越多科研團隊的關注。

這里主要介紹 P5 [8] 和 GPT4Rec [9],P5 是采用 LM 作為推薦 backbone,而 GPT4Rec 則是極限地評估 1750 億的 item encoder 表能能力, 后續(xù)工作也非常多(例如基于 prompt,基于chain of thought,基于 ChatGPT 等),例如同時期的工作還有 Google 的 LLM for rating prediction [10]與 GPT4Rec 類似,都是采用遷移模型評估性能極限,一個專注 top-n item 推薦,一個專注 rating prediction。

P5 提出了一種基于文本模態(tài)的多任務大模型框架,將多種經典推薦任務轉化為統(tǒng)一的自然語言理解任務,包括序列推薦、評分預測、推薦理由、摘要以及直接推薦等多種任務。模型設計上,P5 通過基于提示(prompt)的自然語言格式來構建任務,將這些相關的推薦任務統(tǒng)一為序列到序列(seq-to-seq)框架中進行學習。數(shù)據(jù)方面,P5 將各種可用數(shù)據(jù),例如用戶信息、物品元數(shù)據(jù)、用戶評論以及用戶與物品的互動數(shù)據(jù)轉化為自然語言序列。豐富的訓練數(shù)據(jù)產生了滿足個性化推薦需求的語義信息。

wKgaomVQ25SALevaAAKvD5g62vU755.png

GPT4Rec 首次探索了使用百億規(guī)模大語言模型作為物品編碼器。論文提出并回答了幾個關鍵性的問題:1)基于文本的協(xié)同過濾推薦算法(TCF)的性能隨著物品編碼器參數(shù)量不斷增加表現(xiàn)如何?是否在千億規(guī)模能達到上限?2)超大參數(shù)的 LLM,如 175B 參數(shù) GPT-3,是否能產生通用的 item 表征?3)基于公平比較,裝配了 175B 參數(shù)量的 LLM 的推薦系統(tǒng)算法能否打敗基于 ID 的經典算法;4)基于 LLM 的 TCF 算法距離推薦系統(tǒng)通用大模型還有多遠?

實驗結果表明:

1. 175B 的參數(shù) LM 可能還沒有達到其性能上限,通過觀察到 LLM 的參數(shù)量從 13B 到 175B 時,TCF 模型的性能還沒有收斂。這一現(xiàn)象表明將來使用更多參數(shù)的 LLM 用作文本編碼器是有帶來更高的推薦準確性的潛力的;

2. 即使是由極其龐大的 LM(如 GPT-3)學習到的物品表示,也未必能形成一個通用的表征。在相應的推薦系統(tǒng)數(shù)據(jù)集微調仍然對于獲得 SOTA 仍然是必要的,至少對文本推薦任務來說是如此;

3. 即使采用 175B 和微調的 66B 的語言模型,當使用 DSSM 作為推薦骨架時,TCF 仍然很大程度的劣于 IDRec,但是對于序列推薦模型,LLM 即便采用凍住的表征,也基本可以跟 IDRec 相媲美;

4. 雖然裝配了 175B 參數(shù)量 LLM 的 TCF 模型的表現(xiàn)優(yōu)于隨機采樣的 item 的推薦,甚至達到了 6-40 倍的提升。但與在推薦數(shù)據(jù)上重新訓練的 TCF 模型相比,它們仍然有巨大的差距。另外,論文發(fā)現(xiàn):

5. ChatGPT 在典型的推薦系統(tǒng)場景與 TCF 相比表現(xiàn)存在較大的差距,文章猜測需要更加精細的 prompt,ChatGPT 才有可能用于某些真實推薦場景。

wKgaomVQ25SAeUpDAAIjsnzcfoA933.png

wKgaomVQ25SAdzCQAAAtTL4L6hI436.png總結

目前推薦系統(tǒng)社區(qū)內,基于模態(tài)內容的大模型研究仍處于起步階段:

1. 基于傳統(tǒng)的 ID 的推薦算法難以解決模態(tài)場景問題;

2. 已有的基于模態(tài)內容的跨域推薦系統(tǒng)文獻通用性較低;

3. 非端到端的聯(lián)合訓練提取的特征可能存在粒度尺度不匹配等問題,通常只能生成次優(yōu)的推薦水平;

4. 社區(qū)缺少包含模態(tài)內容的可用于遷移學習研究的大規(guī)模公開數(shù)據(jù)集,缺少基準和排行榜(leaderboard);

5. 已有文獻中的推薦系統(tǒng)大模型參數(shù)量和訓練數(shù)據(jù)太小(相對于 NLP 與 CV 領域),缺少開源的推薦系統(tǒng)大模型預訓練參數(shù)。

wKgaomVQ25SALi3nAAAC0jQz1zo800.svg

參考文獻

wKgaomVQ25SALi3nAAAC0jQz1zo800.svg ?[1] Parameter-efficient transfer from sequential behaviors for user modeling and recommendation (SIGIR2020)

[2] One Person, One Model, One World: Learning Continual User Representation without Forgetting (SIGIR2021)

[3] Learning transferable user representations with sequential behaviors via contrastive pre-training (ICDM2021)

[4] TransRec: Learning Transferable Recommendation from Mixture-of-Modality Feedback. Arxiv2022/06

[5] Where to Go Next for Recommender Systems? ID- vs. Modality-based Recommender Models Revisited (SIGIR2023)

[6] Exploring Adapter-based Transfer Learning for Recommender Systems: Empirical Studies and Practical Insights (WSDM2024)

[7] NineRec: A Suite of Transfer Learning Datasets for ModalityBased Recommender Systems. Arxiv2023/09

[8] Recommendation as Language Processing (RLP): A Unified Pretrain, Personalized Prompt & Predict Paradigm (P5) (Recsys2022)

[9] Exploring the Upper Limits of Text-Based Collaborative Filtering Using Large Language Models: Discoveries and Insights. Arxiv2023/05

[10] Do LLMs Understand User Preferences? Evaluating LLMs On User Rating Prediction. Arxiv2023/05

[11] A Content-Driven Micro-Video Recommendation Dataset at Scale. Arxiv2023/09

參考技術貼:

1)https://zhuanlan.zhihu.com/p/624557649 機器學習心得(八):推薦系統(tǒng)是不是即將迎來預訓練時代?

2)https://zhuanlan.zhihu.com/p/633839409 SIGIR2023 | ID vs 模態(tài): 推薦系統(tǒng)ID范式有望被顛覆?

3)https://zhuanlan.zhihu.com/p/642797247 推薦系統(tǒng)范式之爭,LLM vs. ID?

4)https://zhuanlan.zhihu.com/p/437671278 推薦系統(tǒng)通用用戶表征預訓練研究進展

5)https://zhuanlan.zhihu.com/p/661836095 推薦系統(tǒng)何去何從(Google DeepMind受邀報告)

6)https://zhuanlan.zhihu.com/p/661954235 推薦系統(tǒng)預訓練大模型范式發(fā)展


原文標題:從ID-based到LLM-based:可遷移推薦系統(tǒng)發(fā)展

文章出處:【微信公眾號:智能感知與物聯(lián)網技術研究所】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 物聯(lián)網

    關注

    2943

    文章

    47678

    瀏覽量

    412090

原文標題:從ID-based到LLM-based:可遷移推薦系統(tǒng)發(fā)展

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    制造業(yè)新趨勢: “事后維修” “預測性維護”,只差一套系統(tǒng)

    制造業(yè)的競爭早已從生產效率延伸至運維效能,“事后維修”“預測性維護”的轉型,不是技術升級的選擇題,而是企業(yè)生存發(fā)展的必答題。這套系統(tǒng)打破了傳統(tǒng)運維的經驗壁壘,用數(shù)據(jù)實現(xiàn)精準管控,讓
    的頭像 發(fā)表于 01-15 15:24 ?637次閱讀
    制造業(yè)新趨勢:<b class='flag-5'>從</b> “事后維修” <b class='flag-5'>到</b> “預測性維護”,只差一套<b class='flag-5'>系統(tǒng)</b>

    探索TSB12LV26:高性能PCI-Based IEEE 1394主機控制器

    探索TSB12LV26:高性能PCI-Based IEEE 1394主機控制器 在當今的電子設備中,高速數(shù)據(jù)傳輸和高效的通信接口至關重要。德州儀器(Texas Instruments
    的頭像 發(fā)表于 12-31 15:20 ?138次閱讀

    被動響應到主動支撐:“四”技術的演進路徑與發(fā)展趨勢

    在光伏產業(yè)“補充能源”向“主力能源”跨越的進程中,“可觀、測、可控、可調”的“四”技術始終扮演著關鍵角色。其發(fā)展軌跡并非一蹴而就,而是伴隨電網需求升級與光伏技術迭代,完成了
    的頭像 發(fā)表于 12-19 14:41 ?2117次閱讀

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    部署熱門開源模型的應用場景,框架已支持 GPT-OSS、DeepSeek、Llama 2 及 Llama 3 等主流模型的端端部署;另一方面,框架將部署功能封裝為擴展的 Python 框架;同時
    的頭像 發(fā)表于 10-21 11:04 ?1018次閱讀

    恩智浦MCX C系列MCU助力實現(xiàn)高效遷移

    考慮8位微控制器升級32位微控制器?本文以五大理由闡釋為何需要升級,并帶你了解恩智浦MCX C系列如何憑借優(yōu)異性能、豐富的外設與強大的工具,讓遷移過程變得輕松高效。經濟實惠且擴展
    的頭像 發(fā)表于 09-22 16:40 ?3436次閱讀

    米爾RK3576部署端側多模態(tài)多輪對話,6TOPS算力驅動30億參數(shù)LLM

    ]。 RK3576 工作狀態(tài) 本文目錄 本文目錄 一、引言 1.1 什么是多輪對話? 1.2 多輪對話系統(tǒng)鳥瞰:三顆“核心”協(xié)同驅動 1.3 核心邏輯:多輪對話的處理流程 二、工程化落地:源碼部署的全
    發(fā)表于 09-05 17:25

    芯片主板,科技創(chuàng)新實現(xiàn)高質量發(fā)展

    數(shù)字化時代,科技的迅猛發(fā)展深刻影響著各個領域。芯片主板的集成,生動展現(xiàn)了科技創(chuàng)新如何成為推動高質量發(fā)展的核心動力。
    的頭像 發(fā)表于 07-26 16:26 ?755次閱讀

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,幫助開發(fā)者快速利用最新 LLM 完成應用原型驗證與產品部署。
    的頭像 發(fā)表于 07-04 14:38 ?1991次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?1566次閱讀
    使用NVIDIA Triton和TensorRT-<b class='flag-5'>LLM</b>部署TTS應用的最佳實踐

    LM Studio使用NVIDIA技術加速LLM性能

    隨著 AI 使用場景不斷擴展(文檔摘要到定制化軟件代理),開發(fā)者和技術愛好者正在尋求以更 快、更靈活的方式來運行大語言模型(LLM)。
    的頭像 發(fā)表于 06-06 15:14 ?1022次閱讀
    LM Studio使用NVIDIA技術加速<b class='flag-5'>LLM</b>性能

    Keil MDKIAR EWARM:通過工程遷移實現(xiàn)項目資產的更好管理

    對于需要統(tǒng)一開發(fā)環(huán)境或涉及多核架構(如Cortex-A/R)的項目,越來越多的用戶選擇Keil MDK遷移到IAR EWARM。這就會面臨著需要將之前的Keil MDK工程遷移到IAR EWARM的問題。本文將介紹如何高效完成
    的頭像 發(fā)表于 05-08 09:03 ?1174次閱讀
    <b class='flag-5'>從</b>Keil MDK<b class='flag-5'>到</b>IAR EWARM:通過工程<b class='flag-5'>遷移</b>實現(xiàn)項目資產的更好管理

    小白學大模型:零實現(xiàn) LLM語言模型

    ://github.com/FareedKhan-dev/train-llm-from-scratch本文將為你提供一個簡單直接的方法,從下載數(shù)據(jù)生成文本,帶你一步步構建大院模型。步
    的頭像 發(fā)表于 04-30 18:34 ?1188次閱讀
    小白學大模型:<b class='flag-5'>從</b>零實現(xiàn) <b class='flag-5'>LLM</b>語言模型

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴展推理時間計算、運用強化學習、開展監(jiān)督微調和進行提煉等。本文將深入探討LLM推理優(yōu)化
    的頭像 發(fā)表于 04-03 12:09 ?1453次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理模型的現(xiàn)狀

    請問將項目RT1024遷移到RT1064的最快方法是什么?

    我正在將我的項目基于 RT1024 遷移到基于 RT1064 的下一代產品,是否有快速的方法,或者我只能手動完成? 謝謝!
    發(fā)表于 03-31 06:15

    無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
    發(fā)表于 03-05 08:07