chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA Merlin 助力陌陌推薦業(yè)務實現(xiàn)高性能訓練優(yōu)化

NVIDIA英偉達 ? 來源:未知 ? 2023-11-09 10:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

通過 Merlin 大幅提升大規(guī)模深度多目標精排模型訓練性能

本案例中,NVIDIA 團隊與陌陌推薦系統(tǒng)團隊深度合作,共同使用 NVIDIA GPU Merlin 軟件解決方案替代其原有解決方案。

通過使用 Merlin TensorFlow Plugin (即 Sparse Operation Kit,SOK) 和 HierarchicalKV(HKV),相較于原方案在相同規(guī)模模型和 GPU 下,顯著提高了陌陌大規(guī)模深度多目標精排模型的訓練性能。在不影響模型效果的前提下,模型整體吞吐提升了 5 倍以上,再結合通信和 IO 等進一步優(yōu)化后,極限情況下可以提升 12 倍吞吐。

客戶簡介

摯文集團于 2011 年成立,2014 年 12 月 11 日在美國納斯達克交易所掛牌上市(NASDAQ: MOMO),擁有陌陌、探探等多款手機應用,以及電影制作發(fā)行、節(jié)目制作等多元業(yè)務。陌陌是摯文集團于 2011 年 8 月推出的一款基于地理位置的移動視頻社交應用,是中國領先的開放式社交平臺之一。

訓練速度面臨挑戰(zhàn),

需有效提升算法迭代

陌陌的原始解決方案本質(zhì)是基于 PS-Worker 的 CPU + GPU 混合訓練方案,可支持大規(guī)模稀疏參數(shù)的訓練。然而,隨著用戶規(guī)模的增加和業(yè)務的發(fā)展,對于推薦算法的準確度也有了更高的要求。這導致模型的復雜性和訓練樣本量顯著增加,對單次模型訓練速度和新模型算法探索效率都有更大的挑戰(zhàn)。盡管原方案在功能上支持了大規(guī)模稀疏參數(shù)的訓練,但在性能上難以滿足業(yè)務日益增長的需求。因此,陌陌亟需對訓練速度進行優(yōu)化,加快算法迭代,以提高業(yè)務效果。

SOK 和 HKV

為推薦系統(tǒng)提升性能與靈活性

NVIDIA Merlin HugeCTR 是 NVIDIA 推出的可以高效利用 GPU 來進行推薦系統(tǒng)訓練的解決方案,為了使它能直接被其他 DL 用戶,比如 TensorFlow 所直接使用,NVIDIA 開發(fā)了 Merlin TensorFlow Plugin (以下簡稱 SOK),將 HugeCTR 中的高級特性封裝為 TensorFlow 可直接調(diào)用的形式,從而幫助用戶在 TensorFlow 中直接使用 HugeCTR 中的高級特性來加速他們的推薦系統(tǒng)。

wKgZomVMSOCAaFAxAAB8kg4r-to254.jpg

圖 1. Merlin TensorFlow Plugin(SOK)模型并行示意圖

Merlin TensorFlow Plugin 以數(shù)據(jù)并行的方式接收輸入數(shù)據(jù),將稀疏參數(shù)以模型并行的方式分布在多個 GPU 上,將稠密參數(shù)以數(shù)據(jù)并行的方式分布在多個 GPU 上,內(nèi)部實現(xiàn)“數(shù)據(jù)并行-模型并行-數(shù)據(jù)并行”的轉(zhuǎn)換流程。整個使用方式上盡可能的與原有 TensorFlow 算子對齊,減少對用戶已有的代碼的修改,以更方便、快捷地在多個 GPU 上進行擴展。此外,SOK 針對 embedding vector 的拷貝和 combiner 進行了高度優(yōu)化和內(nèi)核融合,使整個 lookup 的前后向過程擁有更好的性能。

Merlin HierarchicalKV (以下簡稱HKV)是 Merlin 下的針對于推薦系統(tǒng)訓練設計的 KV 加速庫。為兼容大模型訓練支持了層次化動態(tài) Embedding 存儲(CPU+GPU),靈活的 eviction(淘汰) 機制和豐富的 API。目前已經(jīng)集成入 SOK, 協(xié)同加速推薦系統(tǒng) Embedding 的相關計算。

在應用了 SOK 和 HKV 后,相同規(guī)模模型和 GPU 下,陌陌精排模型的訓練性能相比于原方案,整體吞吐提升了 5 倍以上。除此之外,陌陌推薦團隊在當前 SOK + HKV 的架構基礎上,基于業(yè)務場景特點,進一步優(yōu)化整體性能,包括梯度合并,減少梯度計算的通信開銷;并行特征數(shù)據(jù)讀取與轉(zhuǎn)換,以及特征數(shù)據(jù)預取到 GPU 等操作提速特征 IO;使用 XLA 進行編譯優(yōu)化,融合 kernel 以減少 kernel launch 時間;設置 GPU 親和等操作,使得整體性能提升達到 12 倍。

wKgZomVMSOCASRl0AABRC-I4vSg388.jpg

圖 2. 性能加速效果

在陌陌的實際應用中,動態(tài) Embedding 的特性大大簡化了推薦系統(tǒng)中連續(xù)訓練需人工控制顯存中 embedding tab 大小的問題。而 SOK 與 HKV 為陌陌提供了完整的功能和性能支持。

除此之外,我們跟陌陌的合作過程中,也結合產(chǎn)品部署中的需求進一步對產(chǎn)品進行了性能優(yōu)化和功能迭代,比如:

SOK 針對 embedding vector 的拷貝和 combiner 進行了高度優(yōu)化和 kernel 融合,使整個 lookup 的前后向過程擁有更好的性能。

在陌陌 GPU 高水位線的實際業(yè)務中,基于陌陌的測試和反饋,SOK 通過優(yōu)化了性能和功能的平衡點,使得其在保證性能的基礎上,穩(wěn)定性也大大提升。

另外,在陌陌的實際應用中,面臨著模型實時訓練的挑戰(zhàn),即需要減少對計算資源的占用,因此我們引入了 HKV,它支持了層次化動態(tài)嵌入存儲(包括 CPU 和 GPU),并提供了靈活的 eviction 機制以及豐富的 API。這種引入在降低資源占用的同時,也提高了系統(tǒng)的靈活性。

陌陌的實際業(yè)務場景和 GPU 使用方式對于 SOK 的開發(fā)和迭代提供了非常寶貴的經(jīng)驗,同時陌陌的大量測試反饋也幫助 SOK 提升了應對復雜場景的能力,使得 SOK 的 feature 更加穩(wěn)定和貼近客戶。

持續(xù)合作:

優(yōu)化推薦模型性能,降低訓練成本

雙方團隊通過 SOK 和 HKV 對原方案進行深度優(yōu)化后,成功幫助陌陌提升了 12 倍的訓練效率,極大的降低了模型訓練的成本和新模型算法嘗試的成本。目前,整體方案已上線,全面支持陌陌推薦系統(tǒng)模型訓練。

近期,NVIDIA 團隊還與陌陌進行了基于 Transformer 的推薦模型性能優(yōu)化。NVIDIA JOC 團隊和 Merlin 團隊基于客戶的模型做了一系列性能分析,將 XLA+AMP+半精度 allreduce 應用到該模型上后,端到端性能實現(xiàn)了 50% 的加速。在此基礎上,團隊們進一步對性能熱點 multi-head-attention 部分進行優(yōu)化,正在將 Flash-Attention 以 tf-plugin 形式進行集成,預計此項優(yōu)化集成后,整體加速比可達到 3 倍,同時整體的優(yōu)化方案使得顯存使用量下降約 70%,可以顯著地緩解顯存緊張的問題。

未來,陌陌與 NVIDIA 將繼續(xù)在推薦系統(tǒng)訓練和推理等方面持續(xù)合作,持續(xù)推進 GPU 和 AI 軟件加速計算在陌陌的全面落地,期待能夠為陌陌的業(yè)務及場景應用帶來更大的價值。

了解更多本案例中相關的 NVIDIA 產(chǎn)品信息,敬請查閱:

  • NVIDIA Merlin:

    https://developer.nvidia.cn/merlin

  • Merlin TensorFlow Plugin (SOK) :

    https://github.com/NVIDIA-Merlin/HugeCTR/tree/main/sparse_operation_kit

  • Merlin HierarchicalKV (HKV):

    https://github.com/NVIDIA-Merlin/HierarchicalKV

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國加州圣何塞會議中心舉行,線上大會也將同期開放。點擊“閱讀原文”掃描下方海報二維碼,立即注冊 GTC 大會


原文標題:NVIDIA Merlin 助力陌陌推薦業(yè)務實現(xiàn)高性能訓練優(yōu)化

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    23

    文章

    4116

    瀏覽量

    99634

原文標題:NVIDIA Merlin 助力陌陌推薦業(yè)務實現(xiàn)高性能訓練優(yōu)化

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Altair OptiStruct:重構結構研發(fā)邏輯,引領工業(yè)仿真與優(yōu)化新紀元

    落地應用;支持并行計算與高性能計算集群,大幅提升大規(guī)模模型、多工況優(yōu)化的求解速度,讓工程師從漫長的仿真等待中解放,將更多精力投入設計創(chuàng)新與方案迭代。二、全行業(yè)賦能,深耕高端制造,助力產(chǎn)品核心競爭力升級
    發(fā)表于 03-20 10:25

    如何確保CAT.1模組的高性能與低功耗?

    確保CAT.1模組實現(xiàn)高性能與低功耗的完美平衡,是物聯(lián)網(wǎng)設備長期穩(wěn)定運行和降低運維成本的關鍵?;谖覀儾捎玫娜A為海思最新Hi2131芯片方案,我們通過以下四大核心技術維度實現(xiàn)了這一目標: 1. 先進
    發(fā)表于 03-05 11:41

    如何在NVIDIA CUDA Tile中編寫高性能矩陣乘法

    本博文是系列課程的一部分,旨在幫助開發(fā)者學習 NVIDIA CUDA Tile 編程,掌握構建高性能 GPU 內(nèi)核的方法,并以矩陣乘法作為核心示例。
    的頭像 發(fā)表于 01-22 16:43 ?5303次閱讀
    如何在<b class='flag-5'>NVIDIA</b> CUDA Tile中編寫<b class='flag-5'>高性能</b>矩陣乘法

    國產(chǎn)高性能ONFI IP解決方案全解析

    1. 什么是ONFI IP?其在AI時代的作用是什么?ONFI (Open NAND Flash Interface) 是連接閃存控制器與NAND顆粒的關鍵高速接口協(xié)議。在AI和高性能計算(HPC
    發(fā)表于 01-13 16:15

    全新軟件與模型優(yōu)化NVIDIA DGX Spark注入強大動力

    自發(fā)布以來,NVIDIA 通過持續(xù)的軟件優(yōu)化以及與軟件合作伙伴和開源社區(qū)的緊密協(xié)作,不斷提升基于 Grace Blackwell 架構的 DGX Spark 的性能。這些舉措在推理、訓練
    的頭像 發(fā)表于 01-09 10:17 ?861次閱讀

    高性能網(wǎng)絡存儲設計:NVMe-oF IP的實現(xiàn)探討

    的 NVMeRAID0 橫向擴展能力,通過多通道NVMe控制器并行訪問多個SSD,實現(xiàn)以下技術特性: ?多 SSD 帶寬聚合,讀寫性能接近線性提升 ?跨盤條帶(Striping)調(diào)度優(yōu)化,減少跨盤等待
    發(fā)表于 12-19 18:45

    使用NVIDIA Nemotron RAG和Microsoft SQL Server 2025構建高性能AI應用

    搜索和調(diào)用外部 AI 模型的 SQL 原生 API。NVIDIA 與微軟共同將 SQL Server 2025 與 NVIDIA Nemotron RAG 開放模型集合無縫連接,這使您能夠在云端或本地環(huán)境中基于自己的數(shù)據(jù)構建高性能
    的頭像 發(fā)表于 12-01 09:31 ?1043次閱讀
    使用<b class='flag-5'>NVIDIA</b> Nemotron RAG和Microsoft SQL Server 2025構建<b class='flag-5'>高性能</b>AI應用

    NVIDIA Spectrum-X 以太網(wǎng)交換機助力 Meta 和 Oracle 加速網(wǎng)絡性能

    超大規(guī)模企業(yè)廣泛采用 NVIDIA 網(wǎng)絡解決方案,驅(qū)動十億瓦級(Giga-Scale)高性能 AI 數(shù)據(jù)中心 Meta 推出基于 NVIDIA Spectrum 以太網(wǎng)的交換機,用于
    的頭像 發(fā)表于 10-14 10:26 ?2087次閱讀
    <b class='flag-5'>NVIDIA</b> Spectrum-X 以太網(wǎng)交換機<b class='flag-5'>助力</b> Meta 和 Oracle 加速網(wǎng)絡<b class='flag-5'>性能</b>

    NVIDIA Isaac Lab多GPU多節(jié)點訓練指南

    NVIDIA Isaac Lab 是一個適用于機器人學習的開源統(tǒng)一框架,基于 NVIDIA Isaac Sim 開發(fā),其模塊化高保真仿真適用于各種訓練環(huán)境,可提供各種物理 AI 功能和由 GPU 驅(qū)動的物理仿真,縮小仿真與現(xiàn)實世
    的頭像 發(fā)表于 09-23 17:15 ?2629次閱讀
    <b class='flag-5'>NVIDIA</b> Isaac Lab多GPU多節(jié)點<b class='flag-5'>訓練</b>指南

    NVIDIA助力樞途科技突破視頻提取具身數(shù)據(jù)技術鴻溝

    技術,加速了從互聯(lián)網(wǎng)視頻提取具身智能模型訓練數(shù)據(jù),實現(xiàn)了從視頻三維大世界重建、任務語義信息理解、物體細節(jié)及軌跡提取、多模態(tài)數(shù)據(jù)采集、具身智能算法訓練的全鏈路打通。
    的頭像 發(fā)表于 08-30 16:11 ?1989次閱讀

    睿海光電以高效交付與廣泛兼容助力AI數(shù)據(jù)中心800G光模塊升級

    租戶環(huán)境提供推理服務,需實現(xiàn)性能隔離與穩(wěn)定擴展。面對這一技術浪潮,深圳市睿海光電科技有限公司(簡稱“睿海光電”)憑借其創(chuàng)新的800G光模塊解決方案,以交付速度比同行快2-3天的硬核實力、廣泛兼容性及全球
    發(fā)表于 08-13 19:01

    奇異摩爾田晨榮獲中國半導體行業(yè)領軍人物獎

    實力與發(fā)展成果。奇異摩爾創(chuàng)始人兼 CEO 田晨憑借在AI網(wǎng)絡互聯(lián)領域的創(chuàng)新成就,榮膺 “領軍人物獎”。
    的頭像 發(fā)表于 07-08 17:04 ?2054次閱讀

    高性能計算面臨的芯片挑戰(zhàn)

    高性能計算(簡稱HPC)聽起來像是科學家在秘密實驗室里才會用到的東西,但它實際上是當今世界上最重要的技術之一。從預測天氣到研發(fā)新藥,甚至訓練人工智能,高性能計算系統(tǒng)都能幫助解決普通計算機無法
    的頭像 發(fā)表于 05-27 11:08 ?1240次閱讀
    <b class='flag-5'>高性能</b>計算面臨的芯片挑戰(zhàn)

    快手上線鴻蒙應用高性能解決方案:數(shù)據(jù)反序列化性能提升90%

    普通對象(如 JSON 數(shù)據(jù))與類實例進行互轉(zhuǎn),是實現(xiàn)面向?qū)ο缶幊膛c數(shù)據(jù)序列化解耦的核心工具。隨著業(yè)務復雜度的提升,該庫在反序列化過程中逐漸暴露出性能瓶頸,影響用戶核心體驗。因此
    發(fā)表于 05-15 10:01

    提升AI訓練性能:GPU資源優(yōu)化的12個實戰(zhàn)技巧

    在人工智能與機器學習技術迅速發(fā)展的背景下,GPU計算資源的高效利用已成為關鍵技術指標。優(yōu)化的GPU資源分配不僅能顯著提升模型訓練速度,還能實現(xiàn)計算成本的有效控制。根據(jù)AI基礎設施聯(lián)盟2024年發(fā)布
    的頭像 發(fā)表于 05-06 11:17 ?1686次閱讀
    提升AI<b class='flag-5'>訓練</b><b class='flag-5'>性能</b>:GPU資源<b class='flag-5'>優(yōu)化</b>的12個實戰(zhàn)技巧