chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于賽靈思FPGA的廣告推薦算法Wide and deep硬件加速案例

電子設(shè)計(jì) ? 來源:雪湖科技 ? 作者:梅碧峰 ? 2020-11-27 10:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:雪湖科技 梅碧峰

在這篇文章里你可以了解到廣告推薦算法Wide and deep模型的相關(guān)知識(shí)和搭建方法,還能了解到模型優(yōu)化和評(píng)估的方式。我還為你準(zhǔn)備了將模型部署到賽靈思 FPGA上做硬件加速的方法,希望對(duì)你有幫助。閱讀這篇文章你可能需要20分鐘的時(shí)間。

早上起床打開音樂APP,會(huì)有今日歌單為你推薦一些歌曲。地鐵上閑來無事,刷一刷抖音等短視頻,讓枯燥的時(shí)光變得有趣。睡前打開購(gòu)物APP,看一看今天是不是有新品上架。不知不覺大家已經(jīng)習(xí)慣了這些APP,不知道大家有沒有留意到為什么這些APP這么懂你,知道你喜歡聽什么音樂,喜歡看什么類型的短視頻,喜歡什么樣的商品?

這些APP都會(huì)有類似“猜你喜歡”這類欄目。在使用時(shí)會(huì)驚嘆“它怎么知道我喜歡這個(gè)?!”,當(dāng)然,也會(huì)有“我怎么可能喜歡這個(gè)?”的吐槽。其實(shí)這些推送都是由機(jī)器學(xué)習(xí)搭建的推薦系統(tǒng)預(yù)測(cè)的結(jié)果。今天就介紹一下推薦系統(tǒng)中的重要成員CTR預(yù)估模型,下面先讓大家對(duì)CTR預(yù)估模型有一個(gè)初步認(rèn)識(shí)。

兩個(gè)名詞

CTR(Click-Through-Rate)點(diǎn)擊率:它是在一定時(shí)間內(nèi)點(diǎn)擊量/曝光量*100%,意味著投放了A條廣告有 A*CTR 條被點(diǎn)擊了。


ECPM(earning cost per mille):每1000次曝光帶來收入。ECPM=1000*CTR*單條廣告點(diǎn)擊價(jià)格。

舉個(gè)“栗”子

廣告A:點(diǎn)擊率4%,每個(gè)曝光1元錢,廣告B:點(diǎn)擊率1%,每個(gè)曝光5元錢。假如你要投放1000條廣告,你會(huì)選擇廣告A,還是廣告B?

直觀上來看,廣告A的點(diǎn)擊率高,當(dāng)然選擇投放廣告A。

那么:ECPM=1000*CTR*點(diǎn)擊出價(jià)

ECPM(A)=1000*4%*1=40

ECPM(B)=1000*1%*5=50

但是從ECPM指標(biāo)來看的話廣告B帶來的收益會(huì)更高,這就是廣告競(jìng)拍的關(guān)鍵計(jì)算規(guī)則。

我們可以看到CTR是為廣告排序用的,對(duì)于計(jì)算ECPM來說,只有CTR是未知的,只要準(zhǔn)確得出CTR值就可以了。因此CTR預(yù)估也是廣告競(jìng)拍系統(tǒng)的關(guān)鍵指標(biāo)。廣告系統(tǒng)的CTR預(yù)估在具體的數(shù)值上比推薦系統(tǒng)要求更高,比如推薦系統(tǒng)可能只需要知道A的CTR比B大就可以排序了,而廣告由于不是直接用CTR進(jìn)行排序,還加上了出價(jià),因此廣告系統(tǒng)不僅要知道A的CTR比B大,而且還需要知道A的CTR比B的CTR大多少。

再舉個(gè)“栗”子

如果廣告A:點(diǎn)擊率是5%,廣告B:點(diǎn)擊率也是5%,點(diǎn)擊價(jià)格也相同,該選擇廣告A還是廣告B?

點(diǎn)擊率相同,點(diǎn)擊價(jià)格也相同 ,得出ECPM也相同,該怎么選擇投放廣告A還是B呢?

此時(shí)就可以根據(jù)廣告屬性做針對(duì)性推薦,針對(duì)不同的人群,做合適的推薦。例如:廣告A是包,廣告B是游戲,可做針對(duì)性推薦。即:針對(duì)女人這一群體投放廣告A、針對(duì)男人這一群體投放廣告B,這樣則會(huì)提高總廣告收益率。

CTR模型是怎么得出結(jié)果的呢?

我們可以根據(jù)經(jīng)驗(yàn)判斷決定廣告點(diǎn)擊率的屬性:廣告行業(yè)、用戶年齡、用戶性別等。由此可分為三類屬性:

User:年齡、性別、收入、興趣、工作等。

AD items:類別、價(jià)格、創(chuàng)意、實(shí)用等。

Others:時(shí)間、投放位置、投放頻率、當(dāng)前熱點(diǎn)等。

這些決定屬性在CTR預(yù)估模型中都叫做特征,而CTR預(yù)估模型中有一重要過程“特征工程”,將能影響點(diǎn)擊率的特征找到并進(jìn)行處理,比如把特征變成0和1的二值化、把連續(xù)的特征離散化、把特征平滑化、向量化。這樣CTR模型相當(dāng)于是無數(shù)特征(x)的一個(gè)函數(shù),CTR=f(x1,x2,x3,x4,x5...),輸入歷史數(shù)據(jù)訓(xùn)練,不斷調(diào)整參數(shù)(超參數(shù)),模型根據(jù)輸入的數(shù)據(jù)不斷更新參數(shù)(權(quán)重),最終到迭代很多次,參數(shù)(權(quán)重)幾乎不變化。當(dāng)輸入新的數(shù)據(jù),就會(huì)預(yù)測(cè)該數(shù)據(jù)的結(jié)果,也就是點(diǎn)擊率了。

那么有沒有很好奇如何搭建并訓(xùn)練出一個(gè)好的CTR預(yù)估模型呢?

No.1、模型迭代過程

推薦系統(tǒng)這一場(chǎng)景常用的兩大分類:

CF-Based(協(xié)同過濾)、Content-Based(基于內(nèi)容的推薦)

協(xié)同過濾(collaborative ?ltering)就是指基于用戶的推薦,用戶A和B比較相似,那么A喜歡的B也可能喜歡。

基于內(nèi)容推薦是指物品item1和item2比較相似,那么喜歡item1的用戶多半也喜歡item2。

對(duì)于接下來的模型無論是傳統(tǒng)的機(jī)器學(xué)習(xí)還是結(jié)合現(xiàn)今火熱的深度學(xué)習(xí)模型都會(huì)針對(duì)場(chǎng)景需求構(gòu)建特征建模。

LR(Logistics Regression)==>

MLR(Mixed Logistic Regression)==>

LR+GBDT(Gradient Boost Decision Tree)==>

LR+DNN(Deep Neural Networks)即Wide&Deep==>

1.1、LR

所謂推薦也就離不開Rank這一問題,如何講不同的特征組通過一個(gè)表達(dá)式計(jì)算出分?jǐn)?shù)的高低并排序是推薦的核心問題。通過線性回歸的方式找到一組滿足這一規(guī)律的參數(shù),公式如下:


再通過sigmoid函數(shù)將輸出映射到(0,1)之間,得出二分類概率值。


LR模型一直是CTR預(yù)估的benchmark模型,原理通俗易懂、可解釋性強(qiáng)。但是當(dāng)特征與特征之間、特征與目標(biāo)之間存在非線性關(guān)系時(shí),模型效果就會(huì)大打折扣。因此模型十分依賴人們根據(jù)經(jīng)驗(yàn)提取、構(gòu)建特征。另外,LR模型不能處理組合特征,例如:年齡和性別的組合,不同年齡段不同性別對(duì)目標(biāo)的偏愛程度會(huì)不相同,但是模型無法自動(dòng)挖掘這一隱含信息,依賴人工根據(jù)經(jīng)驗(yàn)組合特征。這也直接使得它表達(dá)能力受限,基本上只能處理線性可分或近似線性可分的問題。

為了讓線性模型能夠?qū)W習(xí)到原始特征與擬合目標(biāo)之間的非線性關(guān)系,通常需要對(duì)原始特征做一些非線性轉(zhuǎn)換。常用的轉(zhuǎn)換方法包括:連續(xù)特征離散化、向量化、特征之間的交叉等。稍后會(huì)介紹為什么這樣處理。

1.2、MLR

它相當(dāng)于聚類+LR的形式。將X聚成m類,之后把每個(gè)類單獨(dú)訓(xùn)練一個(gè)LR。MLR相較于LR有更好的非線性表達(dá)能力,是LR的一種拓展。

我們知道softmax的公式:


將x進(jìn)行聚類,即得拓展之后的模型公式:


當(dāng)聚類數(shù)目m=1時(shí),退化為L(zhǎng)R。m越大,模型的擬合能力越強(qiáng),m根據(jù)具體訓(xùn)練數(shù)據(jù)分布來設(shè)置。

圖1:MLR 模型結(jié)構(gòu)

但是MLR與LR一樣,同樣需要人工特征工程處理,由于目標(biāo)函數(shù)是非凸函數(shù)(易陷入局部最優(yōu)解),需要預(yù)訓(xùn)練,不然可能會(huì)不收斂,得不到好的模型。

1.3、LR+GBDT

顧名思義LR模型和GBDT模型組合。GBDT可做回歸與分類,這個(gè)看自己的需求。在CTR預(yù)估這一任務(wù)中要使用的是回歸樹而非決策樹。梯度提升也就是朝著梯度下降的方向上建樹,通過不斷更新弱分類器,得到強(qiáng)分類器的過程。 每一子樹都是學(xué)習(xí)之前樹的結(jié)論和的殘差,通過最小化 log 損失函數(shù)找到最準(zhǔn)確的分支,直到所有葉子節(jié)點(diǎn)的值唯一 ,或者達(dá)到樹的深度達(dá)到預(yù)設(shè)值。如果某葉子節(jié)點(diǎn)上的值不唯一,計(jì)算平均值作為預(yù)測(cè)值輸出。

LR+GBDT:

Facebook 率先提出用GBDT模型解決LR模型的組合特征問題。特征工程分為兩部分,一部分特征通過GBDT模型訓(xùn)練,把每顆樹的葉子節(jié)點(diǎn)作為新特征,加入原始特征中,再用LR得到最終的模型。

GBDT模型能夠?qū)W習(xí)高階非線性特征組合,對(duì)應(yīng)樹的一條路徑(用葉子節(jié)點(diǎn)來表示)。通常用GBDT模型訓(xùn)練連續(xù)值特征、值空間不大(value種類較少)的特征,空間很大的特征在LR模型中訓(xùn)練。這樣就能把高階特征進(jìn)行組合,同時(shí)又能利用線性模型處理大規(guī)模稀疏特征。

圖2:LR+GBDT 模型結(jié)構(gòu)圖

1.4、LR+DNN(Wide&Deep)

先回想一下我們學(xué)習(xí)的過程。從出生時(shí)代,不斷學(xué)習(xí)歷史知識(shí),通過記憶達(dá)到見多識(shí)廣的效果。然后通過歷史知識(shí)泛化(generalize)到之前沒見過的。但是泛化的結(jié)果不一定都準(zhǔn)確。記憶(memorization)又可以修正泛化的規(guī)則(generalized rules),作為特殊去處理。這就是通過Memorization和Generalization的學(xué)習(xí)方式。

推薦系統(tǒng)需要解決兩個(gè)問題:

記憶能力: 比如通過歷史數(shù)據(jù)知道“喜歡吃水煮魚”的人也“喜歡吃回鍋肉”,當(dāng)輸入為“喜歡吃水煮魚”,推出“喜歡吃回鍋肉”。

泛化能力: 推斷在歷史數(shù)據(jù)中從未見過的情形,“喜歡吃水煮魚”,“喜歡吃回鍋肉”,推出喜歡吃川菜,進(jìn)而推薦出其他川菜。

但是,模型普遍都存在兩個(gè)問題:

a) 偏向于提取低階或者高階的組合特征,不能同時(shí)提取這兩種類型的特征。

b) 需要專業(yè)的領(lǐng)域知識(shí)來做特征工程。

線性模型結(jié)合深度神經(jīng)網(wǎng)絡(luò)為什么叫做wide and deep呢?

無論是線性模型、梯度下降樹、因子分解機(jī)模型,都是通過不斷學(xué)習(xí)歷史數(shù)據(jù)特征,來適應(yīng)新的數(shù)據(jù),預(yù)測(cè)出新數(shù)據(jù)的表現(xiàn)。這說明模型要具備一個(gè)基本特征記憶能力,也就是wide 部分。

但是當(dāng)輸入一些之前沒有學(xué)習(xí)過的數(shù)據(jù),此時(shí)模型表現(xiàn)卻不優(yōu)秀,不能根據(jù)歷史數(shù)據(jù),有機(jī)組合,推出新的正確結(jié)論。此時(shí)單單依賴記憶能力是不夠的。深度學(xué)習(xí)卻可以構(gòu)建多層隱層通過FC(全連接)的方式挖掘到特征與特征之間的深度隱藏的信息,來提高模型的泛化能力,也就是deep部分。將這兩部分的輸出通過邏輯回歸,得出預(yù)測(cè)類別。

圖3:Wide & Deep 模型結(jié)構(gòu)圖

它混合了一個(gè)線性模型(Wide part)和Deep模型(Deep part)。這兩部分模型需要不同的輸入,而Wide part部分的輸入,依舊依賴人工特征工程。本質(zhì)上是線性模型(左邊部分, Wide model)和DNN的融合(右邊部分,Deep Model)。

對(duì)于歷史數(shù)據(jù)特征保證一定的記憶能力,對(duì)于新的數(shù)據(jù)特征擁有推理泛化能力。較大地提高了預(yù)測(cè)的準(zhǔn)確率,這也是一次大膽的嘗試,在推薦系統(tǒng)中引入深度學(xué)習(xí),在之后的CTR模型發(fā)展中大多也都是按照此設(shè)計(jì)思路進(jìn)行的。

1.5、數(shù)據(jù)處理

CTR預(yù)估數(shù)據(jù)特點(diǎn):

a) 輸入中包含類別型和連續(xù)型數(shù)據(jù)。類別型數(shù)據(jù)需要one-hot(獨(dú)熱編碼),連續(xù)型數(shù)據(jù)可以先離散化再one-hot,也可以直接保留原值。

b) 維度非常高,特征值特別多。

c) 數(shù)據(jù)非常稀疏。如:city包含各種不同的地方。

d) 特征按照Field分組。如:city、brand、category等都屬于一個(gè)Field,或者將這些Field拆分為多個(gè)Fidld。

e) 正負(fù)樣本不均衡。點(diǎn)擊率一般都比較小,大量負(fù)樣本存在。

如何高效的提取這些組合特征?CTR預(yù)估重點(diǎn)在于學(xué)習(xí)組合特征。注意,組合特征包括二階、三階甚至更高階的,復(fù)雜的特征,網(wǎng)絡(luò)不太容易學(xué)習(xí)、表達(dá)。一般做法是人工設(shè)置相關(guān)知識(shí),進(jìn)行特征工程。但是這樣做會(huì)非常耗費(fèi)人力,另外人工引入知識(shí)也不能做到全面。

1.6、模型搭建

以Wide and Deep為例,介紹網(wǎng)絡(luò)的搭建。在tensorflow.estimator下有構(gòu)建好的API,使用方法如下:

Wide中不斷提到這樣一種變換用來生成組合特征:

tf.feature_column.categorical_column_with_vocabulary_list(file)()。知道所有的不同取值,而且取值不多??梢酝ㄟ^list或者file的形式,列出需要訓(xùn)練的value。

tf.feature_column.categorical_column_with_hash_bucket(),不知道所有不同取值,或者取值多。

通過hash的方式,生成對(duì)應(yīng)的hash_size個(gè)值,但是可能會(huì)出現(xiàn)哈希沖突的問題,一般不會(huì)產(chǎn)生什么影響。

tf.feature_column.numeric_column(),對(duì)number類型的數(shù)據(jù)進(jìn)行直接映射。一般會(huì)對(duì)number類型feature做歸一化,標(biāo)準(zhǔn)化。

tf.feature_column.bucketized_column(),分桶離散化構(gòu)造為sparse特征。這種做法的優(yōu)點(diǎn)是模型可解釋高,實(shí)現(xiàn)快速高效,特征重要度易于分析。特征分區(qū)間之后,每個(gè)區(qū)間上目標(biāo)(y)的分布可能是不同的,從而每個(gè)區(qū)間對(duì)應(yīng)的新特征在模型訓(xùn)練結(jié)束后都能擁有獨(dú)立的權(quán)重系數(shù)。特征離散化相當(dāng)于把線性函數(shù)變成了分段線性函數(shù),從而引入了非線性結(jié)構(gòu)。比如不同年齡段的用戶的行為模式可能是不同的,但是并不意味著年齡越大就對(duì)擬合目標(biāo)(比如,點(diǎn)擊率)的貢獻(xiàn)越大,因此直接把年齡作為特征值訓(xùn)練就不合適。而把年齡分段(分桶處理)后,模型就能夠?qū)W習(xí)到不同年齡段的用戶的不同偏好模式。

tf.feature_column.indicator_column(),離散類型數(shù)據(jù)轉(zhuǎn)換查找,將類別型數(shù)據(jù)進(jìn)行one-hot,稀疏變量轉(zhuǎn)換為稠密變量。

tf.feature_column.embedding_column(),(加深feature維度,將特征向量化,可使模型學(xué)到深層次信息),對(duì)于RNN中有tf.nn.embedding_lookup(),將文字信息轉(zhuǎn)為向量,具體算法可以自行查一下。

離散化的其他好處還包括對(duì)數(shù)據(jù)中的噪音有更好的魯棒性(異常值也落在一個(gè)劃分區(qū)間,異常值本身的大小不會(huì)過度影響模型預(yù)測(cè)結(jié)果);離散化還使得模型更加穩(wěn)定,特征值本身的微小變化(只有還落在原來的劃分區(qū)間)不會(huì)引起模型預(yù)測(cè)值的變化。

tf.feature_column.crossed_column(),構(gòu)建交叉類別,將兩個(gè)或者兩個(gè)以上的features根據(jù)hash值拼接,對(duì)hash_key(交叉類別數(shù))取余。特征交叉是另一種常用的引入非線性性的特征工程方法。通常CTR預(yù)估涉及到用戶、物品、上下文等幾方面的特征,有時(shí)某個(gè)單個(gè)feature對(duì)目標(biāo)判定的影響會(huì)較小,而多種類型的features組合在一起就能夠?qū)δ繕?biāo)的判定產(chǎn)生較大的影響。比如user的性別和item的類別交叉就能夠刻畫例如“女性偏愛女裝”,“男性喜歡男裝”的知識(shí)。交叉類別可以把領(lǐng)域知識(shí)(先驗(yàn)知識(shí))融入模型。

Deep部分,通過build_columns(),得到可分別得到wide 和deep部分,通過tf.estimator.DNNLinearCombinedClassifier(),可設(shè)置隱藏層層數(shù),節(jié)點(diǎn)數(shù),優(yōu)化方法(dnn中Adagrad,linear中Ftrl),dropout ,BN,激活函數(shù)等。將linear和dnn連接起來。將點(diǎn)擊率設(shè)置為lebel1,從經(jīng)驗(yàn)實(shí)測(cè)效果上說,理論原因這里就不贅述了。

將訓(xùn)練數(shù)據(jù)序列化為protobuf格式,加快io時(shí)間,設(shè)置batch_size、epoch等參數(shù)就可以訓(xùn)練模型了。

No.2、模型優(yōu)化

對(duì)于不同數(shù)據(jù),選用不同的features,不同的數(shù)據(jù)清理方式,模型效果也會(huì)有不同,通過測(cè)試集驗(yàn)證模型評(píng)價(jià)指標(biāo),對(duì)于CTR預(yù)估模型來說,AUC是關(guān)鍵指標(biāo)(稍后介紹)。同時(shí)監(jiān)測(cè)查準(zhǔn)(precision),查全率(recall),確定模型需要優(yōu)化的方向,對(duì)于正負(fù)不均衡情況還可以加大小樣本的權(quán)重系數(shù)。

一般來說,AUC指標(biāo)可以達(dá)到0.7-0.8。當(dāng)AUC在這個(gè)范圍時(shí),如果準(zhǔn)確率較低,說明模型效果還有待提高,可以調(diào)整隱藏層數(shù)目(3-5)層和節(jié)點(diǎn)數(shù)(2**n,具體看自己的features輸出維度),構(gòu)建組合特征,構(gòu)建交叉特征。學(xué)習(xí)率可設(shè)置一個(gè)稍微大點(diǎn)的初始值,然后設(shè)置逐漸衰減的學(xué)習(xí)率,加快收斂。優(yōu)化手段千變?nèi)f化,掌握其本質(zhì),在盡可能學(xué)習(xí)到更多的特征性避免過擬合。具體優(yōu)化優(yōu)化方法由模型的表現(xiàn)來決定。

No.3、模型評(píng)估

AUC(Area under Curve):Roc曲線下的面積,介于0.5和1之間。AUC作為數(shù)值可以直觀的評(píng)價(jià)分類器的好壞,值越大越好。

直觀理解就是:AUC是一個(gè)概率值,當(dāng)你隨機(jī)挑選一個(gè)正樣本以及負(fù)樣本,當(dāng)前的分類算法根據(jù)計(jì)算得到的Score值將這個(gè)正樣本排在負(fù)樣本前面的概率就是AUC值,AUC值越大,當(dāng)前分類算法越有可能將正樣本排在負(fù)樣本前面,從而能夠更好地分類。

下表是經(jīng)過調(diào)整后,不同算法實(shí)現(xiàn)的模型效果對(duì)比表:

圖4:模型效果對(duì)比表

不斷優(yōu)化后得出幾個(gè)模型的不同效果,將每一次廣告曝光按照預(yù)測(cè)的CTR從小到大排序,可以根據(jù)預(yù)測(cè)的CTR值根據(jù)ECPM公式,按照單位曝光量統(tǒng)計(jì)出預(yù)估的ECPM和真實(shí)的ECMP進(jìn)行比較,就可以知道預(yù)估的CTR值是否可靠了。正確預(yù)估CTR是為了把真正高CTR的廣告挑出并展示出來么,錯(cuò)誤地預(yù)估——把高的CTR低估或把低的CTR高估都會(huì)讓高的ECPM不會(huì)排在最前面。在實(shí)際的實(shí)踐過程中,CTR預(yù)測(cè)正確通常ECPM、CTR、收入這些指標(biāo)通常都會(huì)漲。

No.4、模型部署

通常對(duì)于AI算法模型都是通過GPU服務(wù)器部署模型,但是對(duì)于推薦系統(tǒng)類算法邏輯計(jì)算較多,在速度上反而沒有優(yōu)勢(shì),部署成本也比較高,經(jīng)濟(jì)性很差。所以大都通過CPU云服務(wù)器部署,但是速度又不夠理想。那么有沒有另外一種可能?

答案是肯定的,可以通過FPGA+CPU的方式,大型推薦系統(tǒng)的上線都是通過云端部署,同時(shí)用在線和離線方式更新模型。雪湖科技FPGA開發(fā)團(tuán)隊(duì)把以Wide and Deep為基礎(chǔ)網(wǎng)絡(luò)的模型移植到阿里云FPGA服務(wù)器F3(FPGA:賽靈思 VU9P)上,用戶可以通過鏡像文件部署。根據(jù)最近的更新數(shù)據(jù)顯示,模型精度損失可控制在十萬分之二。相較于CPU服務(wù)器,F(xiàn)PGA服務(wù)器的吞吐量提高了3~5倍。當(dāng)模型更新時(shí),通過雪湖科技提供的工具可直接載入模型參數(shù),可做到一鍵式更新模型參數(shù)。

No.5、CTR模型發(fā)展

Wide&Deep 雖然效果很好,但是隨著算法的不斷迭代基于Wide&Deep 模型思想,有很多新的模型被開發(fā)出來,基本思想是用FM、FFM代替LR部分,通過串聯(lián)或者并聯(lián)的方式與DNN部分組合成新的模型,例如FNN,PNN,DeepFM,DeepFFM,AFM,DeepCross等等,雪湖科技公司也致力于將所有CTR預(yù)估模型都完美兼容,在保證精度的前提下,增大吞吐量。

作者介紹:
本文作者為雪湖科技算法工程師 梅碧峰,現(xiàn)負(fù)責(zé)人工智能算法開發(fā)。在AI算法領(lǐng)域工作超過5年,喜歡戴著Sony降噪耳機(jī)埋頭研究各類算法模型。理想主義的現(xiàn)實(shí)工作者,致力于用算法解放人工,實(shí)現(xiàn)1+1>2的問題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1660

    文章

    22412

    瀏覽量

    636395
  • 賽靈思
    +關(guān)注

    關(guān)注

    33

    文章

    1798

    瀏覽量

    133441
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8553

    瀏覽量

    136962
  • 硬件加速
    +關(guān)注

    關(guān)注

    0

    文章

    33

    瀏覽量

    11428
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    FPGA硬件加速卡設(shè)計(jì)原理圖:1-基于Xilinx XCKU115的半高PCIe x8 硬件加速卡 PCIe半高 XCKU115-3-FLVF1924-E芯片

    FPGA硬件加速, PCIe半高卡, XCKU115, 光纖采集卡, 信號(hào)計(jì)算板, 硬件加速
    的頭像 發(fā)表于 02-12 09:52 ?393次閱讀
    <b class='flag-5'>FPGA</b><b class='flag-5'>硬件加速</b>卡設(shè)計(jì)原理圖:1-基于Xilinx XCKU115的半高PCIe x8 <b class='flag-5'>硬件加速</b>卡 PCIe半高 XCKU115-3-FLVF1924-E芯片

    工程師必入!288 元解鎖開發(fā)板

    做項(xiàng)目、練技術(shù)、備賽事卻找不到高性價(jià)比開發(fā)板?合眾恒躍重磅福利——ZYNQ系列開發(fā)板限時(shí)特惠,HZ-XC-7Z010-SP_EVM寵粉價(jià)僅需288元!
    的頭像 發(fā)表于 12-17 17:48 ?769次閱讀
    工程師必入!288 元解鎖<b class='flag-5'>賽</b><b class='flag-5'>靈</b><b class='flag-5'>思</b>開發(fā)板

    FPGA DSP原語(yǔ)使用方法

    在現(xiàn)代數(shù)字信號(hào)處理(DSP)應(yīng)用中,FPGA(現(xiàn)場(chǎng)可編程門陣列)憑借其高度并行性、可定制性和靈活性,已成為加速信號(hào)處理任務(wù)的核心硬件平臺(tái)之一。
    的頭像 發(fā)表于 12-10 10:32 ?5584次閱讀
    易<b class='flag-5'>靈</b><b class='flag-5'>思</b><b class='flag-5'>FPGA</b> DSP原語(yǔ)使用方法

    FPGA和GPU加速的視覺SLAM系統(tǒng)中特征檢測(cè)器研究

    特征檢測(cè)是SLAM系統(tǒng)中常見但耗時(shí)的模塊,隨著SLAM技術(shù)日益廣泛應(yīng)用于無人機(jī)等功耗受限平臺(tái),其效率優(yōu)化尤為重要。本文首次針對(duì)視覺SLAM流程開展硬件加速特征檢測(cè)器的對(duì)比研究,通過對(duì)比現(xiàn)代SoC平臺(tái)
    的頭像 發(fā)表于 10-31 09:30 ?668次閱讀
    <b class='flag-5'>FPGA</b>和GPU<b class='flag-5'>加速</b>的視覺SLAM系統(tǒng)中特征檢測(cè)器研究

    復(fù)雜的軟件算法硬件IP核的實(shí)現(xiàn)

    硬件加速 IP 核 HDL 文件的生成分為兩個(gè)步驟,首先根據(jù)將要接入的 SOPC 系統(tǒng)的總線的特性,將算法做適當(dāng)?shù)陌b、暴露相關(guān)的接口以及調(diào)用方法,即適配總線接口。不同的 SOPC 總線有不同的時(shí)序以及
    發(fā)表于 10-30 07:02

    常用硬件加速的方法

    之前總結(jié)了一些常用硬件加速方法 1)面積換速度:也就是串轉(zhuǎn)并運(yùn)算,可以多個(gè)模塊同時(shí)計(jì)算; 2)時(shí)間換空間:時(shí)序收斂下通過頻率提高性能,雖然面積可能稍微加大點(diǎn); 3)流水線操作:流水線以面積換性能,以
    發(fā)表于 10-29 06:20

    硬件加速模塊的時(shí)鐘設(shè)計(jì)

    硬件加速模塊需要四個(gè)時(shí)鐘,分別為clk_l , clk_r , clk_c , clk_n 。 clk_l : 整個(gè)硬件加速模塊為了最大化的節(jié)約時(shí)間成本而采用了類似處理器的流水線設(shè)計(jì),具體上將每一層
    發(fā)表于 10-23 07:28

    如何驗(yàn)證硬件加速是否真正提升了通信協(xié)議的安全性?

    驗(yàn)證硬件加速是否真正提升通信協(xié)議的安全性,需從 安全功能正確性、抗攻擊能力增強(qiáng)、安全性能適配、合規(guī)一致性 等核心維度展開,結(jié)合實(shí)驗(yàn)室測(cè)試與真實(shí)場(chǎng)景驗(yàn)證,避免 “硬件參與即安全提升” 的表面判斷。以下
    的頭像 發(fā)表于 08-27 10:16 ?1145次閱讀
    如何驗(yàn)證<b class='flag-5'>硬件加速</b>是否真正提升了通信協(xié)議的安全性?

    有哪些方法可以確保硬件加速與通信協(xié)議的兼容性?

    ? 確保硬件加速與通信協(xié)議的兼容性,核心是從 硬件選型、協(xié)議標(biāo)準(zhǔn)匹配、軟硬件接口適配、全場(chǎng)景測(cè)試驗(yàn)證 四個(gè)維度建立閉環(huán),避免因硬件功能缺失、接口不兼容或協(xié)議特性支持不全導(dǎo)致的性能損耗、
    的頭像 發(fā)表于 08-27 10:07 ?1096次閱讀

    如何利用硬件加速提升通信協(xié)議的安全性?

    產(chǎn)品實(shí)拍圖 利用硬件加速提升通信協(xié)議安全性,核心是通過 專用硬件模塊或可編程硬件 ,承接軟件層面難以高效處理的安全關(guān)鍵操作(如加密解密、認(rèn)證、密鑰管理等),在提升性能的同時(shí),通過硬件級(jí)
    的頭像 發(fā)表于 08-27 09:59 ?988次閱讀
    如何利用<b class='flag-5'>硬件加速</b>提升通信協(xié)議的安全性?

    特威第二屆機(jī)器視覺大會(huì)即將舉辦

    去年盛夏,首屆易特威機(jī)器視覺技術(shù)大會(huì)點(diǎn)燃了行業(yè)創(chuàng)新的火花。易驚艷亮相的 TJ375 FPGA
    的頭像 發(fā)表于 08-13 09:53 ?1104次閱讀

    創(chuàng)“芯”舞臺(tái)!爾芯邀您挑戰(zhàn)2025 EDA精英

    號(hào)角吹響,征程再啟!備受矚目的“2025中國(guó)研究生創(chuàng)芯大賽·EDA精英挑戰(zhàn)”現(xiàn)已正式拉開帷幕。作為多年深耕此領(lǐng)域的核心出題企業(yè),爾芯榮幸發(fā)布本屆題——《支持重新組網(wǎng)的多FPGA
    的頭像 發(fā)表于 08-12 17:16 ?2084次閱讀
    創(chuàng)“芯”舞臺(tái)!<b class='flag-5'>思</b>爾芯邀您挑戰(zhàn)2025 EDA精英<b class='flag-5'>賽</b>

    與南京大學(xué)集成電路學(xué)院暑期課程圓滿結(jié)課

    近日,由國(guó)產(chǎn)FPGA領(lǐng)軍企業(yè)易與南京大學(xué)集成電路學(xué)院聯(lián)合舉辦的“深度學(xué)習(xí)與硬件加速”暑期課程圓滿結(jié)課。本次課程為期5天(7月7日至7月11日),面向大三本科生,旨在通過理論與實(shí)踐結(jié)
    的頭像 發(fā)表于 07-17 11:33 ?2794次閱讀

    基于FPGA的壓縮算法加速實(shí)現(xiàn)

    本設(shè)計(jì)中,計(jì)劃實(shí)現(xiàn)對(duì)文件的壓縮及解壓,同時(shí)優(yōu)化壓縮中所涉及的信號(hào)處理和計(jì)算密集型功能,實(shí)現(xiàn)對(duì)其的加速處理。本設(shè)計(jì)的最終目標(biāo)是證明在充分并行化的硬件體系結(jié)構(gòu) FPGA 上實(shí)現(xiàn)該算法時(shí),可
    的頭像 發(fā)表于 07-10 11:09 ?2397次閱讀
    基于<b class='flag-5'>FPGA</b>的壓縮<b class='flag-5'>算法</b><b class='flag-5'>加速</b>實(shí)現(xiàn)

    2025 FPGA技術(shù)研討會(huì)北京站圓滿結(jié)束

    2025FPGA技術(shù)研討會(huì)北京站于4月10日在北京麗亭華苑酒店圓滿結(jié)束!本次研討會(huì)吸引了來自全國(guó)各地的行業(yè)專家、工程師及企業(yè)代表踴躍參與,現(xiàn)場(chǎng)座無虛席,氣氛熱烈。
    的頭像 發(fā)表于 04-16 09:14 ?1365次閱讀