chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

全面介紹因果推斷方向的基礎(chǔ)方法

深度學(xué)習(xí)自然語言處理 ? 來源:機器學(xué)習(xí)算法與自然語言 ? 作者:陳歪歪 ? 2021-05-26 09:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

寫在前面

這一部分主要介紹的是因果推斷方向的基礎(chǔ)方法,后面會對這個方向前沿的論文和方向做一些基礎(chǔ)介紹,這些論文和方法有些我進(jìn)行了精讀或者實現(xiàn)。

有些只是粗略地了解了大概的主旨,但是會力求講解得盡量清楚明白,這里的介紹不分先后,只是對不同方法進(jìn)行介紹,不同領(lǐng)域在早期和近期都有相關(guān)新論文出現(xiàn),有任何問題和建議歡迎評論和私聊。

meta learning

這個方向使用基礎(chǔ)的機器學(xué)習(xí)方法去首先Estimate the conditional mean outcome E[Y|X = x](CATE),然后 Derive the CATE estimator based on the difference of results obtained from step 1,我們常見的uplift model里面one model和two model方法其實也是屬于meta learning,在這個領(lǐng)域one model方法是所謂的S-learner,two model方法是所謂的T-learner

T-learner & S-learner

da194014-bd58-11eb-9e57-12bb97331649.png

這里不多贅述這兩種方法,簡單來講,T-learner就是用分別的兩個base learner去模擬干預(yù)組的outcome和非干預(yù)組的outcome,優(yōu)點在于能夠很好地區(qū)分干預(yù)組和非干預(yù)組,缺點則在于容易出現(xiàn)兩個模型的Bias方向不一致,形成誤差累積。

使用時需要針對兩個模型打分分布做一定校準(zhǔn),S-learner是將treatment作為特征,干預(yù)組和非干預(yù)組一起訓(xùn)練,解決了bias不一致的問題,但是如果本身X的high dimension可能會導(dǎo)致treatment丟失效果。而且這兩種方法更偏向于naive的方法,很多其他的問題比如干預(yù)組和非干預(yù)組樣本不均衡的問題、selection bias的問題都未解決。

2. X-learner

在這兩種方法的基礎(chǔ)之上還有《Metalearners for estimating heterogeneous treatment effects using machine learning pnas.org/content/116/10》這篇論文中介紹的X-learner

首先跟T-learner一樣,用base learner去預(yù)估干預(yù)組和非干預(yù)組的response

da48601a-bd58-11eb-9e57-12bb97331649.png

然后定義

da96615c-bd58-11eb-9e57-12bb97331649.jpg

這里D的定義為response的預(yù)估值和實際值的差值,然后我們用一個estimator去預(yù)估這里的D,最終我們的CATE就是這兩個預(yù)估出來的τ的加權(quán)和。

dad604d8-bd58-11eb-9e57-12bb97331649.png

論文中用圖來解釋了這么做的原因,如下:

dae4b3f2-bd58-11eb-9e57-12bb97331649.jpg

如上圖所示,如果我們的干預(yù)組和非干預(yù)組樣本數(shù)量不均衡,如圖A的藍(lán)色,那么在預(yù)估藍(lán)色的base learner時會出現(xiàn)無法擬合到中間上凸部分的情況,最終得到的treatment effect就是在中間部分下凸的結(jié)果。

但是如果我們使用了imputed treatment effect,會得到C中虛線的均衡結(jié)果。

論文中還提到了自己的實驗,實驗效果總結(jié)來看,如果treat和不treat的數(shù)據(jù)量差別比較大的時候,X learner效果特別好,但是如果CATE接近0的時候,X learner效果不如S learner,比T learner好,make sense的。

3. 總結(jié)性論文

meta learning的方法有非常多,這里只是提到較為經(jīng)典的三種,其他meta learning的方法比如R-learner有點老了,這里不再介紹,在《Transfer Learning for Estimating Causal Effects using Neural Networks arxiv.org/abs/1808.0780》中比較有意思的是提到了很多方法的方案。

包括傳統(tǒng)藝能S-learner,T-learner,X-learner和比如warm start T-learner、joint training等等,有興趣可以看看。

representation learning

表示學(xué)習(xí)對于因果推斷其實算是非常自然的想法,本身由于selection bias的存在,導(dǎo)致treament group和control group的人群自帶偏差,而類似S-learner的方法又會使得treat的作用丟失,那么將人群embedding中并盡可能消除bias和保存treat的作用就非常重要了。

BNN & BLR

比較經(jīng)典的論文有BNN、BLR《Learning Representations for Counterfactual Inference arxiv.org/abs/1605.0366》,整體的算法如圖:

db1325e8-bd58-11eb-9e57-12bb97331649.jpg

其中B指的是loss:

db615a24-bd58-11eb-9e57-12bb97331649.png

loss包含了三部分:事實數(shù)據(jù)的誤差+和與i最近的j的反事實數(shù)據(jù)的誤差和事實數(shù)據(jù)+反事實數(shù)據(jù)的分布差異,那我們是怎么學(xué)習(xí)φ的呢?

一個方法是對于特征進(jìn)行選擇BLR,在embedding層只有一層,更加白盒,相當(dāng)于特征篩選,只保留在treatment group和control group差距較小的特征。

db9877e8-bd58-11eb-9e57-12bb97331649.jpg

另一個方法是深度的方法BNN,embedding后整體的loss加入分布的差異。

dba8cb66-bd58-11eb-9e57-12bb97331649.png

2. TARNet

與這篇論文很相似的論文包括TARNet《Estimating individual treatment effect:generalization bounds and algorithms arxiv.org/abs/1606.0397》,這篇文章整體的思路跟BNN那篇有點像,說到了BNN那篇的問題。

這里面講了BLR的兩個缺點,首先它需要一個兩步的優(yōu)化(優(yōu)化φ和優(yōu)化y),其次如果如果φ的維度很高的話,t的重要性會被忽略掉,挺有道理的,但感覺跟那篇唯一的區(qū)別就是解決了一下treat和control組的sample數(shù)量不均衡的問題,所以火速看了一下就過了

loss的計算為:

dbcf74e6-bd58-11eb-9e57-12bb97331649.jpg

可以看出是在上篇論文的基礎(chǔ)上增加了ω的加權(quán),去除了樣本不均衡的問題。整體的算法步驟如下:

dbfef6da-bd58-11eb-9e57-12bb97331649.jpg

把兩步走的優(yōu)化變?yōu)榱送瑫r優(yōu)化,雖然優(yōu)化看起來比較微小,但如果大家實際跑一下IHDP數(shù)據(jù)集的話會發(fā)現(xiàn)提升還是挺明顯的。

3. CFR

還有一篇論文是在TARNet之上進(jìn)行優(yōu)化的,《Counter Factual Regression with Importance Sampling Weights https://www.ijcai.org/Proceedings/2019/0815.pdf》而本文的改進(jìn)點也在ω上,不除以p(t),而是用一個網(wǎng)絡(luò)學(xué)習(xí)了p(t|x),除以p(t|x)

dc1386f4-bd58-11eb-9e57-12bb97331649.png

作者將其簡化為

dc25abcc-bd58-11eb-9e57-12bb97331649.png

可以用任何的網(wǎng)絡(luò)去擬合第二項,整體的過程為:

dc90d226-bd58-11eb-9e57-12bb97331649.jpg

4. ACE

還有一篇論文講到了另一個角度《Adaptively Similarity-preserved Representation Learning for Individual Treatment Effect Estimation cs.virginia.edu/~mh6ck/》

這篇主要的思想希望在representation之后能夠盡可能地保留local similarity,用一個toy example來說如下:

dca417b4-bd58-11eb-9e57-12bb97331649.jpg

整體的框架如圖:fprop(x)是提前訓(xùn)練好的傾向性得分function

dcb13f0c-bd58-11eb-9e57-12bb97331649.png

整體希望representation之前用x計算出傾向性得分相近的兩個個體,representation之后,representation之間的距離還是相近,把最重要的部分貼下來如下:

dd13e58a-bd58-11eb-9e57-12bb97331649.jpg

其中Q是Ri和Rj的聯(lián)合概率(R是representation),P是xi和xj的聯(lián)合概率,similarity preserving loss就是Q和P的KL散度,其中S的函數(shù)如下:

dd659c04-bd58-11eb-9e57-12bb97331649.png

整體的loss包括正常的imbalance loss:

dd710396-bd58-11eb-9e57-12bb97331649.png

Factual y的分類或者回歸loss:

dd7bd2d0-bd58-11eb-9e57-12bb97331649.png

還有similarity preserving loss,總的loss function就是:

dd9033e2-bd58-11eb-9e57-12bb97331649.png

5. SITE

還有一篇比較類似思想的論文是SITE《Representation Learning for Treatment Effect Estimation from Observational Data papers.nips.cc/paper/75》但這篇論文我沒有非常認(rèn)真地讀,來自NIPS,也是非常經(jīng)典的一篇,說的主要是普通的representation learning的方法考慮了全局的分布信息。

但是沒有考慮用戶間的局部相似性,然后KNN的方法考慮了局部相似性,但是忽略了全局信息,這里面用了三元triplet pairs的方法選擇三個對,用的是傾向性得分,傾向性得分在中間的一對,傾向性得分接近1的treat unit,傾向性得分接近0的control group,有興趣的同學(xué)可以自己看一下。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8553

    瀏覽量

    136954
  • BNN
    BNN
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    2812
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    OPi 6Plus全面適配OpenClaw

    引爆AI智能體時代!OPi 6Plus全面適配OpenClaw 你的AI助手,昨天還在幫你查資料,今天已經(jīng)能自己寫代碼、回郵件,甚至計劃“賺錢”給自己升級裝備了——這不是科幻,而是OpenClaw
    發(fā)表于 02-06 20:00

    [企業(yè)新聞]堅定方向 持續(xù)改進(jìn)

    - 記見合八方管理數(shù)字化系統(tǒng)成功上線 近日,見合八方的生產(chǎn)管理與市場管理數(shù)字化系統(tǒng)成功上線實施。這不僅是公司本年度全面管理提升工作的重要階段性成果,更是對年初確立的 “堅定方向,持續(xù)改進(jìn)” 發(fā)展理念
    的頭像 發(fā)表于 11-28 16:09 ?249次閱讀

    全網(wǎng)最全面介紹拼多多API接口指南

    ? ?在電商領(lǐng)域,拼多多作為領(lǐng)先的平臺,提供了豐富的API接口,幫助開發(fā)者實現(xiàn)商品管理、訂單處理、用戶交互等功能。本文將從零開始,全面介紹拼多多API的使用方法、核心接口、調(diào)用示例和注意事項,確保您
    的頭像 發(fā)表于 10-29 16:07 ?953次閱讀
    全網(wǎng)最<b class='flag-5'>全面</b><b class='flag-5'>介紹</b>拼多多API接口指南

    全網(wǎng)最全面介紹1688API接口指南

    ? 1688是阿里巴巴集團旗下的B2B批發(fā)平臺,為企業(yè)和個人提供海量商品資源。其API接口允許開發(fā)者將1688的功能集成到自有系統(tǒng)中,實現(xiàn)自動化商品搜索、訂單管理、數(shù)據(jù)同步等。本指南將全面介紹
    的頭像 發(fā)表于 10-29 15:22 ?1086次閱讀
    全網(wǎng)最<b class='flag-5'>全面</b><b class='flag-5'>介紹</b>1688API接口指南

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+內(nèi)容總覽

    ,其中第一章是概論,主要介紹大模型浪潮下AI芯片的需求與挑戰(zhàn)。第二章和第三章分別介紹實現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法和架構(gòu)。以及一些新型的算法和思路。第四章是全面
    發(fā)表于 09-05 15:10

    ANSA中CFD網(wǎng)格細(xì)化方法

    在上一篇文章中介紹了CFD網(wǎng)格細(xì)化方法之Size Field功能,在本篇文章中我們將繼續(xù)介紹其他CFD網(wǎng)格細(xì)化方法
    的頭像 發(fā)表于 08-06 15:07 ?4098次閱讀
    ANSA中CFD網(wǎng)格細(xì)化<b class='flag-5'>方法</b>

    基于LabVIEW的鼠標(biāo)滑動方向檢測教程

    本篇教程源于一位客戶的真實需求,需要LabVIEW能夠檢測到鼠標(biāo)滑動的方向,然后通過判斷滑動方向處理后續(xù)的功能。
    的頭像 發(fā)表于 07-30 13:51 ?836次閱讀
    基于LabVIEW的鼠標(biāo)滑動<b class='flag-5'>方向</b>檢測教程

    AI智能體的技術(shù)應(yīng)用與未來圖景

    深度學(xué)習(xí)與邏輯推理,實現(xiàn)復(fù)雜情境的語義解析與因果推斷;行動層依托強化學(xué)習(xí)框架驅(qū)動自主決策鏈,形成感知-決策-執(zhí)行的閉環(huán)能力。這種架構(gòu)演進(jìn)使智能體具備了環(huán)境動態(tài)響應(yīng)、多目標(biāo)優(yōu)化決策和自主行為進(jìn)化三位一體的核心能力
    的頭像 發(fā)表于 07-24 11:04 ?991次閱讀

    無速度傳感器感應(yīng)電機控制系統(tǒng)轉(zhuǎn)速辨識方法研究

    摘 要:無速度傳感器感應(yīng)電機控制技術(shù)已成為近年的研究熱點,轉(zhuǎn)逸估計是無速度傳感器感應(yīng)電機控制技術(shù)的核心問題。在此對無速度傳感器感應(yīng)電機轉(zhuǎn)速辦識技術(shù)進(jìn)行了介紹,分析了幾種比較典型的轉(zhuǎn)速解識方法的理論
    發(fā)表于 07-09 14:23

    請問如何優(yōu)化OpenVINO?工具套件中的內(nèi)存使用?

    運行OpenVINO?推斷時找不到優(yōu)化內(nèi)存使用情況的方法。
    發(fā)表于 06-25 06:56

    你知道什么是“二極管發(fā)言”嗎?

    “二極管發(fā)言”是一個網(wǎng)絡(luò)流行語,用來形容一種非常極端、非黑即白、缺乏辯證思維的言論和思維方式。 這個比喻來源于電子元件中的 二極管 : 單向?qū)щ娦裕?二極管只允許電流從一個方向通過,從另一個方向
    發(fā)表于 06-11 09:47

    數(shù)字IC設(shè)計:方法、技巧與實踐

    設(shè)計的流程逐步介紹前端設(shè)計需要的知識。其中第3章為構(gòu)架設(shè)計,比較詳盡地介紹了構(gòu)架設(shè)計的任務(wù),一些應(yīng)當(dāng)考慮的問題和構(gòu)架設(shè)計的方法。第4章是RTL設(shè)計與仿真。首先介紹的是一些RTL的設(shè)計規(guī)
    發(fā)表于 05-28 16:06

    推斷補貼率超700%!美國欲制裁中國電池材料公司

    反補貼調(diào)查” 裁定公告中,美國宣稱,兩家中國企業(yè)因未充分配合調(diào)查,依據(jù) “不利推定事實”,推斷其補貼率超過 700%,而其他中國企業(yè)補貼率則為 6.55% 。 ? 據(jù)報道,美國發(fā)起的 “對原產(chǎn)于中國的活性陽極材料反補貼調(diào)查” 起始于 2024
    的頭像 發(fā)表于 05-25 02:01 ?3395次閱讀
    <b class='flag-5'>推斷</b>補貼率超700%!美國欲制裁中國電池材料公司

    RCD測試全解析:原理、方法、問題與發(fā)展

    本文詳細(xì)介紹了剩余電流動作保護(hù)器(RCD)的概述、測試原理與標(biāo)準(zhǔn)、測試方法、常見問題與解決方案、高級測試技術(shù)、現(xiàn)場測試注意事項以及未來發(fā)展趨勢。內(nèi)容涵蓋RCD的核心功能、常見類型、測試目的、國際
    的頭像 發(fā)表于 05-14 14:24 ?4386次閱讀

    【「芯片通識課:一本書讀懂芯片技術(shù)」閱讀體驗】圖文并茂,全面詳實,值得閱讀的芯片科普書

    的序言和推薦語,對本書的評價都很高,也可以看到本書的主要特點,比如濃縮重要知識,全面,通俗易懂,插圖生動,圖文并茂,從這里也可以看出本書是值得一讀的。 前言中可以看到作者介紹了本書的來源,即公眾號
    發(fā)表于 03-27 16:07