chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于機(jī)器學(xué)習(xí)模型8個(gè)經(jīng)過(guò)證實(shí)準(zhǔn)確率的方法

454398 ? 來(lái)源:Datartisan數(shù)據(jù)工匠 ? 作者:王鵬宇翻譯 ? 2020-09-14 16:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

模型的開發(fā)周期有多個(gè)不同的階段,從數(shù)據(jù)收集開始直到模型建立。不過(guò),在通過(guò)探索數(shù)據(jù)來(lái)理解(變量的)關(guān)系之前,建議進(jìn)行假設(shè)生成(hypothesis generation)步驟。我認(rèn)為,這是預(yù)測(cè)建模過(guò)程中最被低估的一個(gè)步驟。

花時(shí)間思考要回答的問(wèn)題以及獲取領(lǐng)域知識(shí)也很重要。這有什么幫助呢?它會(huì)幫助你隨后建立更好的特征集,不被當(dāng)前的數(shù)據(jù)集誤導(dǎo)。這是改善模型正確率的一個(gè)重要環(huán)節(jié)。

在這個(gè)階段,你應(yīng)該對(duì)問(wèn)題進(jìn)行結(jié)構(gòu)化思考,即進(jìn)行一個(gè)把此問(wèn)題相關(guān)的所有可能的方面納入考慮范圍的思考過(guò)程。

現(xiàn)在讓我們挖掘得更深入一些。讓我們看看這些已被證實(shí)的,用于改善模型準(zhǔn)確率的方法。

1. 增加更多數(shù)據(jù)

持有更多的數(shù)據(jù)永遠(yuǎn)是個(gè)好主意。相比于去依賴假設(shè)和弱相關(guān),更多的數(shù)據(jù)允許數(shù)據(jù)進(jìn)行“自我表達(dá)”。數(shù)據(jù)越多,模型越好,正確率越高。

我明白,有時(shí)無(wú)法獲得更多數(shù)據(jù)。比如,在數(shù)據(jù)科學(xué)競(jìng)賽中,訓(xùn)練集的數(shù)據(jù)量是無(wú)法增加的。但對(duì)于企業(yè)項(xiàng)目,我建議,如果可能的話,去索取更多數(shù)據(jù)。這會(huì)減少由于數(shù)據(jù)集規(guī)模有限帶來(lái)的痛苦。

2. 處理缺失值和異常值

訓(xùn)練集中缺失值與異常值的意外出現(xiàn),往往會(huì)導(dǎo)致模型正確率低或有偏差。這會(huì)導(dǎo)致錯(cuò)誤的預(yù)測(cè)。這是由于我們沒(méi)能正確分析目標(biāo)行為以及與其他變量的關(guān)系。所以處理好缺失值和異常值很重要。

仔細(xì)看下面一幅截圖。在存在缺失值的情況下,男性和女性玩板球的概率相同。但如果看第二張表(缺失值根據(jù)稱呼“Miss”被填補(bǔ)以后),相對(duì)于男性,女性玩板球的概率更高。

左側(cè):缺失值處理前;右側(cè):缺失值處理后

從上面的例子中,我們可以看出缺失值對(duì)于模型準(zhǔn)確率的不利影響。所幸,我們有各種方法可以應(yīng)對(duì)缺失值和異常值:

1. 缺失值:對(duì)于連續(xù)變量,可以把缺失值替換成平均值、中位數(shù)、眾數(shù)。對(duì)于分類變量,可以把變量作為一個(gè)特殊類別看待。你也可以建立模型預(yù)測(cè)缺失值。KNN為處理缺失值提供了很好的方法。想了解更多這方面內(nèi)容,推薦閱讀《Methods to deal and treat missing values》。

2. 異常值:你可以刪除這些條目,進(jìn)行轉(zhuǎn)換,分箱。如同缺失值,你也可以對(duì)異常值進(jìn)行區(qū)別對(duì)待。想了解更多這方面內(nèi)容,推薦閱讀《How to detect Outliers in your dataset and treat them?》。

3. 特征工程學(xué)

這一步驟有助于從現(xiàn)有數(shù)據(jù)中提取更多信息。新信息作為新特征被提取出來(lái)。這些特征可能會(huì)更好地解釋訓(xùn)練集中的差異變化。因此能改善模型的準(zhǔn)確率。

假設(shè)生成對(duì)特征工程影響很大。好的假設(shè)能帶來(lái)更好的特征集。這也是我一直建議在假設(shè)生成上花時(shí)間的原因。特征工程能被分為兩個(gè)步驟:

① 特征轉(zhuǎn)換:許多場(chǎng)景需要進(jìn)行特征轉(zhuǎn)換:

A) 把變量的范圍從原始范圍變?yōu)閺?0 到 1 。這通常被稱作數(shù)據(jù)標(biāo)準(zhǔn)化。比如,某個(gè)數(shù)據(jù)集中第一個(gè)變量以米計(jì)算,第二個(gè)變量是厘米,第三個(gè)是千米,在這種情況下,在使用任何算法之前,必須把數(shù)據(jù)標(biāo)準(zhǔn)化為相同范圍。

B) 有些算法對(duì)于正態(tài)分布的數(shù)據(jù)表現(xiàn)更好。所以我們需要去掉變量的偏向。對(duì)數(shù),平方根,倒數(shù)等方法可用來(lái)修正偏斜。

C) 有些時(shí)候,數(shù)值型的數(shù)據(jù)在分箱后表現(xiàn)更好,因?yàn)檫@同時(shí)也處理了異常值。數(shù)值型數(shù)據(jù)可以通過(guò)把數(shù)值分組為箱變得離散。這也被稱為數(shù)據(jù)離散化。

② 創(chuàng)建新特征:從現(xiàn)有的變量中衍生出新變量被稱為特征創(chuàng)建。這有助于釋放出數(shù)據(jù)集中潛藏的關(guān)系。比如,我們想通過(guò)某家商店的交易日期預(yù)測(cè)其交易量。在這個(gè)問(wèn)題上日期可能和交易量關(guān)系不大,但如果研究這天是星期幾,可能會(huì)有更高的相關(guān)。在這個(gè)例子中,某個(gè)日期是星期幾的信息是潛在的。我們可以把這個(gè)信息提取為新特征,優(yōu)化模型。

4. 特征選擇

特征選擇是尋找眾多屬性的哪個(gè)子集合,能夠最好的解釋目標(biāo)變量與各個(gè)自變量的關(guān)系的過(guò)程。

你可以根據(jù)多種標(biāo)準(zhǔn)選取有用的特征,例如:

所在領(lǐng)域知識(shí):根據(jù)在此領(lǐng)域的經(jīng)驗(yàn),可以選出對(duì)目標(biāo)變量有更大影響的變量。

可視化:正如這名字所示,可視化讓變量間的關(guān)系可以被看見,使特征選擇的過(guò)程更輕松。

統(tǒng)計(jì)參數(shù):我們可以考慮 p 值,信息價(jià)值(information values)和其他統(tǒng)計(jì)參數(shù)來(lái)選擇正確的參數(shù)。

PCA:這種方法有助于在低維空間表現(xiàn)訓(xùn)練集數(shù)據(jù)。這是一種降維技術(shù)。 降低數(shù)據(jù)集維度還有許多方法:如因子分析、低方差、高相關(guān)、前向后向變量選擇及其他。

5. 使用多種算法

使用正確的機(jī)器學(xué)習(xí)算法是獲得更高準(zhǔn)確率的理想方法。但是說(shuō)起來(lái)容易做起來(lái)難。

這種直覺來(lái)自于經(jīng)驗(yàn)和不斷嘗試。有些算法比其他算法更適合特定類型數(shù)據(jù)。因此,我們應(yīng)該使用所有有關(guān)的模型,并檢測(cè)其表現(xiàn)。

來(lái)源:Scikit-Learn 算法選擇圖

6. 算法的調(diào)整

我們都知道機(jī)器學(xué)習(xí)算法是由參數(shù)驅(qū)動(dòng)的。這些參數(shù)對(duì)學(xué)習(xí)的結(jié)果有明顯影響。參數(shù)調(diào)整的目的是為每個(gè)參數(shù)尋找最優(yōu)值,以改善模型正確率。要調(diào)整這些參數(shù),你必須對(duì)它們的意義和各自的影響有所了解。你可以在一些表現(xiàn)良好的模型上重復(fù)這個(gè)過(guò)程。

例如,在隨機(jī)森林中,我們有 max_features, number_trees, random_state, oob_score 以及其他參數(shù)。優(yōu)化這些參數(shù)值會(huì)帶來(lái)更好更準(zhǔn)確的模型。

想要詳細(xì)了解調(diào)整參數(shù)帶來(lái)的影響,可以查閱《Tuning the parameters of your Random Forest model》。下面是隨機(jī)森林算法在scikit learn中的全部參數(shù)清單:

RandomForestClassifier(n_estimators=10, criterion='gini', max_depth=None,min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None,bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False,class_weight=None)

7. 集成模型

在數(shù)據(jù)科學(xué)競(jìng)賽獲勝方案中最常見的方法。這個(gè)技術(shù)就是把多個(gè)弱模型的結(jié)果組合在一起,獲得更好的結(jié)果。它能通過(guò)許多方式實(shí)現(xiàn),如:
? Bagging (Bootstrap Aggregating)
? Boosting

想了解更多這方面內(nèi)容,可以查閱《Introduction to ensemble learning》。

使用集成方法改進(jìn)模型正確率永遠(yuǎn)是個(gè)好主意。主要有兩個(gè)原因:
① 集成方法通常比傳統(tǒng)方法更復(fù)雜;
② 傳統(tǒng)方法提供好的基礎(chǔ),在此基礎(chǔ)上可以建立集成方法。

注意!

到目前為止,我們了解了改善模型準(zhǔn)確率的方法。但是,高準(zhǔn)確率的模型不一定(在未知數(shù)據(jù)上)有更好的表現(xiàn)。有時(shí),模型準(zhǔn)確率的改善是由于過(guò)度擬合。

8. 交叉驗(yàn)證

如果想解決這個(gè)問(wèn)題,我們必須使用交叉驗(yàn)證技術(shù)(cross validation)。交叉驗(yàn)證是數(shù)據(jù)建模領(lǐng)域最重要的概念之一。它是指,保留一部分?jǐn)?shù)據(jù)樣本不用來(lái)訓(xùn)練模型,而是在完成模型前用來(lái)驗(yàn)證。

這種方法有助于得出更有概括性的關(guān)系。想了解更多有關(guān)交叉檢驗(yàn)的內(nèi)容,建議查閱《Improve model performance using cross validation》。

結(jié)語(yǔ)

預(yù)測(cè)建模的過(guò)程令人疲憊。但是,如果你能靈活思考,就可以輕易勝過(guò)其他人。簡(jiǎn)單地說(shuō),多考慮上面這 8 個(gè)步驟。獲得數(shù)據(jù)集以后,遵循這些被驗(yàn)證過(guò)的方法,你就一定會(huì)得到穩(wěn)健的機(jī)器學(xué)習(xí)模型。不過(guò),只有當(dāng)你熟練掌握了這些步驟,它們才會(huì)真正有幫助。比如,想要建立一個(gè)集成模型,你必須對(duì)多種機(jī)器學(xué)習(xí)算法有所了解。

本文分享了 8 個(gè)經(jīng)過(guò)證實(shí)的方法。這些方法用來(lái)改善模型的預(yù)測(cè)表現(xiàn)。它們廣為人知,但不一定要按照文中的順序逐個(gè)使用。

原作者:Sunil Ray
翻譯:王鵬宇
轉(zhuǎn)自: Datartisan數(shù)據(jù)工匠

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4740

    瀏覽量

    96735
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8528

    瀏覽量

    135898
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    25個(gè)機(jī)器學(xué)習(xí)面試題,你都會(huì)嗎?

    ?)15. 自變量之間的相關(guān)性對(duì)主成分分析有何影響?你將如何對(duì)其進(jìn)行處理?16. 你需要建立一個(gè)關(guān)于隕石撞地球的分類模型(這是對(duì)于人類文明很重要的項(xiàng)目)。經(jīng)過(guò)初步分析后,你得到了 99
    發(fā)表于 09-29 09:39

    動(dòng)態(tài)分配多任務(wù)資源的移動(dòng)端深度學(xué)習(xí)框架

    需求和準(zhǔn)確率之間的權(quán)衡是固定的。因此,第一大挑戰(zhàn)在于設(shè)計(jì)一個(gè)能讓深度學(xué)習(xí)模型提供靈活的資源-準(zhǔn)確率權(quán)衡的方案。一種樸素的
    發(fā)表于 10-31 16:32

    基于RBM實(shí)現(xiàn)手寫數(shù)字識(shí)別高準(zhǔn)確率

    DL之RBM:基于RBM實(shí)現(xiàn)手寫數(shù)字識(shí)別高準(zhǔn)確率
    發(fā)表于 12-28 10:19

    請(qǐng)問(wèn)誰(shuí)做過(guò)蟻群算法選擇圖像特征,使識(shí)別準(zhǔn)確率最高?

    請(qǐng)問(wèn)誰(shuí)做過(guò)蟻群算法選擇圖像特征,使識(shí)別準(zhǔn)確率最高?有學(xué)習(xí)資料或者matlab代碼可以讓我學(xué)習(xí)一下嗎
    發(fā)表于 02-17 17:20

    如何提高Stm32F746G準(zhǔn)確率?

    你好帶時(shí)鐘的教程 3。如何提高準(zhǔn)確率?最好的祝福安杰伊
    發(fā)表于 01-12 07:26

    BOM準(zhǔn)確率提高方法

    BOM錯(cuò)誤造成的損失出現(xiàn)在產(chǎn)品制造、銷售和售后服務(wù)工作中,但根源在產(chǎn)品研發(fā)部門,因此BOM準(zhǔn)確率需要由專業(yè)部門進(jìn)行專門管理。
    發(fā)表于 06-13 10:37 ?5898次閱讀

    交大教授訓(xùn)練機(jī)器通過(guò)面部識(shí)別罪犯 準(zhǔn)確率達(dá)到86%以上

    上海交通大學(xué)的武筱林教授和他的博士生張熙近期完成了一項(xiàng)研究,他們發(fā)現(xiàn),通過(guò)學(xué)習(xí),機(jī)器可以通過(guò)照片分辨出誰(shuí)是罪犯,誰(shuí)是守法公民,識(shí)別準(zhǔn)確率在86%以上。
    發(fā)表于 12-01 10:59 ?1200次閱讀

    使用深度學(xué)習(xí)算法識(shí)別交通標(biāo)志實(shí)現(xiàn)98%準(zhǔn)確率

    我們可以創(chuàng)建一個(gè)能夠?qū)煌?biāo)志進(jìn)行分類的模型,并且讓模型自己學(xué)習(xí)識(shí)別這些交通標(biāo)志中最關(guān)鍵的特征。在這篇文章中,我將演示如何創(chuàng)建一個(gè)深度
    發(fā)表于 11-22 11:52 ?2次下載

    機(jī)器學(xué)習(xí)模型預(yù)測(cè)病患死亡準(zhǔn)度更高

    Score)評(píng)估死亡的精準(zhǔn)度,結(jié)果證實(shí)機(jī)器學(xué)習(xí)模型利用電子病歷(EHR)超音波心電圖資料,確實(shí)可準(zhǔn)確
    發(fā)表于 06-29 09:03 ?2083次閱讀

    阿里達(dá)摩院公布自研語(yǔ)音識(shí)別模型DFSMN,識(shí)別準(zhǔn)確率達(dá)96.04%

    日前,阿里巴巴達(dá)摩院機(jī)器智能實(shí)驗(yàn)室推出了新一代語(yǔ)音識(shí)別模型DFSMN,據(jù)悉語(yǔ)音識(shí)別準(zhǔn)確率達(dá)96.04%,未來(lái)將用于智能家居設(shè)備。
    的頭像 發(fā)表于 06-07 14:36 ?4221次閱讀

    機(jī)器學(xué)習(xí)實(shí)用指南——準(zhǔn)確率與召回

    受試者工作特征(ROC)曲線是另一個(gè)二分類器常用的工具。它非常類似與準(zhǔn)確率/召回曲線,但不是畫出準(zhǔn)確率對(duì)召回的曲線,ROC 曲線是真正例
    的頭像 發(fā)表于 06-19 15:20 ?2.2w次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>實(shí)用指南——<b class='flag-5'>準(zhǔn)確率</b>與召回<b class='flag-5'>率</b>

    AI垃圾分類的準(zhǔn)確率和召回達(dá)到99%

    這套邏輯和人類用眼睛、大腦、手臂工作的邏輯差不多,而且效率也足夠了。以塑料瓶為例,AI垃圾分類的準(zhǔn)確率和召回達(dá)到99%,單張圖片的識(shí)別時(shí)間不到半秒鐘。
    的頭像 發(fā)表于 06-16 15:10 ?3838次閱讀

    可提高瓦斯風(fēng)險(xiǎn)預(yù)測(cè)準(zhǔn)確率的ELM模型

    為提髙瓦斯突出風(fēng)險(xiǎn)預(yù)測(cè)的準(zhǔn)確率和效率,在極限學(xué)習(xí)機(jī)(ELM)模型的基礎(chǔ)上構(gòu)建預(yù)測(cè)模型ACFA-ELI釆用核線性鑒別分析(KLDA)對(duì)瓦斯突出樣本數(shù)據(jù)進(jìn)行特征抽取,利用代價(jià)敏感思想修正E
    發(fā)表于 05-27 14:44 ?2次下載

    如何評(píng)估機(jī)器學(xué)習(xí)模型的性能?機(jī)器學(xué)習(xí)的算法選擇

    如何評(píng)估機(jī)器學(xué)習(xí)模型的性能?典型的回答可能是:首先,將訓(xùn)練數(shù)據(jù)饋送給學(xué)習(xí)算法以學(xué)習(xí)個(gè)
    發(fā)表于 04-04 14:15 ?1491次閱讀

    ai人工智能回答準(zhǔn)確率高嗎

    人工智能(AI)回答的準(zhǔn)確率是一個(gè)相對(duì)的概念,會(huì)受到多個(gè)因素的影響,因此不能一概而論地說(shuō)其準(zhǔn)確率高或低。以下是對(duì)AI回答準(zhǔn)確率及其影響因素的分析: 一、AI回答
    的頭像 發(fā)表于 10-17 16:30 ?9207次閱讀