chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機器學習的回歸分析和回歸方法

汽車玩家 ? 來源:智能算法 ? 作者:智能算法 ? 2020-01-19 17:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

根據(jù)受歡迎程度,線性回歸和邏輯回歸經(jīng)常是我們做預測模型時,且第一個學習的算法。但是如果認為回歸就兩個算法,就大錯特錯了。事實上我們有許多類型的回歸方法可以去建模。每一個算法都有其重要性和特殊性。

內(nèi)容

1.什么是回歸分析?

2.我們?yōu)槭裁匆褂没貧w分析?

3.回歸有哪些類型 ?

4.線性回歸

5.邏輯回歸

6.多項式回歸

7.逐步回歸

8.嶺回歸

9.Lasso回歸

10.ElasticNet回歸

什么是回歸分析?

回歸分析是研究自變量和因變量之間關(guān)系的一種預測模型技術(shù)。這些技術(shù)應用于預測,時間序列模型和找到變量之間關(guān)系。例如可以通過回歸去研究超速與交通事故發(fā)生次數(shù)的關(guān)系。

我們?yōu)槭裁匆没貧w分析?

這里有一些使用回歸分析的好處:它指示出自變量與因變量之間的顯著關(guān)系;它指示出多個自變量對因變量的影響。回歸分析允許我們比較不同尺度的變量,例如:價格改變的影響和宣傳活動的次數(shù)。這些好處可以幫助市場研究者/數(shù)據(jù)分析師去除和評價用于建立預測模型里面的變量。

回歸有哪些類型?

我們有很多種回歸方法用預測。這些技術(shù)可通過三種方法分類:自變量的個數(shù)、因變量的類型和回歸線的形狀。

1.線性回歸

線性回歸可謂是世界上最知名的建模方法之一,也是應該是我們第一個接觸的模型。在模型中,因變量是連續(xù)型的,自變量可以使連續(xù)型或離散型的,回歸線是線性的。

線性回歸用最適直線(回歸線)去建立因變量Y和一個或多個自變量X之間的關(guān)系??梢杂霉絹肀硎荆?/p>

Y=a+b*X+e

a為截距,b為回歸線的斜率,e是誤差項。

簡單線性回歸與多元線性回歸的差別在于:多元線性回歸有多個(》1)自變量,而簡單線性回歸只有一個自變量。到現(xiàn)在我們的問題就是:如何找到那條回歸線?

我們可以通過最小二乘法把這個問題解決。其實最小二乘法就是線性回歸模型的損失函數(shù),只要把損失函數(shù)做到最小時得出的參數(shù),才是我們最需要的參數(shù)。

我們一般用決定系數(shù)(R方)去評價模型的表現(xiàn)。

重點:

1.自變量與因變量之間必須要有線性關(guān)系。

2.多重共線性、自相關(guān)和異方差對多元線性回歸的影響很大。

3.線性回歸對異常值非常敏感,其能嚴重影響回歸線,最終影響預測值。

4.在多元的自變量中,我們可以通過前進法,后退法和逐步法去選擇最顯著的自變量。

2. 邏輯回歸

邏輯回歸是用來找到事件成功或事件失敗的概率。當我們的因變量是二分類(0/1,True/False,Yes/No)時我們應該使用邏輯回歸。

重點:

1.在分類問題中使用的非常多。

2.邏輯回歸因其應用非線性log轉(zhuǎn)換方法,使得其不需要自變量與因變量之間有線性關(guān)系。

3.為防止過擬合和低擬合,我們應該確保每個變量是顯著的。應該使用逐步回歸方法去估計邏輯回歸。

4.邏輯回歸需要大樣本量,因為最大似然估計在低樣本量的情況下表現(xiàn)不好。

5.要求沒有共線性。

6.如果因變量是序數(shù)型的,則稱為序數(shù)型邏輯回歸。

7.如果因變量有多個,則稱為多項邏輯回歸。

3. 多項式回歸

如果一個回歸,它的自變量指數(shù)超過1,則稱為多項式回歸??梢杂霉奖硎荆?/p>

y = a + b * x^2

在這個回歸技術(shù)中,最適的線不是一條直線,而是一條曲線。

重點:

① 很多情況下,我們?yōu)榱私档驼`差,經(jīng)常會抵制不了使用多項式回歸的誘惑,但事實是,我們經(jīng)常會造成過擬合。所以要經(jīng)常的把數(shù)據(jù)可視化,觀察數(shù)據(jù)與模型的擬合程度。

② 特別是要看曲線的結(jié)尾部分,看它的形狀和趨勢是否有意義。高的多項式往往會產(chǎn)生特別古怪的預測值。

4. 逐步回歸

當我們要處理多個自變量時,我們就需要這個回歸方法。在這個方法中選擇變量都是通過自動過程實現(xiàn)的,不需要人的干預。

這個工程是通過觀察統(tǒng)計值,比如判定系數(shù),t值和最小信息準則等去篩選變量。逐步回歸變量一般是基于特定的標準加入或移除變量來擬合回歸模型。

一些常用的逐步回歸方法如下:

1. 標準逐步回歸做兩件事情。只要是需要每一步它都會添加或移除一些變量。

2. 前進法是開始于最顯著的變量然后在模型中逐漸增加次顯著變量。

3. 后退法是開始于所有變量,然后逐漸移除一些不顯著變量。

4. 這個模型技術(shù)的目的是為了用最少的變量去最大化模型的預測能力。它也是一種降維技術(shù)。

5. 嶺回歸

當碰到數(shù)據(jù)有多重共線性時,我們就會用到嶺回歸。所謂多重共線性,簡單的說就是自變量之間有高度相關(guān)關(guān)系。在多重共線性中,即使是最小二乘法是無偏的,它們的方差也會很大。通過在回歸中加入一些偏差,嶺回歸酒會減少標準誤差。

‘嶺回歸是一種專用于共線性數(shù)據(jù)分析的有偏估計回歸方法,實質(zhì)上是一種改良的最小二乘估計法,通過放棄最小二乘法的無偏性,以損失部分信息、降低精度為代價獲得回歸系數(shù)更為符合實際、更可靠的回歸方法,對病態(tài)數(shù)據(jù)的擬合要強于最小二乘法?!?---百度百科

嶺回歸是通過嶺參數(shù)λ去解決多重共線性的問題。看下面的公式:

機器學習的回歸分析和回歸方法

其中l(wèi)oss為損失函數(shù),penalty為懲罰項。

重點:

1.嶺回歸的假設(shè)與最小二乘法回歸的假設(shè)相同除了假設(shè)正態(tài)性。

2.它把系數(shù)的值收縮了,但是不會為0.

3.正則化方法是使用了l2正則。

6. LASSO回歸

和嶺回歸類似,Lasso(least Absolute Shrinkage and Selection Operator)也是通過懲罰其回歸系數(shù)的絕對值。看下面的公式:

機器學習的回歸分析和回歸方法

Lasso回歸和嶺回歸不同的是,Lasso回歸在懲罰方程中用的是絕對值,而不是平方。這就使得懲罰后的值可能會變成0.

重點:

1.其假設(shè)與最小二乘回歸相同除了正態(tài)性。

2.其能把系數(shù)收縮到0,使得其能幫助特征選擇。

3.這個正則化方法為l1正則化。

4.如果一組變量是高度相關(guān)的,lasso會選擇其中的一個,然后把其他都變?yōu)?.

7. ElasticNet回歸

ElasticNet回歸是Lasso回歸和嶺回歸的組合。它會事先訓練L1和L2作為懲罰項。當許多變量是相關(guān)的時候,Elastic-net是有用的。Lasso一般會隨機選擇其中一個,而Elastic-net則會選在兩個。

機器學習的回歸分析和回歸方法

與Lasso和嶺回歸的利弊比較,一個實用的優(yōu)點就是Elastic-Net會繼承一些嶺回歸的穩(wěn)定性。

重點:

1.在選擇變量的數(shù)量上沒有限制

2.雙重收縮對其有影響

3.除了這7個常用的回歸技術(shù),你也可以看看貝葉斯回歸、生態(tài)學回歸和魯棒回歸。

如何選擇回歸模型?

面對如此多的回歸模型,最重要的是根據(jù)自變量因變量的類型、數(shù)據(jù)的維數(shù)和其他數(shù)據(jù)的重要特征去選擇最合適的方法。以下是我們選擇正確回歸模型時要主要考慮的因素:

1.數(shù)據(jù)探索是建立預測模型不可或缺的部分。它應該是在選擇正確模型之前要做的。

2.為了比較不同模型的擬合程度,我們可以分析不同的度量,比如統(tǒng)計顯著性參數(shù)、R方、調(diào)整R方、最小信息標準、BIC和誤差準則。另一個是Mallow‘s Cp準則。

3.交叉驗證是驗證預測模型最好的方法。你把你的數(shù)據(jù)集分成兩組:一組用于訓練,一組用于驗證。

4.如果你的數(shù)據(jù)集有許多讓你困惑的變量,你就不應該用自動模型選擇方法,因為你不想把這些變量放在模型當中。

5.不強大的模型往往容易建立,而強大的模型很難建立。

6.回歸正則方法在高維度和多重共線性的情況下表現(xiàn)的很好。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8528

    瀏覽量

    135872
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【嘉楠堪智K230開發(fā)板試用體驗】K230機器視覺相關(guān)功能體驗

    、畫十字交叉、寫字符等多種操作。具體使用方法參考官方教程機器學習-畫圖 圖像檢測 K230能夠使用MicroPython進行邊緣檢測、線段檢測、圓形檢測、矩形檢測、快速線性回歸。官方在
    發(fā)表于 07-08 17:25

    十大鮮為人知卻功能強大的機器學習模型

    本文轉(zhuǎn)自:QuantML當我們談?wù)?b class='flag-5'>機器學習時,線性回歸、決策樹和神經(jīng)網(wǎng)絡(luò)這些常見的算法往往占據(jù)了主導地位。然而,除了這些眾所周知的模型之外,還存在一些鮮為人知但功能強大的算法,它們能夠以驚人的效率
    的頭像 發(fā)表于 04-02 14:10 ?769次閱讀
    十大鮮為人知卻功能強大的<b class='flag-5'>機器</b><b class='flag-5'>學習</b>模型

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機器學習模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點的分析: 優(yōu)點
    的頭像 發(fā)表于 02-12 15:36 ?1271次閱讀

    藍牙技術(shù)聯(lián)盟宣布2025藍牙亞洲大會重磅回歸

    月22日至23日在深圳會展中心(福田)5號館舉辦。作為藍牙技術(shù)的年度盛會,2025藍牙亞洲大會在時隔五年后重磅回歸,旨在為全球行業(yè)領(lǐng)袖、開發(fā)者和創(chuàng)新人士分享藍牙技術(shù)的最新進展,共探藍牙生態(tài)的未來
    發(fā)表于 01-15 13:44 ?545次閱讀

    藍牙技術(shù)聯(lián)盟宣布2025藍牙亞洲大會重磅回歸

    (福田)5號館舉辦。作為藍牙技術(shù)的年度盛會,2025藍牙亞洲大會在時隔五年后重磅回歸,旨在為全球行業(yè)領(lǐng)袖、開發(fā)者和創(chuàng)新人士分享藍牙技術(shù)的最新進展,共探藍牙生態(tài)的未來發(fā)展趨勢。
    發(fā)表于 01-15 13:43 ?832次閱讀
    藍牙技術(shù)聯(lián)盟宣布2025藍牙亞洲大會重磅<b class='flag-5'>回歸</b>

    基于移動自回歸的時序擴散預測模型

    在人工智能領(lǐng)域,目前有很多工作采用自回歸方法來模擬或是替代擴散模型,其中視覺自回歸建模(Visual AutoRegressive modeling,簡稱 VAR)就是其中的典型代表,該工作利用自
    的頭像 發(fā)表于 01-03 14:05 ?1452次閱讀
    基于移動自<b class='flag-5'>回歸</b>的時序擴散預測模型

    傳統(tǒng)機器學習方法和應用指導

    用于開發(fā)生物學數(shù)據(jù)的機器學習方法。盡管深度學習(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個強大的工具,目前也非常流行,但它的應用領(lǐng)域仍然有限。與深度學習相比,傳統(tǒng)
    的頭像 發(fā)表于 12-30 09:16 ?1583次閱讀
    傳統(tǒng)<b class='flag-5'>機器</b><b class='flag-5'>學習方法</b>和應用指導

    zeta在機器學習中的應用 zeta的優(yōu)缺點分析

    在探討ZETA在機器學習中的應用以及ZETA的優(yōu)缺點時,需要明確的是,ZETA一詞在不同領(lǐng)域可能有不同的含義和應用。以下是根據(jù)不同領(lǐng)域的ZETA進行的分析: 一、ZETA在機器
    的頭像 發(fā)表于 12-20 09:11 ?1459次閱讀

    垂直型回歸反射光電開關(guān)的原理有哪些E3S-AR61

    垂直型回歸反射光電開關(guān)的原理是基于光線的反射和光電傳感器的檢測機制。通過利用這一原理,它可以實現(xiàn)對物體的非接觸式檢測和控制,為工業(yè)自動化和機器人技術(shù)等領(lǐng)域提供了重要的技術(shù)支持。
    的頭像 發(fā)表于 12-16 10:23 ?985次閱讀

    基于RK3568國產(chǎn)處理器教學實驗箱操作案例分享:一元線性回歸實驗

    一、實驗目的 本節(jié)視頻的目的是了解一元線性回歸定義、了解一元線性回歸簡單數(shù)學推導、通過一元線性回歸預測模型,掌握預測模型的建立和應用方法,了解線性
    發(fā)表于 12-05 14:14

    Minitab常用功能介紹 如何在 Minitab 中進行回歸分析

    : Minitab常用功能介紹 數(shù)據(jù)分析功能 :從基本的描述性統(tǒng)計到復雜的多元回歸分析,Minitab都能輕松應對。具體包括: 基本統(tǒng)計 :提供均值、標準差、方差等基本統(tǒng)計量的計算。 回歸
    的頭像 發(fā)表于 12-02 15:38 ?4085次閱讀

    什么是機器學習?通過機器學習方法能解決哪些問題?

    計算機系統(tǒng)自身的性能”。事實上,由于“經(jīng)驗”在計算機系統(tǒng)中主要以數(shù)據(jù)的形式存在,因此機器學習需要設(shè)法對數(shù)據(jù)進行分析學習,這就使得它逐漸成為智能數(shù)據(jù)
    的頭像 發(fā)表于 11-16 01:07 ?1344次閱讀
    什么是<b class='flag-5'>機器</b><b class='flag-5'>學習</b>?通過<b class='flag-5'>機器</b><b class='flag-5'>學習方法</b>能解決哪些問題?

    什么是回歸測試_回歸測試的測試策略

    ? 1、什么是回歸測試 回歸測試(Regression testing) 指在發(fā)生修改之后重新測試先前的測試以保證修改的正確性。理論上,軟件產(chǎn)生新版本,都需要進行回歸測試,驗證以前發(fā)現(xiàn)和修復的錯誤
    的頭像 發(fā)表于 11-14 16:44 ?1566次閱讀

    基于LSTM神經(jīng)網(wǎng)絡(luò)的情感分析方法

    能力而受到廣泛關(guān)注。 1. 引言 情感分析在商業(yè)智能、客戶服務(wù)、社交媒體監(jiān)控等領(lǐng)域具有廣泛的應用。傳統(tǒng)的情感分析方法依賴于手工特征提取和機器學習
    的頭像 發(fā)表于 11-13 10:15 ?1504次閱讀

    一種將NeRFs應用于視覺定位任務(wù)的新方法

    視覺定位旨在估計在已知環(huán)境中捕獲的給定圖像的旋轉(zhuǎn)和位置,大致可以分為絕對姿態(tài)回歸(APR),場景坐標回歸(SCR)和分層方法(HM)。
    的頭像 發(fā)表于 10-28 10:03 ?773次閱讀
    一種將NeRFs應用于視覺定位任務(wù)的新<b class='flag-5'>方法</b>