chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習回歸模型相關重要知識點總結

穎脈Imgtec ? 2022-11-10 10:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源:機器學習研習院


回歸分析為許多機器學習算法提供了堅實的基礎。在這篇文章中,我們將總結 10 個重要的回歸問題和5個重要的回歸問題的評價指標。

1、線性回歸的假設是什么?

線性回歸有四個假設

  • 線性:自變量(x)和因變量(y)之間應該存在線性關系,這意味著x值的變化也應該在相同方向上改變y值。
  • 獨立性:特征應該相互獨立,這意味著最小的多重共線性。
  • 正態(tài)性:殘差應該是正態(tài)分布的。
  • 同方差性:回歸線周圍數(shù)據(jù)點的方差對于所有值應該相同。

2、什么是殘差,它如何用于評估回歸模型?

殘差是指預測值與觀測值之間的誤差。它測量數(shù)據(jù)點與回歸線的距離。它是通過從觀察值中減去預測值的計算機。

殘差圖是評估回歸模型的好方法。它是一個圖表,在垂直軸上顯示所有殘差,在 x 軸上顯示特征。如果數(shù)據(jù)點隨機散布在沒有圖案的線上,那么線性回歸模型非常適合數(shù)據(jù),否則我們應該使用非線性模型。

b86d7f22-5f80-11ed-b116-dac502259ad0.png

3、如何區(qū)分線性回歸模型和非線性回歸模型?

兩者都是回歸問題的類型。兩者的區(qū)別在于他們訓練的數(shù)據(jù)。

線性回歸模型假設特征和標簽之間存在線性關系,這意味著如果我們獲取所有數(shù)據(jù)點并將它們繪制成線性(直線)線應該適合數(shù)據(jù)。

非線性回歸模型假設變量之間沒有線性關系。非線性(曲線)線應該能夠正確地分離和擬合數(shù)據(jù)。b8966e6e-5f80-11ed-b116-dac502259ad0.png找出數(shù)據(jù)是線性還是非線性的三種最佳方法 -

殘差圖

  1. 散點圖
  2. 假設數(shù)據(jù)是線性的,訓練一個線性模型并通過準確率進行評估。

4、什么是多重共線性,它如何影響模型性能?

當某些特征彼此高度相關時,就會發(fā)生多重共線性。相關性是指表示一個變量如何受到另一個變量變化影響的度量。

如果特征 a 的增加導致特征 b 的增加,那么這兩個特征是正相關的。如果 a 的增加導致特征 b 的減少,那么這兩個特征是負相關的。在訓練數(shù)據(jù)上有兩個高度相關的變量會導致多重共線性,因為它的模型無法在數(shù)據(jù)中找到模式,從而導致模型性能不佳。所以在訓練模型之前首先要盡量消除多重共線性。

5、異常值如何影響線性回歸模型的性能?

異常值是值與數(shù)據(jù)點的平均值范圍不同的數(shù)據(jù)點。換句話說,這些點與數(shù)據(jù)不同或在第 3 標準之外。b8a887e8-5f80-11ed-b116-dac502259ad0.png線性回歸模型試圖找到一條可以減少殘差的最佳擬合線。如果數(shù)據(jù)包含異常值,則最佳擬合線將向異常值移動一點,從而增加錯誤率并得出具有非常高 MSE 的模型。

6、什么是 MSE 和 MAE 有什么區(qū)別?

MSE 代表均方誤差,它是實際值和預測值之間的平方差。而 MAE 是目標值和預測值之間的絕對差。

MSE 會懲罰大錯誤,而 MAE 不會。隨著 MSE 和 MAE 的值都降低,模型趨向于一條更好的擬合線。

7、L1 和 L2 正則化是什么,應該在什么時候使用?

在機器學習中,我們的主要目標是創(chuàng)建一個可以在訓練和測試數(shù)據(jù)上表現(xiàn)更好的通用模型,但是在數(shù)據(jù)非常少的情況下,基本的線性回歸模型往往會過度擬合,因此我們會使用 l1 和l2 正則化。L1 正則化或 lasso 回歸通過在成本函數(shù)內添加添加斜率的絕對值作為懲罰項。有助于通過刪除斜率值小于閾值的所有數(shù)據(jù)點來去除異常值。

L2 正則化或ridge 回歸增加了相當于系數(shù)大小平方的懲罰項。它會懲罰具有較高斜率值的特征。

l1 和 l2 在訓練數(shù)據(jù)較少、方差高、預測特征大于觀察值以及數(shù)據(jù)存在多重共線性的情況下都很有用。

8、異方差是什么意思?

它是指最佳擬合線周圍的數(shù)據(jù)點的方差在一個范圍內不一樣的情況。它導致殘差的不均勻分散。如果它存在于數(shù)據(jù)中,那么模型傾向于預測無效輸出。檢驗異方差的最好方法之一是繪制殘差圖。

數(shù)據(jù)內部異方差的最大原因之一是范圍特征之間的巨大差異。例如,如果我們有一個從 1 到 100000 的列,那么將值增加 10% 不會改變較低的值,但在較高的值時則會產生非常大的差異,從而產生很大的方差差異的數(shù)據(jù)點。

9、方差膨脹因子的作用是什么的作用是什么?

方差膨脹因子(vif)用于找出使用其他自變量可預測自變量的程度。

讓我們以具有 v1、v2、v3、v4、v5 和 v6 特征的示例數(shù)據(jù)為例?,F(xiàn)在,為了計算 v1 的 vif,將其視為一個預測變量,并嘗試使用所有其他預測變量對其進行預測。如果 VIF 的值很小,那么最好從數(shù)據(jù)中刪除該變量。因為較小的值表示變量之間的高相關性。

10、逐步回歸(stepwise regression)如何工作?

逐步回歸是在假設檢驗的幫助下,通過移除或添加預測變量來創(chuàng)建回歸模型的一種方法。它通過迭代檢驗每個自變量的顯著性來預測因變量,并在每次迭代之后刪除或添加一些特征。它運行n次,并試圖找到最佳的參數(shù)組合,以預測因變量的觀測值和預測值之間的誤差最小。

它可以非常高效地管理大量數(shù)據(jù),并解決高維問題。

11、除了MSE 和 MAE 外回歸還有什么重要的指標嗎?

b8b508ba-5f80-11ed-b116-dac502259ad0.png我們用一個回歸問題來介紹這些指標,我們的其中輸入是工作經驗,輸出是薪水。下圖顯示了為預測薪水而繪制的線性回歸線。b8c34a88-5f80-11ed-b116-dac502259ad0.png

1、平均絕對誤差(MAE):

b8cf968a-5f80-11ed-b116-dac502259ad0.png平均絕對誤差 (MAE) 是最簡單的回歸度量。它將每個實際值和預測值的差值相加,最后除以觀察次數(shù)。為了使回歸模型被認為是一個好的模型,MAE 應該盡可能小。MAE的優(yōu)點是:簡單易懂。結果將具有與輸出相同的單位。例如:如果輸出列的單位是 LPA,那么如果 MAE 為 1.2,那么我們可以解釋結果是 +1.2LPA 或 -1.2LPA,MAE 對異常值相對穩(wěn)定(與其他一些回歸指標相比,MAE 受異常值的影響較?。?。MAE的缺點是:MAE使用的是模函數(shù),但模函數(shù)不是在所有點處都可微的,所以很多情況下不能作為損失函數(shù)。

2、均方誤差(MSE):

b8e1f0f0-5f80-11ed-b116-dac502259ad0.pngMSE取每個實際值和預測值之間的差值,然后將差值平方并將它們相加,最后除以觀測數(shù)量。為了使回歸模型被認為是一個好的模型,MSE 應該盡可能小。MSE的優(yōu)點:平方函數(shù)在所有點上都是可微的,因此它可以用作損失函數(shù)。MSE的缺點:由于 MSE 使用平方函數(shù),結果的單位是輸出的平方。因此很難解釋結果。由于它使用平方函數(shù),如果數(shù)據(jù)中有異常值,則差值也會被平方,因此,MSE 對異常值不穩(wěn)定。

3、均方根誤差 (RMSE):

b8f03a84-5f80-11ed-b116-dac502259ad0.png均方根誤差(RMSE)取每個實際值和預測值之間的差值,然后將差值平方并將它們相加,最后除以觀測數(shù)量。然后取結果的平方根。因此,RMSE 是 MSE 的平方根。為了使回歸模型被認為是一個好的模型,RMSE 應該盡可能小。RMSE 解決了 MSE 的問題,單位將與輸出的單位相同,因為它取平方根,但仍然對異常值不那么穩(wěn)定。

上述指標取決于我們正在解決的問題的上下文, 我們不能在不了解實際問題的情況下,只看 MAE、MSE 和 RMSE 的值來判斷模型的好壞。

4、R2 score:

b907f3cc-5f80-11ed-b116-dac502259ad0.png如果我們沒有任何輸入數(shù)據(jù),但是想知道他在這家公司能拿到多少薪水,那么我們能做的最好的事情就是給他們所有員工薪水的平均值。b9226b1c-5f80-11ed-b116-dac502259ad0.pngR2 score 給出的值介于 0 到 1 之間,可以針對任何上下文進行解釋。它可以理解為是擬合度的好壞。SSR 是回歸線的誤差平方和,SSM 是均線誤差的平方和。我們將回歸線與平均線進行比較。b9315e60-5f80-11ed-b116-dac502259ad0.png

  • 如果 R2 得分為 0,則意味著我們的模型與平均線的結果是相同的,因此需要改進我們的模型。
  • 如果 R2 得分為 1,則等式的右側部分變?yōu)?0,這只有在我們的模型適合每個數(shù)據(jù)點并且沒有出現(xiàn)誤差時才會發(fā)生。
  • 如果 R2 得分為負,則表示等式右側大于 1,這可能發(fā)生在 SSR > SSM 時。這意味著我們的模型比平均線最差,也就是說我們的模型還不如取平均數(shù)進行預測

如果我們模型的 R2 得分為 0.8,這意味著可以說模型能夠解釋 80% 的輸出方差。也就是說,80%的工資變化可以用輸入(工作年限)來解釋,但剩下的20%是未知的。如果我們的模型有2個特征,工作年限和面試分數(shù),那么我們的模型能夠使用這兩個輸入特征解釋80%的工資變化。R2的缺點:隨著輸入特征數(shù)量的增加,R2會趨于相應的增加或者保持不變,但永遠不會下降,即使輸入特征對我們的模型不重要(例如,將面試當天的氣溫添加到我們的示例中,R2是不會下降的即使溫度對輸出不重要)。

5、Adjusted R2 score:

上式中R2為R2,n為觀測數(shù)(行),p為獨立特征數(shù)。Adjusted R2解決了R2的問題。當我們添加對我們的模型不那么重要的特性時,比如添加溫度來預測工資.....b942e45a-5f80-11ed-b116-dac502259ad0.png當添加對模型很重要的特性時,比如添加面試分數(shù)來預測工資……b9592fc6-5f80-11ed-b116-dac502259ad0.png

以上就是回歸問題的重要知識點和解決回歸問題使用的各種重要指標的介紹及其優(yōu)缺點,希望對你有所幫助。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8540

    瀏覽量

    136207
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    超小型Neuton機器學習模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應用.

    Neuton 是一家邊緣AI 公司,致力于讓機器 學習模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進的邊緣設備上進行人工智能處理。在這篇博文
    發(fā)表于 07-31 11:38

    任正非說 AI已經確定是第四次工業(yè)革命 那么如何從容地加入進來呢?

    從簡單的AI應用入手,如使用機器學習算法進行房價預測。收集當?shù)胤績r的相關數(shù)據(jù),包括面積、房齡、周邊設施等信息,然后選擇合適的回歸算法(如線性回歸
    發(fā)表于 07-08 17:44

    最新人工智能硬件培訓AI基礎入門學習課程參考2025版(離線AI語音視覺識別篇)

    視覺開發(fā)板開箱即用的離線AI能力,分類列出學習課程知識點和實操參考,希望能夠幫助大家快速掌握離線 AI 智能硬件的基礎知識與實戰(zhàn)技能,同時了解相關AI技術在實際場景的應用情況。正文按入
    發(fā)表于 07-04 11:14

    電機選型計算公式與知識點匯總

    純分享帖,需要者可點擊附件獲取完整資料~~~*附件:電機選型計算公式與知識點匯總.pdf 【免責聲明】內容轉自今日電機,因轉載眾多,無法確認真正原始作者,故僅標明轉載來源。版權歸原出處所有,純分享帖,侵權請聯(lián)系刪除內容以保證您的權益。
    發(fā)表于 04-29 16:10

    電氣工程師必知必會的100個電?知識點分享

    電??程師也都是從電?學徒??步?步積累成長起來的。積跬步?千?,匯細流成江海!朋友們,現(xiàn)在讓我們??個捷徑,花半個?時的時間來積累100個必知必會的電?知識點吧!
    的頭像 發(fā)表于 03-14 11:05 ?1495次閱讀

    Linux常用命令行總結

    學習了一段時間的linux之后,開始著手基本命令的學習,這里主要記錄一些學習過程中重要知識點供以后查閱。
    的頭像 發(fā)表于 03-03 10:40 ?802次閱讀
    Linux常用命令行<b class='flag-5'>總結</b>

    機器學習模型市場前景如何

    當今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計算能力的飛速提升,機器學習模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機器學習
    的頭像 發(fā)表于 02-13 09:39 ?610次閱讀

    華邦電子安全閃存關鍵知識點

    黑客攻擊?高溫考驗?駕駛安全?通通沒在怕的!1月15日,華邦電子舉辦了“安全閃存強化車用電子安全性”為主題的線上研討會。為了讓沒能參加這場線上研討會的邦友們也可以清晰 Get 安全閃存關鍵知識點,邦
    的頭像 發(fā)表于 02-12 18:15 ?1089次閱讀

    Kaggle知識點:7種超參數(shù)搜索方法

    數(shù)據(jù)科學超參數(shù)搜索確實是機器學習生命周期中不可或缺的一步,特別是在模型性能方面。正確的超參數(shù)選擇可以顯著提高模型的準確性、對未見數(shù)據(jù)的泛化能力以及收斂速度。不當?shù)某瑓?shù)選擇可能導致過擬
    的頭像 發(fā)表于 02-08 14:28 ?1676次閱讀
    Kaggle<b class='flag-5'>知識點</b>:7種超參數(shù)搜索方法

    Aigtek功率放大器應用:電感線圈的知識點分享

    電磁驅動是功率放大器的一大基礎應用領域,其中我們最常見的就是用功放來驅動電感線圈,那么關于電感線圈的這10大知識點你都知道嗎?今天Aigtek安泰電子來給大家介紹一下電感線圈的基礎知識。
    的頭像 發(fā)表于 01-07 15:43 ?1152次閱讀
    Aigtek功率放大器應用:電感線圈的<b class='flag-5'>知識點</b>分享

    《具身智能機器人系統(tǒng)》第10-13章閱讀心得之具身智能機器人計算挑戰(zhàn)

    是全書最“硬核”的部分,涉及不少機器人的硬件、系統(tǒng)、算法等方面的知識,對于我這個非相關專業(yè)的人士,閱讀起來還是有些吃力,不過好在這本書也不是講解特別深入,還是偏向于綜述性質的概況總結,
    發(fā)表于 01-04 01:15

    基于移動自回歸的時序擴散預測模型

    在人工智能領域,目前有很多工作采用自回歸方法來模擬或是替代擴散模型,其中視覺自回歸建模(Visual AutoRegressive modeling,簡稱 VAR)就是其中的典型代表,該工作利用自
    的頭像 發(fā)表于 01-03 14:05 ?1637次閱讀
    基于移動自<b class='flag-5'>回歸</b>的時序擴散預測<b class='flag-5'>模型</b>

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.全書概覽與第一章學習

    非常感謝電子發(fā)燒友提供的這次書籍測評活動!最近,我一直在學習模型和人工智能的相關知識,深刻體會到機器人技術是一個極具潛力的未來方向,甚至可
    發(fā)表于 12-27 14:50

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    醫(yī)療領域,手術輔助機器人需要毫米級的精確控制,書中有介紹基于視覺伺服的實時控制算法,以及如何利用大模型優(yōu)化手術路徑規(guī)劃。工業(yè)場景中,協(xié)作機器人面臨的主要挑戰(zhàn)是快速適應新工藝流程。具身智能通過在線
    發(fā)表于 12-24 15:03

    Kaggle知識點:使用大模型進行特征篩選

    方法依賴于數(shù)據(jù)集中的樣本進行統(tǒng)計推斷,而基于文本的方法需要描述性的上下文以更好地在特征和目標變量之間建立語義關聯(lián)。這種方法利用了大型語言模型(LLMs)中豐富的語
    的頭像 發(fā)表于 12-03 01:06 ?2191次閱讀
    Kaggle<b class='flag-5'>知識點</b>:使用大<b class='flag-5'>模型</b>進行特征篩選