chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機器學習中需要了解的5種采樣方法

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:通信信號處理研究所 ? 2020-08-10 15:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

采樣問題是數(shù)據(jù)科學中的常見問題,對此,WalmartLabs 的數(shù)據(jù)科學家 Rahul Agarwal 分享了數(shù)據(jù)科學家需要了解的 5 種采樣方法,編譯整理如下。 數(shù)據(jù)科學實際上是就是研究算法。 我每天都在努力學習許多算法,所以我想列出一些最常見和最常用的算法。 本文介紹了在處理數(shù)據(jù)時可以使用的一些最常見的采樣技術(shù)。 簡單隨機抽樣假設(shè)您要選擇一個群體的子集,其中該子集的每個成員被選擇的概率都相等。 下面我們從一個數(shù)據(jù)集中選擇 100 個采樣點。

sample_df = df.sample(100)

分層采樣

假設(shè)我們需要估計選舉中每個候選人的平均票數(shù)。現(xiàn)假設(shè)該國有 3 個城鎮(zhèn): A 鎮(zhèn)有 100 萬工人, B 鎮(zhèn)有 200 萬工人,以及 C 鎮(zhèn)有 300 萬退休人員。 我們可以選擇在整個人口中隨機抽取一個 60 大小的樣本,但在這些城鎮(zhèn)中,隨機樣本可能不太平衡,因此會產(chǎn)生偏差,導致估計誤差很大。 相反,如果我們選擇從 A、B 和 C 鎮(zhèn)分別抽取 10、20 和 30 個隨機樣本,那么我們可以在總樣本大小相同的情況下,產(chǎn)生較小的估計誤差。 使用 python 可以很容易地做到這一點:

from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X, y, stratify=y, test_size=0.25)

水塘采樣

我喜歡這個問題陳述:

假設(shè)您有一個項目流,它長度較大且未知以至于我們只能迭代一次。 創(chuàng)建一個算法,從這個流中隨機選擇一個項目,這樣每個項目都有相同的可能被選中。

我們怎么能做到這一點? 假設(shè)我們必須從無限大的流中抽取 5 個對象,且每個元素被選中的概率都相等。

import randomdef generator(max): number = 1 while number < max: number += 1 yield number# Create as stream generatorstream = generator(10000)# Doing Reservoir Sampling from the streamk=5reservoir = []for i, element in enumerate(stream): if i+1<= k: reservoir.append(element) else: probability = k/(i+1) if random.random() < probability: # Select item in stream and remove one of the k items already selected reservoir[random.choice(range(0,k))] = elementprint(reservoir)------------------------------------[1369, 4108, 9986, 828, 5589]

從數(shù)學上可以證明,在樣本中,流中每個元素被選中的概率相同。這是為什么呢? 當涉及到數(shù)學問題時,從一個小問題開始思考總是有幫助的。 所以,讓我們考慮一個只有 3 個項目的流,我們必須保留其中 2 個。 當我們看到第一個項目,我們把它放在清單上,因為我們的水塘有空間。在我們看到第二個項目時,我們把它放在列表中,因為我們的水塘還是有空間。 現(xiàn)在我們看到第三個項目。這里是事情開始變得有趣的地方。我們有 2/3 的概率將第三個項目放在清單中。 現(xiàn)在讓我們看看第一個項目被選中的概率:

移除第一個項目的概率是項目 3 被選中的概率乘以項目 1 被隨機選為水塘中 2 個要素的替代候選的概率。這個概率是: 2/3*1/2 = 1/3 因此,選擇項目 1 的概率為: 1–1/3=2/3

我們可以對第二個項目使用完全相同的參數(shù),并且可以將其擴展到多個項目。 因此,每個項目被選中的概率相同:2/3 或者用一般的公式表示為 K/N 隨機欠采樣和過采樣

我們經(jīng)常會遇到不平衡的數(shù)據(jù)集。 一種廣泛采用的處理高度不平衡數(shù)據(jù)集的技術(shù)稱為重采樣。它包括從多數(shù)類(欠采樣)中刪除樣本或向少數(shù)類(過采樣)中添加更多示例。 讓我們先創(chuàng)建一些不平衡數(shù)據(jù)示例。

from sklearn.datasets import make_classificationX, y = make_classification( n_classes=2, class_sep=1.5, weights=[0.9, 0.1], n_informative=3, n_redundant=1, flip_y=0, n_features=20, n_clusters_per_class=1, n_samples=100, random_state=10)X = pd.DataFrame(X)X[ target ] = y

我們現(xiàn)在可以使用以下方法進行隨機過采樣和欠采樣:

num_0 = len(X[X[ target ]==0])num_1 = len(X[X[ target ]==1])print(num_0,num_1)# random undersampleundersampled_data = pd.concat([ X[X[ target ]==0].sample(num_1) , X[X[ target ]==1] ])print(len(undersampled_data))# random oversampleoversampled_data = pd.concat([ X[X[ target ]==0] , X[X[ target ]==1].sample(num_0, replace=True) ])print(len(oversampled_data))------------------------------------------------------------OUTPUT:90 1020180

使用 imbalanced-learn 進行欠采樣和過采樣imbalanced-learn(imblearn)是一個用于解決不平衡數(shù)據(jù)集問題的 python 包,它提供了多種方法來進行欠采樣和過采樣。a. 使用 Tomek Links 進行欠采樣:imbalanced-learn 提供的一種方法叫做 Tomek Links。Tomek Links 是鄰近的兩個相反類的例子。
在這個算法中,我們最終從 Tomek Links 中刪除了大多數(shù)元素,這為分類器提供了一個更好的決策邊界。

from imblearn.under_sampling import TomekLinks
tl = TomekLinks(return_indices=True, ratio= majority )X_tl, y_tl, id_tl = tl.fit_sample(X, y)

b. 使用 SMOTE 進行過采樣:在 SMOE(Synthetic Minority Oversampling Technique)中,我們在現(xiàn)有元素附近合并少數(shù)類的元素。

from imblearn.over_sampling import SMOTE
smote = SMOTE(ratio= minority )X_sm, y_sm = smote.fit_sample(X, y)

imbLearn 包中還有許多其他方法,可以用于欠采樣(Cluster Centroids, NearMiss 等)和過采樣(ADASYN 和 bSMOTE)。 結(jié)論算法是數(shù)據(jù)科學的生命線。 抽樣是數(shù)據(jù)科學中的一個重要課題,但我們實際上并沒有討論得足夠多。 有時,一個好的抽樣策略會大大推進項目的進展。錯誤的抽樣策略可能會給我們帶來錯誤的結(jié)果。因此,在選擇抽樣策略時應該小心。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8533

    瀏覽量

    136024
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1229

    瀏覽量

    25969
  • 數(shù)據(jù)科學
    +關(guān)注

    關(guān)注

    0

    文章

    168

    瀏覽量

    10702

原文標題:機器學習中需要了解的 5 種采樣方法

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    學習物聯(lián)網(wǎng)怎么入門?

    聯(lián)網(wǎng)的基本概念和技術(shù)是學習物聯(lián)網(wǎng)的重要第一步。物聯(lián)網(wǎng)是指互聯(lián)網(wǎng)上的物品相互連接,通過網(wǎng)絡(luò)實現(xiàn)信息交流和共享的一技術(shù)。學習物聯(lián)網(wǎng)需要了解物聯(lián)網(wǎng)的基本概念,如物聯(lián)網(wǎng)的架構(gòu)、物聯(lián)網(wǎng)的協(xié)議、
    發(fā)表于 10-14 10:34

    量子機器學習入門:三種數(shù)據(jù)編碼方法對比與應用

    在傳統(tǒng)機器學習數(shù)據(jù)編碼確實相對直觀:獨熱編碼處理類別變量,標準化調(diào)整數(shù)值范圍,然后直接輸入模型訓練。整個過程更像是數(shù)據(jù)清洗,而非核心算法組件。量子機器
    的頭像 發(fā)表于 09-15 10:27 ?364次閱讀
    量子<b class='flag-5'>機器</b><b class='flag-5'>學習</b>入門:三<b class='flag-5'>種數(shù)據(jù)編碼方法</b>對比與應用

    ARM入門學習方法分享

    。 以下是一些入門學習方法的分享: 一、 理解基本概念:首先,了解ARM是什么以及它的基本概念是很重要的。ARM(Advanced RISC Machines)指的是一精簡指令集計算機(RISC
    發(fā)表于 07-23 10:21

    FPGA在機器學習的具體應用

    隨著機器學習和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無法滿足高效處理大規(guī)模數(shù)據(jù)和復雜模型的需求。FPGA(現(xiàn)場可編程門陣列)作為一靈活且高效的硬件加速平臺
    的頭像 發(fā)表于 07-16 15:34 ?2373次閱讀

    使用MATLAB進行無監(jiān)督學習

    無監(jiān)督學習是一根據(jù)未標注數(shù)據(jù)進行推斷的機器學習方法。無監(jiān)督學習旨在識別數(shù)據(jù)隱藏的模式和關(guān)系,
    的頭像 發(fā)表于 05-16 14:48 ?1052次閱讀
    使用MATLAB進行無監(jiān)督<b class='flag-5'>學習</b>

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】+ROS2應用案例

    地圖構(gòu)建,包括算法原理介紹、安裝與配置方法、仿真環(huán)境的SLAM以及真實機器人上的SLAM。 這一過程不僅涉及到計算機視覺和機器人學的知識,還需要
    發(fā)表于 04-27 11:42

    FOC的三電流采樣方式,你真的會選擇嗎?(可下載)

    的基礎(chǔ),用一句話來形容就是“基礎(chǔ)不對,努力白費”,由此可見電流采樣在整 個 FOC 算法的作用電流采樣的方式一般分為三電阻、雙電阻、單電阻,這三
    發(fā)表于 03-12 15:04 ?1次下載

    如何快速學習硬件電路

    對于想要學習硬件電路的新手來說,一開始可能感到有些困難,但只要掌握了正確的學習方法和技巧,就能夠快速地成為一名優(yōu)秀的硬件電路工程師。 首先,新手需要了解基本的電路知識,例如電阻、電容、電感等。這些
    的頭像 發(fā)表于 01-20 11:11 ?1745次閱讀
    如何快速<b class='flag-5'>學習</b>硬件電路

    傳統(tǒng)機器學習方法和應用指導

    在上一篇文章,我們介紹了機器學習的關(guān)鍵概念術(shù)語。在本文中,我們會介紹傳統(tǒng)機器學習的基礎(chǔ)知識和多種算法特征,供各位老師選擇。 01 傳統(tǒng)
    的頭像 發(fā)表于 12-30 09:16 ?1667次閱讀
    傳統(tǒng)<b class='flag-5'>機器</b><b class='flag-5'>學習方法</b>和應用指導

    【「具身智能機器人系統(tǒng)」閱讀體驗】+數(shù)據(jù)在具身人工智能的價值

    嵌入式人工智能(EAI)將人工智能集成到機器人等物理實體,使它們能夠感知、學習環(huán)境并與之動態(tài)交互。這種能力使此類機器人能夠在人類社會中有效地提供商品及服務(wù)。 數(shù)據(jù)是一
    發(fā)表于 12-24 00:33

    zeta在機器學習的應用 zeta的優(yōu)缺點分析

    在探討ZETA在機器學習的應用以及ZETA的優(yōu)缺點時,需要明確的是,ZETA一詞在不同領(lǐng)域可能有不同的含義和應用。以下是根據(jù)不同領(lǐng)域的ZETA進行的分析: 一、ZETA在
    的頭像 發(fā)表于 12-20 09:11 ?1506次閱讀

    什么是機器學習?通過機器學習方法能解決哪些問題?

    計算機系統(tǒng)自身的性能”。事實上,由于“經(jīng)驗”在計算機系統(tǒng)主要以數(shù)據(jù)的形式存在,因此機器學習需要設(shè)法對數(shù)據(jù)進行分析學習,這就使得它逐漸成為智
    的頭像 發(fā)表于 11-16 01:07 ?1394次閱讀
    什么是<b class='flag-5'>機器</b><b class='flag-5'>學習</b>?通過<b class='flag-5'>機器</b><b class='flag-5'>學習方法</b>能解決哪些問題?

    NPU與機器學習算法的關(guān)系

    在人工智能領(lǐng)域,機器學習算法是實現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復雜度的提升,對計算資源的需求也在不斷增長。NPU作為一專門為深度學習
    的頭像 發(fā)表于 11-15 09:19 ?1716次閱讀

    eda在機器學習的應用

    值和噪聲數(shù)據(jù)。通過繪制箱線圖、直方圖和散點圖,我們可以直觀地看到數(shù)據(jù)的異常值和分布情況。例如,如果一個數(shù)據(jù)集中的某個特征值遠高于其他值,這可能是一個異常值,需要進一步調(diào)查。 2. 特征選擇 特征選擇 是機器
    的頭像 發(fā)表于 11-13 10:42 ?1216次閱讀

    高速ADC設(shè)計采樣時鐘影響的考量

    ? 在使用高速模數(shù)轉(zhuǎn)換器 (ADC) 進行設(shè)計時,需要考慮很多因素,其中 ADC 采樣時鐘的影響對于滿足特定設(shè)計要求至關(guān)重要。關(guān)于 ADC 采樣時鐘,有幾個指標需要了解,因為它們將直接
    的頭像 發(fā)表于 11-13 09:49 ?2222次閱讀
    高速ADC設(shè)計<b class='flag-5'>中</b><b class='flag-5'>采樣</b>時鐘影響的考量