chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)的幾個超參數(shù)調(diào)試方法

新機(jī)器視覺 ? 來源:AI公園導(dǎo)讀 ? 作者:Sivasai ? 2020-10-09 14:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Sivasai,來源:AI公園導(dǎo)讀

ML工作流中最困難的部分之一是為模型找到最好的超參數(shù)。ML模型的性能與超參數(shù)直接相關(guān)。

介紹

維基百科上說,“Hyperparameter optimization或tuning是為學(xué)習(xí)算法選擇一組最優(yōu)的hyperparameters的問題”。

ML工作流中最困難的部分之一是為模型找到最好的超參數(shù)。ML模型的性能與超參數(shù)直接相關(guān)。超參數(shù)調(diào)優(yōu)的越好,得到的模型就越好。調(diào)優(yōu)超參數(shù)可能是非常乏味和困難的,更像是一門藝術(shù)而不是科學(xué)。

超參數(shù)

超參數(shù)是在建立模型時用于控制算法行為的參數(shù)。這些參數(shù)不能從常規(guī)訓(xùn)練過程中獲得。在對模型進(jìn)行訓(xùn)練之前,需要對它們進(jìn)行賦值。

超參數(shù)的簡單列表

內(nèi)容

傳統(tǒng)的手工調(diào)參

網(wǎng)格搜索

隨機(jī)搜索

貝葉斯搜索

1. 傳統(tǒng)手工搜索

在傳統(tǒng)的調(diào)參過程中,我們通過訓(xùn)練算法手動檢查隨機(jī)超參數(shù)集,并選擇符合我們目標(biāo)的最佳參數(shù)集。

我們看看代碼:

#importingrequiredlibraries fromsklearn.neighborsimportKNeighborsClassifier fromsklearn.model_selectionimporttrain_test_split fromsklearn.model_selectionimportKFold,cross_val_score fromsklearn.datasetsimportload_wine wine=load_wine() X=wine.data y=wine.target #splittingthedataintotrainandtestset X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3,random_state=14) #declaringparametersgrid k_value=list(range(2,11)) algorithm=['auto','ball_tree','kd_tree','brute'] scores=[] best_comb=[] kfold=KFold(n_splits=5) #hyperparametertunning foralgoinalgorithm: forkink_value: knn=KNeighborsClassifier(n_neighbors=k,algorithm=algo) results=cross_val_score(knn,X_train,y_train,cv=kfold) print(f'Score:{round(results.mean(),4)}withalgo={algo},K={k}') scores.append(results.mean()) best_comb.append((k,algo)) best_param=best_comb[scores.index(max(scores))] print(f' TheBestScore:{max(scores)}') print(f"['algorithm':{best_param[1]},'n_neighbors':{best_param[0]}]")

缺點(diǎn):

沒辦法確保得到最佳的參數(shù)組合。

這是一個不斷試錯的過程,所以,非常的耗時。

2. 網(wǎng)格搜索

網(wǎng)格搜索是一種基本的超參數(shù)調(diào)優(yōu)技術(shù)。它類似于手動調(diào)優(yōu),為網(wǎng)格中指定的所有給定超參數(shù)值的每個排列構(gòu)建模型,評估并選擇最佳模型??紤]上面的例子,其中兩個超參數(shù)k_value =[2,3,4,5,6,7,8,9,10]&algorithm =[' auto ', ' ball_tree ', ' kd_tree ', ' brute '],在這個例子中,它總共構(gòu)建了9*4 = 36不同的模型。

讓我們來了解一下sklearn的GridSearchCV是如何工作的:

fromsklearn.model_selectionimportGridSearchCV knn=KNeighborsClassifier() grid_param={'n_neighbors':list(range(2,11)), 'algorithm':['auto','ball_tree','kd_tree','brute']} grid=GridSearchCV(knn,grid_param,cv=5) grid.fit(X_train,y_train) #bestparametercombination grid.best_params_ #Scoreachievedwithbestparametercombination grid.best_score_ #allcombinationsofhyperparameters grid.cv_results_['params'] #averagescoresofcross-validation grid.cv_results_['mean_test_score']

缺點(diǎn):

由于它嘗試了超參數(shù)的每一個組合,并根據(jù)交叉驗(yàn)證得分選擇了最佳組合,這使得GridsearchCV非常慢。

3. 隨機(jī)搜索

使用隨機(jī)搜索代替網(wǎng)格搜索的動機(jī)是,在許多情況下,所有的超參數(shù)可能不是同等重要的。隨機(jī)搜索從超參數(shù)空間中隨機(jī)選擇參數(shù)組合,參數(shù)由n_iter給定的固定迭代次數(shù)的情況下選擇。實(shí)驗(yàn)證明,隨機(jī)搜索的結(jié)果優(yōu)于網(wǎng)格搜索。

讓我們來了解sklearn的RandomizedSearchCV是如何工作的,

fromsklearn.model_selectionimportRandomizedSearchCV knn=KNeighborsClassifier() grid_param={'n_neighbors':list(range(2,11)), 'algorithm':['auto','ball_tree','kd_tree','brute']} rand_ser=RandomizedSearchCV(knn,grid_param,n_iter=10) rand_ser.fit(X_train,y_train) #bestparametercombination rand_ser.best_params_ #scoreachievedwithbestparametercombination rand_ser.best_score_ #allcombinationsofhyperparameters rand_ser.cv_results_['params'] #averagescoresofcross-validation rand_ser.cv_results_['mean_test_score']

缺點(diǎn):

隨機(jī)搜索的問題是它不能保證給出最好的參數(shù)組合。

4. 貝葉斯搜索

貝葉斯優(yōu)化屬于一類優(yōu)化算法,稱為基于序列模型的優(yōu)化(SMBO)算法。這些算法使用先前對損失f的觀察結(jié)果,以確定下一個(最優(yōu))點(diǎn)來抽樣f。該算法大致可以概括如下。

使用先前評估的點(diǎn)X1*:n*,計(jì)算損失f的后驗(yàn)期望。

在新的點(diǎn)X的抽樣損失f,從而最大化f的期望的某些方法。該方法指定f域的哪些區(qū)域最適于抽樣。

重復(fù)這些步驟,直到滿足某些收斂準(zhǔn)則。

讓我們用scikit- optimization的BayesSearchCV來理解這

Installation: pip install scikit-optimize

fromskoptimportBayesSearchCV importwarnings warnings.filterwarnings("ignore") #parameterrangesarespecifiedbyoneofbelow fromskopt.spaceimportReal,Categorical,Integer knn=KNeighborsClassifier() #defininghyper-parametergrid grid_param={'n_neighbors':list(range(2,11)), 'algorithm':['auto','ball_tree','kd_tree','brute']} #initializingBayesianSearch Bayes=BayesSearchCV(knn,grid_param,n_iter=30,random_state=14) Bayes.fit(X_train,y_train) #bestparametercombination Bayes.best_params_ #scoreachievedwithbestparametercombination Bayes.best_score_ #allcombinationsofhyperparameters Bayes.cv_results_['params'] #averagescoresofcross-validation Bayes.cv_results_['mean_test_score']

缺點(diǎn):

要在2維或3維的搜索空間中得到一個好的代理曲面需要十幾個樣本,增加搜索空間的維數(shù)需要更多的樣本。

總結(jié)

在確定參數(shù)的最佳組合的保證和計(jì)算時間之間總是存在權(quán)衡。如果超參數(shù)空間(超參數(shù)個數(shù))非常大,則使用隨機(jī)搜索找到超參數(shù)的潛在組合,然后在該局部使用網(wǎng)格搜索(超參數(shù)的潛在組合)選擇最優(yōu)特征。

原文標(biāo)題:機(jī)器學(xué)習(xí)4個常用超參數(shù)調(diào)試方法!

文章出處:【微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • ML
    ML
    +關(guān)注

    關(guān)注

    0

    文章

    151

    瀏覽量

    35079
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134635

原文標(biāo)題:機(jī)器學(xué)習(xí)4個常用超參數(shù)調(diào)試方法!

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Kaggle知識點(diǎn):7種參數(shù)搜索方法

    數(shù)據(jù)科學(xué)參數(shù)搜索確實(shí)是機(jī)器學(xué)習(xí)生命周期中不可或缺的一步,特別是在模型性能方面。正確的參數(shù)選擇
    的頭像 發(fā)表于 02-08 14:28 ?963次閱讀
    Kaggle知識點(diǎn):7種<b class='flag-5'>超</b><b class='flag-5'>參數(shù)</b>搜索<b class='flag-5'>方法</b>

    xgboost參數(shù)調(diào)優(yōu)技巧 xgboost在圖像分類中的應(yīng)用

    一、XGBoost參數(shù)調(diào)優(yōu)技巧 XGBoost(eXtreme Gradient Boosting)是一種基于梯度提升決策樹(GBDT)的高效梯度提升框架,在機(jī)器學(xué)習(xí)競賽和實(shí)際業(yè)務(wù)應(yīng)
    的頭像 發(fā)表于 01-31 15:16 ?1239次閱讀

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    用于開發(fā)生物學(xué)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個強(qiáng)大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與深度學(xué)習(xí)相比,傳統(tǒng)
    的頭像 發(fā)表于 12-30 09:16 ?1193次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)方法</b>和應(yīng)用指導(dǎo)

    如何選擇云原生機(jī)器學(xué)習(xí)平臺

    當(dāng)今,云原生機(jī)器學(xué)習(xí)平臺因其彈性擴(kuò)展、高效部署、低成本運(yùn)營等優(yōu)勢,逐漸成為企業(yè)構(gòu)建和部署機(jī)器學(xué)習(xí)應(yīng)用的首選。然而,市場上的云原生機(jī)器
    的頭像 發(fā)表于 12-25 11:54 ?458次閱讀

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    和經(jīng)驗(yàn)積累,使機(jī)器人能夠自主發(fā)現(xiàn)工藝規(guī)律,優(yōu)化作業(yè)參數(shù)。家庭服務(wù)機(jī)器人則采用混合任務(wù)規(guī)劃策略:將預(yù)訓(xùn)練的基礎(chǔ)技能與實(shí)時規(guī)劃相結(jié)合,靈活應(yīng)對開放環(huán)境中的各種情況。 第9章深入探討了元學(xué)習(xí)
    發(fā)表于 12-24 15:03

    zeta在機(jī)器學(xué)習(xí)中的應(yīng)用 zeta的優(yōu)缺點(diǎn)分析

    的應(yīng)用(基于低功耗廣域物聯(lián)網(wǎng)技術(shù)ZETA) ZETA作為一種低功耗廣域物聯(lián)網(wǎng)(LPWAN)技術(shù),雖然其直接應(yīng)用于機(jī)器學(xué)習(xí)的場景可能并不常見,但它可以通過提供高效、穩(wěn)定的物聯(lián)網(wǎng)通信支持,間接促進(jìn)機(jī)器
    的頭像 發(fā)表于 12-20 09:11 ?1128次閱讀

    cmp在機(jī)器學(xué)習(xí)中的作用 如何使用cmp進(jìn)行數(shù)據(jù)對比

    機(jī)器學(xué)習(xí)領(lǐng)域,"cmp"這個術(shù)語可能并不是一個常見的術(shù)語,它可能是指"比較"(comparison)的縮寫。 比較在機(jī)器學(xué)習(xí)中的作用 模型評估 :比較不同模型的性能是
    的頭像 發(fā)表于 12-17 09:35 ?883次閱讀

    ASR和機(jī)器學(xué)習(xí)的關(guān)系

    自動語音識別(ASR)技術(shù)的發(fā)展一直是人工智能領(lǐng)域的一個重要分支,它使得機(jī)器能夠理解和處理人類語言。隨著機(jī)器學(xué)習(xí)(ML)技術(shù)的迅猛發(fā)展,ASR系統(tǒng)的性能和準(zhǔn)確性得到了顯著提升。 ASR技術(shù)概述 自動
    的頭像 發(fā)表于 11-18 15:16 ?784次閱讀

    什么是機(jī)器學(xué)習(xí)?通過機(jī)器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機(jī)器學(xué)習(xí)”最初的研究動機(jī)是讓計(jì)算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實(shí)現(xiàn)人工智能。因?yàn)闆]有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?965次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?通過<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)方法</b>能解決哪些問題?

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對計(jì)算資源的需求也在不斷增長。NPU作為一種專門為深度學(xué)習(xí)機(jī)器
    的頭像 發(fā)表于 11-15 09:19 ?1227次閱讀

    伺服電機(jī)有哪些調(diào)試方法?如何調(diào)?

    伺服電機(jī)是一種高精度的電機(jī),廣泛應(yīng)用于自動化設(shè)備、機(jī)器人、數(shù)控機(jī)床等領(lǐng)域。為了確保伺服電機(jī)的性能和穩(wěn)定性,需要進(jìn)行正確的調(diào)試。以下是一些常見的伺服電機(jī)調(diào)試方法及其操作步驟: 電機(jī)
    的頭像 發(fā)表于 10-22 11:04 ?3167次閱讀

    無線網(wǎng)橋的連接與調(diào)試方法

    無線網(wǎng)橋的連接與調(diào)試方法主要涉及設(shè)備的配置、網(wǎng)絡(luò)參數(shù)的設(shè)定以及通信質(zhì)量的優(yōu)化。以下是詳細(xì)的步驟和注意事項(xiàng):
    的頭像 發(fā)表于 10-01 15:23 ?2399次閱讀

    FPD link系統(tǒng)概念與診斷調(diào)試方法

    電子發(fā)燒友網(wǎng)站提供《FPD link系統(tǒng)概念與診斷調(diào)試方法.pdf》資料免費(fèi)下載
    發(fā)表于 09-27 11:11 ?0次下載
    FPD link系統(tǒng)概念與診斷<b class='flag-5'>調(diào)試</b><b class='flag-5'>方法</b>

    【「時間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實(shí)地構(gòu)建了時間序列分析的基礎(chǔ)知識,更巧妙地展示了機(jī)器學(xué)習(xí)如何在這一領(lǐng)域發(fā)揮巨
    發(fā)表于 08-12 11:21

    【「時間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】全書概覽與時間序列概述

    本帖最后由 1653149838.791300 于 2024-8-12 20:18 編輯 [/td] [td]收到《時間序列與機(jī)器學(xué)習(xí)》這本書,很是欣喜,書籍內(nèi)容很詳實(shí)也是自己很感興趣
    發(fā)表于 08-07 23:03