chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)的幾個(gè)超參數(shù)調(diào)試方法

新機(jī)器視覺 ? 來源:AI公園導(dǎo)讀 ? 作者:Sivasai ? 2020-10-09 14:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Sivasai,來源:AI公園導(dǎo)讀

ML工作流中最困難的部分之一是為模型找到最好的超參數(shù)。ML模型的性能與超參數(shù)直接相關(guān)。

介紹

維基百科上說,“Hyperparameter optimization或tuning是為學(xué)習(xí)算法選擇一組最優(yōu)的hyperparameters的問題”。

ML工作流中最困難的部分之一是為模型找到最好的超參數(shù)。ML模型的性能與超參數(shù)直接相關(guān)。超參數(shù)調(diào)優(yōu)的越好,得到的模型就越好。調(diào)優(yōu)超參數(shù)可能是非常乏味和困難的,更像是一門藝術(shù)而不是科學(xué)。

超參數(shù)

超參數(shù)是在建立模型時(shí)用于控制算法行為的參數(shù)。這些參數(shù)不能從常規(guī)訓(xùn)練過程中獲得。在對(duì)模型進(jìn)行訓(xùn)練之前,需要對(duì)它們進(jìn)行賦值。

超參數(shù)的簡單列表

內(nèi)容

傳統(tǒng)的手工調(diào)參

網(wǎng)格搜索

隨機(jī)搜索

貝葉斯搜索

1. 傳統(tǒng)手工搜索

在傳統(tǒng)的調(diào)參過程中,我們通過訓(xùn)練算法手動(dòng)檢查隨機(jī)超參數(shù)集,并選擇符合我們目標(biāo)的最佳參數(shù)集。

我們看看代碼:

#importingrequiredlibraries fromsklearn.neighborsimportKNeighborsClassifier fromsklearn.model_selectionimporttrain_test_split fromsklearn.model_selectionimportKFold,cross_val_score fromsklearn.datasetsimportload_wine wine=load_wine() X=wine.data y=wine.target #splittingthedataintotrainandtestset X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3,random_state=14) #declaringparametersgrid k_value=list(range(2,11)) algorithm=['auto','ball_tree','kd_tree','brute'] scores=[] best_comb=[] kfold=KFold(n_splits=5) #hyperparametertunning foralgoinalgorithm: forkink_value: knn=KNeighborsClassifier(n_neighbors=k,algorithm=algo) results=cross_val_score(knn,X_train,y_train,cv=kfold) print(f'Score:{round(results.mean(),4)}withalgo={algo},K={k}') scores.append(results.mean()) best_comb.append((k,algo)) best_param=best_comb[scores.index(max(scores))] print(f' TheBestScore:{max(scores)}') print(f"['algorithm':{best_param[1]},'n_neighbors':{best_param[0]}]")

缺點(diǎn):

沒辦法確保得到最佳的參數(shù)組合。

這是一個(gè)不斷試錯(cuò)的過程,所以,非常的耗時(shí)。

2. 網(wǎng)格搜索

網(wǎng)格搜索是一種基本的超參數(shù)調(diào)優(yōu)技術(shù)。它類似于手動(dòng)調(diào)優(yōu),為網(wǎng)格中指定的所有給定超參數(shù)值的每個(gè)排列構(gòu)建模型,評(píng)估并選擇最佳模型??紤]上面的例子,其中兩個(gè)超參數(shù)k_value =[2,3,4,5,6,7,8,9,10]&algorithm =[' auto ', ' ball_tree ', ' kd_tree ', ' brute '],在這個(gè)例子中,它總共構(gòu)建了9*4 = 36不同的模型。

讓我們來了解一下sklearn的GridSearchCV是如何工作的:

fromsklearn.model_selectionimportGridSearchCV knn=KNeighborsClassifier() grid_param={'n_neighbors':list(range(2,11)), 'algorithm':['auto','ball_tree','kd_tree','brute']} grid=GridSearchCV(knn,grid_param,cv=5) grid.fit(X_train,y_train) #bestparametercombination grid.best_params_ #Scoreachievedwithbestparametercombination grid.best_score_ #allcombinationsofhyperparameters grid.cv_results_['params'] #averagescoresofcross-validation grid.cv_results_['mean_test_score']

缺點(diǎn):

由于它嘗試了超參數(shù)的每一個(gè)組合,并根據(jù)交叉驗(yàn)證得分選擇了最佳組合,這使得GridsearchCV非常慢。

3. 隨機(jī)搜索

使用隨機(jī)搜索代替網(wǎng)格搜索的動(dòng)機(jī)是,在許多情況下,所有的超參數(shù)可能不是同等重要的。隨機(jī)搜索從超參數(shù)空間中隨機(jī)選擇參數(shù)組合,參數(shù)由n_iter給定的固定迭代次數(shù)的情況下選擇。實(shí)驗(yàn)證明,隨機(jī)搜索的結(jié)果優(yōu)于網(wǎng)格搜索。

讓我們來了解sklearn的RandomizedSearchCV是如何工作的,

fromsklearn.model_selectionimportRandomizedSearchCV knn=KNeighborsClassifier() grid_param={'n_neighbors':list(range(2,11)), 'algorithm':['auto','ball_tree','kd_tree','brute']} rand_ser=RandomizedSearchCV(knn,grid_param,n_iter=10) rand_ser.fit(X_train,y_train) #bestparametercombination rand_ser.best_params_ #scoreachievedwithbestparametercombination rand_ser.best_score_ #allcombinationsofhyperparameters rand_ser.cv_results_['params'] #averagescoresofcross-validation rand_ser.cv_results_['mean_test_score']

缺點(diǎn):

隨機(jī)搜索的問題是它不能保證給出最好的參數(shù)組合。

4. 貝葉斯搜索

貝葉斯優(yōu)化屬于一類優(yōu)化算法,稱為基于序列模型的優(yōu)化(SMBO)算法。這些算法使用先前對(duì)損失f的觀察結(jié)果,以確定下一個(gè)(最優(yōu))點(diǎn)來抽樣f。該算法大致可以概括如下。

使用先前評(píng)估的點(diǎn)X1*:n*,計(jì)算損失f的后驗(yàn)期望。

在新的點(diǎn)X的抽樣損失f,從而最大化f的期望的某些方法。該方法指定f域的哪些區(qū)域最適于抽樣。

重復(fù)這些步驟,直到滿足某些收斂準(zhǔn)則。

讓我們用scikit- optimization的BayesSearchCV來理解這

Installation: pip install scikit-optimize

fromskoptimportBayesSearchCV importwarnings warnings.filterwarnings("ignore") #parameterrangesarespecifiedbyoneofbelow fromskopt.spaceimportReal,Categorical,Integer knn=KNeighborsClassifier() #defininghyper-parametergrid grid_param={'n_neighbors':list(range(2,11)), 'algorithm':['auto','ball_tree','kd_tree','brute']} #initializingBayesianSearch Bayes=BayesSearchCV(knn,grid_param,n_iter=30,random_state=14) Bayes.fit(X_train,y_train) #bestparametercombination Bayes.best_params_ #scoreachievedwithbestparametercombination Bayes.best_score_ #allcombinationsofhyperparameters Bayes.cv_results_['params'] #averagescoresofcross-validation Bayes.cv_results_['mean_test_score']

缺點(diǎn):

要在2維或3維的搜索空間中得到一個(gè)好的代理曲面需要十幾個(gè)樣本,增加搜索空間的維數(shù)需要更多的樣本。

總結(jié)

在確定參數(shù)的最佳組合的保證和計(jì)算時(shí)間之間總是存在權(quán)衡。如果超參數(shù)空間(超參數(shù)個(gè)數(shù))非常大,則使用隨機(jī)搜索找到超參數(shù)的潛在組合,然后在該局部使用網(wǎng)格搜索(超參數(shù)的潛在組合)選擇最優(yōu)特征。

原文標(biāo)題:機(jī)器學(xué)習(xí)4個(gè)常用超參數(shù)調(diào)試方法!

文章出處:【微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • ML
    ML
    +關(guān)注

    關(guān)注

    0

    文章

    154

    瀏覽量

    35532
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    67

    文章

    8567

    瀏覽量

    137237

原文標(biāo)題:機(jī)器學(xué)習(xí)4個(gè)常用超參數(shù)調(diào)試方法!

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    變頻器參數(shù)在實(shí)際應(yīng)用中的調(diào)試

    變頻器調(diào)試的核心是將電機(jī)銘牌參數(shù)"告訴"變頻器,并配置控制指令、頻率源及加減速時(shí)間等基本參數(shù),以滿足工藝需求。調(diào)試通常遵循"先靜后動(dòng)、由簡入繁"的原則,確保系統(tǒng)安全、高效運(yùn)行。 下面是
    的頭像 發(fā)表于 04-24 07:10 ?83次閱讀
    變頻器<b class='flag-5'>參數(shù)</b>在實(shí)際應(yīng)用中的<b class='flag-5'>調(diào)試</b>

    深度學(xué)習(xí)驅(qū)動(dòng)的構(gòu)表面設(shè)計(jì)進(jìn)展及其在全息成像中的應(yīng)用

    可實(shí)現(xiàn)高質(zhì)量圖像的獲取。基于神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)方法進(jìn)行構(gòu)表面設(shè)計(jì)的文章數(shù)量日益增多,但關(guān)于該主題的綜述仍較為匱乏。據(jù)麥姆斯咨詢報(bào)道,近期,中國計(jì)量大學(xué)田穎教授等人
    的頭像 發(fā)表于 04-09 13:55 ?151次閱讀
    深度<b class='flag-5'>學(xué)習(xí)</b>驅(qū)動(dòng)的<b class='flag-5'>超</b>構(gòu)表面設(shè)計(jì)進(jìn)展及其在全息成像中的應(yīng)用

    智能掃地機(jī)器人驅(qū)動(dòng)板接口定義與調(diào)試方法-技術(shù)性篇(艾畢勝電子)

    驅(qū)動(dòng)板作為智能掃地機(jī)器人運(yùn)動(dòng)控制的核心硬件,其接口設(shè)計(jì)直接決定與主控板、電機(jī)、傳感器等模塊的兼容性,而標(biāo)準(zhǔn)化的調(diào)試方法則是保障驅(qū)動(dòng)板功能正常、性能達(dá)標(biāo)的關(guān)鍵。本文系統(tǒng)梳理掃地機(jī)器人驅(qū)動(dòng)
    的頭像 發(fā)表于 03-18 16:58 ?441次閱讀

    變頻器調(diào)整須知道的幾個(gè)技術(shù)參數(shù)

    調(diào)試變頻器時(shí),有十幾個(gè)常用參數(shù)需要關(guān)注。根據(jù)你的提問深度,我把它們分為 三大核心模塊 : 第一是“讓電機(jī)轉(zhuǎn)起來”的基礎(chǔ)參數(shù),第二是“讓電機(jī)轉(zhuǎn)得好”的動(dòng)/靜態(tài)
    的頭像 發(fā)表于 03-16 07:36 ?271次閱讀
    變頻器調(diào)整須知道的<b class='flag-5'>幾個(gè)</b>技術(shù)<b class='flag-5'>參數(shù)</b>

    云臺(tái)電機(jī)驅(qū)動(dòng)系統(tǒng)載波參數(shù)配置與調(diào)試

    核心參數(shù)(頻率、載波比、死區(qū)時(shí)間等)的配置原則、場(chǎng)景化取值標(biāo)準(zhǔn),詳細(xì)拆解從硬件適配到軟件調(diào)試的全流程步驟,并針對(duì)常見問題提供排查方案,為工程技術(shù)人員提供標(biāo)準(zhǔn)化的參數(shù)配置與調(diào)試指南,確保
    的頭像 發(fā)表于 03-06 15:11 ?357次閱讀

    基于 MT6816 的磁編碼器系統(tǒng)調(diào)試參數(shù)優(yōu)化

    系統(tǒng)的硬件集成、通信協(xié)議調(diào)試、角度誤差校正、關(guān)鍵參數(shù)優(yōu)化及系統(tǒng)級(jí)驗(yàn)證展開,提出 “硬件適配 - 通信穩(wěn)定 - 誤差補(bǔ)償 - 參數(shù)整定” 的全流程調(diào)試方案,通過量化優(yōu)化使系統(tǒng)綜合角度誤差
    的頭像 發(fā)表于 03-03 16:26 ?419次閱讀

    變頻器使用過程中的參數(shù)調(diào)試

    變頻器作為現(xiàn)代工業(yè)控制系統(tǒng)中不可或缺的關(guān)鍵設(shè)備,其參數(shù)調(diào)試的準(zhǔn)確性直接關(guān)系到電機(jī)運(yùn)行效率、設(shè)備壽命及生產(chǎn)安全。在實(shí)際應(yīng)用中,約60%的變頻器故障源于參數(shù)設(shè)置不當(dāng),這凸顯了科學(xué)調(diào)試的重要
    的頭像 發(fā)表于 02-28 15:46 ?466次閱讀

    三菱伺服接線參數(shù)更改調(diào)試經(jīng)驗(yàn)分享

    三菱伺服系統(tǒng)在工業(yè)自動(dòng)化領(lǐng)域應(yīng)用廣泛,其穩(wěn)定性和高精度特性深受用戶信賴。然而在實(shí)際應(yīng)用中,由于設(shè)備升級(jí)、工藝調(diào)整或故障排查等需求,經(jīng)常需要對(duì)伺服驅(qū)動(dòng)器的接線參數(shù)進(jìn)行修改和調(diào)試。本文將結(jié)合多年現(xiàn)場(chǎng)經(jīng)驗(yàn)
    的頭像 發(fā)表于 12-28 07:42 ?584次閱讀

    宇樹人形機(jī)器人的配置,核心代碼,調(diào)試方法,二次開發(fā)接口

    宇樹人形機(jī)器人的配置,核心代碼,調(diào)試方法,二次開發(fā)接口
    的頭像 發(fā)表于 12-10 09:05 ?5758次閱讀

    請(qǐng)問如何優(yōu)化PID控制器的參數(shù)以實(shí)現(xiàn)快速響應(yīng)和減少調(diào)?

    PID控制器在電機(jī)控制中起著關(guān)鍵作用。如何根據(jù)電機(jī)的特性和應(yīng)用需求調(diào)整PID控制器的參數(shù)(如比例系數(shù)、積分系數(shù)和微分系數(shù)),以實(shí)現(xiàn)快速響應(yīng)和減少調(diào)?
    發(fā)表于 12-08 06:15

    如何解決開發(fā)機(jī)器學(xué)習(xí)程序時(shí)Keil項(xiàng)目只能在調(diào)試模式下運(yùn)行,但無法正常執(zhí)行的問題?

    如何解決開發(fā)機(jī)器學(xué)習(xí)程序時(shí)Keil項(xiàng)目只能在調(diào)試模式下運(yùn)行,但無法正常執(zhí)行的問題
    發(fā)表于 08-28 07:28

    FPGA在機(jī)器學(xué)習(xí)中的具體應(yīng)用

    隨著機(jī)器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場(chǎng)可編程門陣列)作為一種靈活且高效的硬件加速平臺(tái)
    的頭像 發(fā)表于 07-16 15:34 ?3107次閱讀

    如何解決Air780EPM開發(fā)中的調(diào)試難題?深度解析高效調(diào)試方法

    在Air780EPM項(xiàng)目開發(fā)中,調(diào)試效率往往直接影響進(jìn)度。面對(duì)代碼報(bào)錯(cuò)、邏輯漏洞等常見痛點(diǎn),開發(fā)者亟需一套系統(tǒng)化的方法論。本文將揭秘實(shí)戰(zhàn)中驗(yàn)證的調(diào)試技巧,助您快速定位問題并優(yōu)化代碼流程。
    的頭像 發(fā)表于 05-17 10:46 ?898次閱讀
    如何解決Air780EPM開發(fā)中的<b class='flag-5'>調(diào)試</b>難題?深度解析高效<b class='flag-5'>調(diào)試</b><b class='flag-5'>方法</b>

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    無監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1623次閱讀
    使用MATLAB進(jìn)行無監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    人部署,詳細(xì)介紹了基于顏色閾值和深度學(xué)習(xí)的巡線方法。 二維碼識(shí)別則廣泛應(yīng)用于機(jī)器人定位與任務(wù)觸發(fā),例如AGV(自動(dòng)導(dǎo)引車)的路徑規(guī)劃。 深度學(xué)習(xí)
    發(fā)表于 05-03 19:41