chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化

zhKF_jqr_AI ? 來源:未知 ? 作者:易水寒 ? 2017-12-22 11:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

之前,論智曾在TOP 10:初學(xué)者需要掌握的10大機(jī)器學(xué)習(xí)(ML)算法介紹了一些基礎(chǔ)算法及其思路,為了與該帖聯(lián)動(dòng),我們特從機(jī)器學(xué)習(xí)熱門課程HSE的Introduction to Deep Learning和吳恩達(dá)的Neural Networks and Deep Learning中挑選了一些題目,演示Python、TensorFlow和Keras在深度學(xué)習(xí)中的實(shí)戰(zhàn)應(yīng)用.

如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化.

在這個(gè)任務(wù)中,我們將實(shí)現(xiàn)一個(gè)線性分類器,并用numpy和隨機(jī)梯度下降算法對(duì)它進(jìn)行訓(xùn)練。

二元分類

為了更直觀,我們用人造數(shù)據(jù)(synthetic data)解決二元分類問題。

上圖中有紅、藍(lán)兩類數(shù)據(jù),從分布上看它們不是線性可分的。所以為了分類,我們應(yīng)該在里面添加特征或使用非線性模型。請(qǐng)注意,圖中兩類數(shù)據(jù)的決策邊緣都呈圓形,這意味著我們能通過建立二元特征來使它們線性分離,具體思路如下圖所示:

用expand函數(shù)添加二次函數(shù)后,我們得到了這樣的測(cè)試結(jié)果:

  1. # 簡(jiǎn)單的隨機(jī)數(shù)測(cè)試

  2. dummy_X = np.array([

  3. [0,0],

  4. [1,0],

  5. [2.61,-1.28],

  6. [-0.59,2.1]

  7. ])

  8. # 調(diào)用expand函數(shù)

  9. dummy_expanded = expand(dummy_X)

  10. # 它應(yīng)該返回這些值: x0 x1 x0^2 x1^2 x0*x1 1

  11. dummy_expanded_ans = np.array([[0. , 0. , 0. , 0. , 0. , 1. ],

  12. [1. , 0. , 1. , 0. , 0. , 1. ],

  13. [2.61, -1.28, 6.8121, 1.6384, -3.3408, 1. ],

  14. [-0.59, 2.1 , 0.3481, 4.41, -1.239, 1. ]])

logistic回歸

曾經(jīng)我們提到過,logistic回歸非常適合二元分類問題。為了分類對(duì)象,我們需要預(yù)測(cè)對(duì)象表示為1(默認(rèn)類)的概率,這就需要用到線性模型和邏輯函數(shù)的輸出:

  1. defprobability(X, w):

  2. """

  3. 對(duì)輸入賦值特征和權(quán)值

  4. 根據(jù)上式,返回輸入x后y==1的預(yù)測(cè)概率,P(y=1|x)

  5. :參數(shù) X: feature matrix X of shape [n_samples,6] (expanded) →特征矩陣X

  6. :參數(shù) w: weight vector w of shape [6] for each of the expanded features →權(quán)值向量w

  7. :返回值: 范圍在 [0,1] 之間的一系列概率.

  8. """

  9. return1./ (1+ np.exp(-np.dot(X, w)))

在logistic回歸中,我們能通過最小化交叉熵發(fā)現(xiàn)最優(yōu)參數(shù)w:

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化
  1. defcompute_loss(X, y, w):

  2. """

  3. 將特征矩陣X [n_samples,6], 目標(biāo)向量 [n_samples] of 1/0,

  4. 以及權(quán)值向量 w [6]代入上述公式, 計(jì)算標(biāo)量的損失函數(shù).

  5. """

  6. return-np.mean(y*np.log(probability(X, w)) + (1-y)*np.log(1-probability(X, w)))

由于用了梯度下降算法訓(xùn)練模型,我們還需要計(jì)算梯度,具體來說,就是要對(duì)每個(gè)權(quán)值的損失函數(shù)求導(dǎo):

以下是具體的數(shù)學(xué)計(jì)算過程(也可點(diǎn)擊https://math.stackexchange.com/questions/477207/derivative-of-cost-function-for-logistic-regression/2539508#2539508查看):

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化
  1. defcompute_grad(X, y, w):

  2. """

  3. 將特征矩陣X [n_samples,6], 目標(biāo)向量 [n_samples] of 1/0,

  4. 以及權(quán)值向量 w [6]代入上述公式, 計(jì)算每個(gè)權(quán)值的導(dǎo)數(shù)vector [6].

  5. """

  6. returnnp.dot((probability(X, w) - y), X) / X.shape[0]

訓(xùn)練

現(xiàn)在我們已經(jīng)建立了函數(shù),接下來就該用隨機(jī)梯度下降訓(xùn)練分類器了。我們將試著調(diào)試超參數(shù),如batch size、學(xué)習(xí)率等,來獲得最佳設(shè)置。

Mini-batch SGD

不同于滿梯度下降,隨機(jī)梯度下降在每次迭代中只需要一個(gè)隨機(jī)樣本來計(jì)算其損失的梯度,并進(jìn)入下一個(gè)步驟:

  1. w = np.array([0,0,0,0,0,1])# 初始化

  2. eta =0.05# 學(xué)習(xí)率

  3. n_iter =100

  4. batch_size =4

  5. loss = np.zeros(n_iter)

  6. foriinrange(n_iter):

  7. ind = np.random.choice(X_expanded.shape[0], batch_size)

  8. loss[i] = compute_loss(X_expanded, y, w)

  9. dw = compute_grad(X_expanded[ind, :], y[ind], w)

  10. w = w - eta*dw

下圖展示了當(dāng)batch size=4時(shí),決策面(decision surface)和交叉熵?fù)p失函數(shù)如何隨著不同batch的SGD發(fā)生變化。

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化

左:決策面;右:損失函數(shù)

用Momentum優(yōu)化SGD

Momentum是模擬物理里動(dòng)量的概念,如下圖所示,它能在相關(guān)方向加速SGD,抑制振蕩,從而加快收斂。從計(jì)算角度說,就是對(duì)上一步驟更新向量和當(dāng)前更新向量做加權(quán)平均,將其用于當(dāng)前計(jì)算。

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化

  1. eta =0.05# 學(xué)習(xí)率

  2. alpha =0.9# momentum

  3. nu = np.zeros_like(w)

  4. n_iter =100

  5. batch_size =4

  6. loss = np.zeros(n_iter)

  7. foriinrange(n_iter):

  8. ind = np.random.choice(X_expanded.shape[0], batch_size)

  9. loss[i] = compute_loss(X_expanded, y, w)

  10. dw = compute_grad(X_expanded[ind, :], y[ind], w)

  11. nu = alpha*nu + eta*dw

  12. w = w - nu

下圖展示了引入Momentum后,當(dāng)batch size=4時(shí)相應(yīng)決策面和交叉熵?fù)p失函數(shù)隨不同batch SGD+momentum發(fā)生的變化??梢钥闯觯瑩p失函數(shù)下降速度明顯加快,更快收斂。

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化

左:決策面;右:損失函數(shù)

RMSprop

加快收斂速度后,之后我們要做的是調(diào)整超參數(shù)學(xué)習(xí)率,這里我們介紹Hinton老爺子的RMSprop。這是一種十分高效的算法,利用梯度的平方來調(diào)整學(xué)習(xí)率:

  1. eta =0.05# 學(xué)習(xí)率

  2. alpha =0.9# momentum

  3. G = np.zeros_like(w)

  4. eps =1e-8

  5. n_iter =100

  6. batch_size =4

  7. loss = np.zeros(n_iter)

  8. foriinrange(n_iter):

  9. ind = np.random.choice(X_expanded.shape[0], batch_size)

  10. loss[i] = compute_loss(X_expanded, y, w)

  11. dw = compute_grad(X_expanded[ind, :], y[ind], w)

  12. G = alpha*G + (1-alpha)*dw**2

  13. w = w - eta*dw / np.sqrt(G + eps)

下圖是使用了SGD + RMSProp后決策面和損失函數(shù)的變化情況,較之之前,函數(shù)下降更快,收斂也更快。

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • ML
    ML
    +關(guān)注

    關(guān)注

    0

    文章

    151

    瀏覽量

    35078
  • 線性分類器
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    1495

原文標(biāo)題:課后作業(yè)(一):如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    LM3686 帶有集成后線性穩(wěn)壓系統(tǒng)和低噪聲線性調(diào)節(jié)的降壓DC-DC轉(zhuǎn)換數(shù)據(jù)手冊(cè)

    LM3686 是款降壓直流/直流轉(zhuǎn)換,具有個(gè)極低壓差線性穩(wěn)壓
    的頭像 發(fā)表于 04-29 13:37 ?336次閱讀
    LM3686 帶有集成后<b class='flag-5'>線性</b>穩(wěn)壓<b class='flag-5'>器</b>系統(tǒng)和低噪聲<b class='flag-5'>線性</b>調(diào)節(jié)<b class='flag-5'>器</b>的降壓DC-DC轉(zhuǎn)換<b class='flag-5'>器</b>數(shù)據(jù)手冊(cè)

    VirtualLab Fusion應(yīng)用:使用optiSLang進(jìn)行光柵優(yōu)化

    進(jìn)行優(yōu)化 -在本例中,光學(xué)系統(tǒng)由平面波光源和用于周期性介質(zhì)的光導(dǎo)耦合探測(cè)組成。 4. VirtualLab Fusion – 光導(dǎo)耦合探測(cè) ?光波導(dǎo)耦合探測(cè)
    發(fā)表于 03-18 08:51

    VirtualLab Fusion應(yīng)用:非近軸衍射分束的設(shè)計(jì)與優(yōu)化

    )的結(jié)構(gòu)設(shè)計(jì)生成系列分束的初始設(shè)計(jì),然后通過傅里葉模態(tài)法或嚴(yán)格耦合波分析(FMM/RCWA)進(jìn)優(yōu)化。為了給最后
    發(fā)表于 03-10 08:56

    簡(jiǎn)單認(rèn)識(shí)線性位置傳感

    線性位置傳感種重要的測(cè)量設(shè)備,廣泛應(yīng)用于工業(yè)自動(dòng)化、汽車工程、醫(yī)療設(shè)備、航空航天以及其他多個(gè)領(lǐng)域。本文將詳細(xì)解析線性位置傳感的定義、
    的頭像 發(fā)表于 02-02 14:50 ?659次閱讀

    電磁波譜的分類實(shí)例

    電磁波譜是指電磁波按照波長(zhǎng)或頻率的不同而形成的系列范圍。電磁波譜包括從極低頻率的無(wú)線電波到極高頻率的伽馬射線。以下是電磁波譜的分類實(shí)例的介紹: 1. 無(wú)線電波(Radio Wa
    的頭像 發(fā)表于 01-20 16:50 ?2045次閱讀

    使用 sysbench 對(duì) Flexus X 實(shí)例對(duì) mysql 進(jìn)行性能測(cè)評(píng)

    、Flexus X 實(shí)例概述 1.1?Flexus X 實(shí)例 Flexus 云服務(wù) X 實(shí)例是華為云推出的
    的頭像 發(fā)表于 01-17 09:18 ?773次閱讀
    使用 sysbench 對(duì) Flexus X <b class='flag-5'>實(shí)例</b>對(duì) mysql <b class='flag-5'>進(jìn)行</b>性能測(cè)評(píng)

    LabVIEW使用Vision視覺進(jìn)行硬幣分類計(jì)數(shù)

    LabVIEW使用Vision視覺進(jìn)行硬幣分類計(jì)數(shù),有償,帶價(jià)加q:3430396759
    發(fā)表于 12-29 20:20

    線性負(fù)載分為哪些類型

    較小,但長(zhǎng)期積累也會(huì)影響電能質(zhì)量。 高次諧波非線性負(fù)載:如某些通信設(shè)備、電子設(shè)備等,可能產(chǎn)生更高次的諧波,對(duì)電網(wǎng)和設(shè)備本身造成更大的危害。 四、其他分類方式 可控硅整流型非線性負(fù)載:
    發(fā)表于 12-18 15:18

    如何使用ddc進(jìn)行數(shù)據(jù)分類

    不同的主題劃分為不同的類別。以下是如何使用DDC進(jìn)行數(shù)據(jù)分類的步驟和注意事項(xiàng): 、了解DDC的基本原則 十進(jìn)制分類 :DDC采用十進(jìn)制法,將所有的知識(shí)領(lǐng)域分為10
    的頭像 發(fā)表于 12-18 15:05 ?1146次閱讀

    使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類的步驟

    使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類個(gè)涉及多個(gè)步驟的過程。 1. 問題定義 確定目標(biāo) :明確你想要分類的圖像類型,例如貓和狗、不同的植
    的頭像 發(fā)表于 11-15 15:01 ?849次閱讀

    多功能UC1834優(yōu)化線性調(diào)節(jié)效率

    電子發(fā)燒友網(wǎng)站提供《多功能UC1834優(yōu)化線性調(diào)節(jié)效率.pdf》資料免費(fèi)下載
    發(fā)表于 10-24 09:51 ?0次下載
    多功能UC1834<b class='flag-5'>優(yōu)化</b><b class='flag-5'>線性</b>調(diào)節(jié)<b class='flag-5'>器</b>效率

    電源變換分類有哪些

    電源變換是將種形式的電能轉(zhuǎn)換為另種形式的設(shè)備,它們?cè)陔娮釉O(shè)備和電力系統(tǒng)中扮演著重要的角色。電源變換分類非常廣泛,可以根據(jù)不同的標(biāo)準(zhǔn)
    的頭像 發(fā)表于 09-30 09:36 ?1450次閱讀

    常用連接分類有哪些

    常用連接分類多種多樣,每種類型都根據(jù)其特定的應(yīng)用場(chǎng)合和設(shè)計(jì)特點(diǎn)進(jìn)行劃分。以下是對(duì)常用連接個(gè)
    的頭像 發(fā)表于 09-10 10:32 ?2223次閱讀

    新加坡服務(wù)延遲大嗎?如何進(jìn)行優(yōu)化

    新加坡服務(wù)的延遲通常在全國(guó)平均延遲111ms左右,其中移動(dòng)網(wǎng)絡(luò)約為90ms,聯(lián)通網(wǎng)絡(luò)106ms,電信網(wǎng)絡(luò)最低約為85ms。為了進(jìn)行優(yōu)化,般可以采取使用CDN、
    的頭像 發(fā)表于 08-09 13:58 ?506次閱讀

    電壓比較線性還是非線性

    的輸出電壓與輸入電壓之間存在滯后或窗口效應(yīng)。電壓比較種將兩個(gè)電壓信號(hào)進(jìn)行比較并輸出個(gè)二進(jìn)
    的頭像 發(fā)表于 08-06 15:18 ?1150次閱讀