chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

誰用NumPy手推了一大波ML模型?

新機(jī)器視覺 ? 來源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2022-11-18 14:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群


	

NumPy作為 Python 生態(tài)中最受歡迎的科學(xué)計(jì)算包,很多讀者已經(jīng)非常熟悉它了。

它為 Python 提供高效率的多維數(shù)組計(jì)算,并提供了一系列高等數(shù)學(xué)函數(shù),我們可以快速搭建模型的整個(gè)計(jì)算流程。毫不負(fù)責(zé)任地說,NumPy 就是現(xiàn)代深度學(xué)習(xí)框架的「爸爸」。

盡管目前使用 NumPy 寫模型已經(jīng)不是主流,但這種方式依然不失為是理解底層架構(gòu)和深度學(xué)習(xí)原理的好方法。最近,來自普林斯頓的一位博士后將 NumPy 實(shí)現(xiàn)的所有機(jī)器學(xué)習(xí)模型全部開源,超過 3 萬行代碼、30 多個(gè)模型,并提供了相應(yīng)的論文和一些實(shí)現(xiàn)的測(cè)試效果。

項(xiàng)目地址:https://github.com/ddbourgin/numpy-ml

粗略估計(jì),該項(xiàng)目大約有 30 個(gè)主要機(jī)器學(xué)習(xí)模型,此外還有 15 個(gè)用于預(yù)處理和計(jì)算的小工具,全部.py 文件數(shù)量有 62 個(gè)之多。平均每個(gè)模型的代碼行數(shù)在 500 行以上,在神經(jīng)網(wǎng)絡(luò)模型的 layer.py 文件中,代碼行數(shù)接近 4000。

這,應(yīng)該是目前用 NumPy 手寫機(jī)器學(xué)習(xí)模型的「最高境界」吧。

誰用 NumPy 手推了一大波 ML 模型?通過項(xiàng)目的代碼目錄,我們能發(fā)現(xiàn),作者基本上把主流模型都實(shí)現(xiàn)了一遍,這個(gè)工作量簡直驚為天人。作者 David Bourgin 是一位大神,于 2018 年獲得加州大學(xué)伯克利分校計(jì)算認(rèn)知科學(xué)博士學(xué)位,隨后在普林斯頓大學(xué)從事博士后研究。 盡管畢業(yè)不久,David 在頂級(jí)期刊與計(jì)算機(jī)會(huì)議上都發(fā)表了一些優(yōu)秀論文。在 ICML 2019 中,其關(guān)于認(rèn)知模型先驗(yàn)的研究就被接收為少有的 Oral 論文。 David Bourgin 就是用 NumPy 手寫 ML 模型、手推反向傳播的大神。這么多的工作量,當(dāng)然還是需要很多參考資源的,David 會(huì)理解這些資源或?qū)崿F(xiàn),并以一種更易讀的方式寫出來。 他表示,從 autograd repo 學(xué)到了很多,但二者的不同之處在于,他顯式地進(jìn)行了所有梯度計(jì)算,以突出概念/數(shù)學(xué)的清晰性。當(dāng)然,這么做的缺點(diǎn)也很明顯,在每次需要微分一個(gè)新函數(shù)時(shí),你都要寫出它的公式…… 估計(jì) David Bourgin 在寫完這個(gè)項(xiàng)目后,機(jī)器學(xué)習(xí)基礎(chǔ)已經(jīng)極其牢固了。項(xiàng)目總體介紹這個(gè)項(xiàng)目最大的特點(diǎn)是作者把機(jī)器學(xué)習(xí)模型都用 NumPy 手寫了一遍,包括更顯式的梯度計(jì)算和反向傳播過程。可以說它就是一個(gè)機(jī)器學(xué)習(xí)框架了,只不過代碼可讀性會(huì)強(qiáng)很多。 David Bourgin 表示他一直在慢慢寫或收集不同模型與模塊的純 NumPy 實(shí)現(xiàn),它們跑起來可能沒那么快,但是模型的具體過程一定足夠直觀。每當(dāng)我們想了解模型 API 背后的實(shí)現(xiàn),卻又不想看復(fù)雜的框架代碼,那么它可以作為快速的參考。 文章后面會(huì)具體介紹整個(gè)項(xiàng)目都有什么模型,這里先簡要介紹它的整體結(jié)構(gòu)。如下所示為項(xiàng)目文件,不同的文件夾即不同種類的代碼集。 15ccbc5a-66f7-11ed-8abf-dac502259ad0.jpg ?在每一個(gè)代碼集下,作者都會(huì)提供不同實(shí)現(xiàn)的參考資料,例如模型的效果示例圖、參考論文和參考鏈接等。如下所示,David 在實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)層級(jí)的過程中,還提供了參考論文。 15e600c0-66f7-11ed-8abf-dac502259ad0.jpg ?當(dāng)然如此龐大的代碼總會(huì)存在一些 Bug,作者也非常希望我們能一起完善這些實(shí)現(xiàn)。如果我們以前用純 NumPy 實(shí)現(xiàn)過某些好玩的模型,那也可以直接提交 PR 請(qǐng)求。因?yàn)閷?shí)現(xiàn)基本上都只依賴于 NumPy,那么環(huán)境配置就簡單很多了,大家差不多都能跑得動(dòng)。手寫 NumPy 全家福作者在 GitHub 中提供了模型/模塊的實(shí)現(xiàn)列表,列表結(jié)構(gòu)基本就是代碼文件的結(jié)構(gòu)了。整體上,模型主要分為兩部分,即傳統(tǒng)機(jī)器學(xué)習(xí)模型主流的深度學(xué)習(xí)模型。 其中淺層模型既有隱馬爾可夫模型和提升方法這樣的復(fù)雜模型,也包含了線性回歸或最近鄰等經(jīng)典方法。而深度模型則主要從各種模塊、層級(jí)、損失函數(shù)、最優(yōu)化器等角度搭建代碼架構(gòu),從而能快速構(gòu)建各種神經(jīng)網(wǎng)絡(luò)。 除了模型外,整個(gè)項(xiàng)目還有一些輔助模塊,包括一堆預(yù)處理相關(guān)的組件和有用的小工具。 該 repo 的模型或代碼結(jié)構(gòu)如下所示: 1. 高斯混合模型
  • EM 訓(xùn)練
2. 隱馬爾可夫模型
  • 維特比解碼
  • 似然計(jì)算
  • 通過 Baum-Welch/forward-backward 算法進(jìn)行 MLE 參數(shù)估計(jì)
3. 隱狄利克雷分配模型(主題模型)
  • 用變分 EM 進(jìn)行 MLE 參數(shù)估計(jì)的標(biāo)準(zhǔn)模型
  • 用 MCMC 進(jìn)行 MAP 參數(shù)估計(jì)的平滑模型
4. 神經(jīng)網(wǎng)絡(luò)4.1 層/層級(jí)運(yùn)算
  • Add
  • Flatten
  • Multiply
  • Softmax
  • 全連接/Dense
  • 稀疏進(jìn)化連接
  • LSTM
  • Elman 風(fēng)格的 RNN
  • 最大+平均池化
  • 點(diǎn)積注意力
  • 受限玻爾茲曼機(jī) (w. CD-n training)
  • 2D 轉(zhuǎn)置卷積 (w. padding 和 stride)
  • 2D 卷積 (w. padding、dilation 和 stride)
  • 1D 卷積 (w. padding、dilation、stride 和 causality)
4.2 模塊
  • 雙向 LSTM
  • ResNet 風(fēng)格的殘差塊(恒等變換和卷積)
  • WaveNet 風(fēng)格的殘差塊(帶有擴(kuò)張因果卷積)
  • Transformer 風(fēng)格的多頭縮放點(diǎn)積注意力
4.3 正則化項(xiàng)
  • Dropout
  • 歸一化
  • 批歸一化(時(shí)間上和空間上)
  • 層歸一化(時(shí)間上和空間上)
4.4 優(yōu)化器
  • SGD w/ 動(dòng)量
  • AdaGrad
  • RMSProp
  • Adam
4.5 學(xué)習(xí)率調(diào)度器
  • 常數(shù)
  • 指數(shù)
  • Noam/Transformer
  • Dlib 調(diào)度器
4.6 權(quán)重初始化器
  • Glorot/Xavier uniform 和 normal
  • He/Kaiming uniform 和 normal
  • 標(biāo)準(zhǔn)和截?cái)嗾龖B(tài)分布初始化
4.7 損失
  • 交叉熵
  • 平方差
  • Bernoulli VAE 損失
  • 帶有梯度懲罰的 Wasserstein 損失
4.8 激活函數(shù)
  • ReLU
  • Tanh
  • Affine
  • Sigmoid
  • Leaky ReLU
4.9 模型
  • Bernoulli 變分自編碼器
  • 帶有梯度懲罰的 Wasserstein GAN
4.10 神經(jīng)網(wǎng)絡(luò)工具
  • col2im (MATLAB 端口)
  • im2col (MATLAB 端口)
  • conv1D
  • conv2D
  • deconv2D
  • minibatch
5. 基于樹的模型
  • 決策樹 (CART)
  • [Bagging] 隨機(jī)森林
  • [Boosting] 梯度提升決策樹
6. 線性模型
  • 嶺回歸
  • Logistic 回歸
  • 最小二乘法
  • 貝葉斯線性回歸 w/共軛先驗(yàn)
7.n 元序列模型
  • 最大似然得分
  • Additive/Lidstone 平滑
  • 簡單 Good-Turing 平滑
8. 強(qiáng)化學(xué)習(xí)模型
  • 使用交叉熵方法的智能
  • 首次訪問 on-policy 蒙特卡羅智能體
  • 加權(quán)增量重要采樣蒙特卡羅智能體
  • Expected SARSA 智能體
  • TD-0 Q-learning 智能體
  • Dyna-Q / Dyna-Q+ 優(yōu)先掃描
9. 非參數(shù)模型
  • Nadaraya-Watson 核回歸
  • k 最近鄰分類與回歸
10. 預(yù)處理
  • 離散傅立葉變換 (1D 信號(hào))
  • 雙線性插值 (2D 信號(hào))
  • 最近鄰插值 (1D 和 2D 信號(hào))
  • 自相關(guān) (1D 信號(hào))
  • 信號(hào)窗口
  • 文本分詞
  • 特征哈希
  • 特征標(biāo)準(zhǔn)化
  • One-hot 編碼/解碼
  • Huffman 編碼/解碼
  • 詞頻逆文檔頻率編碼
11. 工具
  • 相似度核
  • 距離度量
  • 優(yōu)先級(jí)隊(duì)列
  • Ball tree 數(shù)據(jù)結(jié)構(gòu)
項(xiàng)目示例由于代碼量龐大,這里整理了一些示例。 例如,實(shí)現(xiàn)點(diǎn)積注意力機(jī)制:1603bf84-66f7-11ed-8abf-dac502259ad0.png

								classDotProductAttention(LayerBase): def__init__(self,scale=True,dropout_p=0,init="glorot_uniform",optimizer=None): super().__init__(optimizer) self.init=init self.scale=scale self.dropout_p=dropout_p self.optimizer=self.optimizer self._init_params() def_fwd(self,Q,K,V): scale=1/np.sqrt(Q.shape[-1])ifself.scaleelse1 scores=Q@K.swapaxes(-2,-1)*scale#attentionscores weights=self.softmax.forward(scores)#attentionweights Y=weights@V returnY,weights def_bwd(self,dy,q,k,v,weights): d_k=k.shape[-1] scale=1/np.sqrt(d_k)ifself.scaleelse1 dV=weights.swapaxes(-2,-1)@dy dWeights=dy@v.swapaxes(-2,-1) dScores=self.softmax.backward(dWeights) dQ=dScores@k*scale dK=dScores.swapaxes(-2,-1)@q*scale returndQ,dK,dV
									在以上代碼中,Q、K、V 三個(gè)向量輸入到「_fwd」函數(shù)中,用于計(jì)算每個(gè)向量的注意力分?jǐn)?shù),并通過 softmax 的方式得到權(quán)重。而「_bwd」函數(shù)則計(jì)算 V、注意力權(quán)重、注意力分?jǐn)?shù)、Q 和 K 的梯度,用于更新網(wǎng)絡(luò)權(quán)重。
									在一些實(shí)現(xiàn)中,作者也進(jìn)行了測(cè)試,并給出了測(cè)試結(jié)果。如圖為隱狄利克雷(Latent Dirichlet allocation,LDA)實(shí)現(xiàn)進(jìn)行文本聚類的結(jié)果。左圖為詞語在特定主題中的分布熱力圖。右圖則為文檔在特定主題中的分布熱力圖。
									16214cd4-66f7-11ed-8abf-dac502259ad0.jpg圖注:隱狄利克雷分布實(shí)現(xiàn)的效果。

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4400

    瀏覽量

    66365
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8528

    瀏覽量

    135872
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4848

    瀏覽量

    88952

原文標(biāo)題:?Numpy手寫機(jī)器學(xué)習(xí)算法,3萬行代碼!

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AT_DEVICE支持ML307嗎?

    這個(gè)到底支不支持ML305 ML307,圖形界面有 ,但是保存配置后并沒有這個(gè)文件,如果沒有就在介紹上刪掉吧,浪費(fèi)天時(shí)間加這個(gè)東西
    發(fā)表于 09-11 07:42

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    應(yīng)用。 為什么選擇 Neuton 作為開發(fā)人員,在產(chǎn)品中使用邊緣人工智能的兩個(gè)最大障礙是: ML 模型對(duì)于您所選微控制器的內(nèi)存來說太大。 創(chuàng)建自定義 ML 模型本質(zhì)上是
    發(fā)表于 08-31 20:54

    普迪飛 | AI預(yù)測(cè)建模工具,釋放AI/ML的強(qiáng)大潛力!

    問題、精準(zhǔn)把握良品率的能力,已成為企業(yè)發(fā)展的關(guān)鍵勝負(fù)。各公司正在加大AI和ML技術(shù)的投入,目標(biāo)是針對(duì)研發(fā)制造端預(yù)測(cè)的新模型,力求在這場(chǎng)“制造力競(jìng)賽”中脫穎而出。但不
    的頭像 發(fā)表于 08-19 13:53 ?232次閱讀
    普迪飛 | AI預(yù)測(cè)建模工具,釋放AI/<b class='flag-5'>ML</b>的強(qiáng)大潛力!

    yolov11轉(zhuǎn)kmodel,numpy是要降級(jí)為1.x嗎?

    python3.9,yolo是最新的穩(wěn)定版,和yolo捆綁pip安裝的numpy是2.0.1 錯(cuò)誤日志
    發(fā)表于 08-11 08:16

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級(jí)芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    這對(duì)開發(fā)人員意味著什么,以及使用Neuton 模型如何改進(jìn)您的開發(fā)和最終應(yīng)用。 ML 模型對(duì)于您所選微控制器的內(nèi)存來說太大。 創(chuàng)建自定義ML 模型
    發(fā)表于 07-31 11:38

    Raspberry Pi Pico 2 上實(shí)現(xiàn):實(shí)時(shí)機(jī)器學(xué)習(xí)(ML)音頻噪音抑制功能

    Arm公司的首席軟件工程師SandeepMistry為我們展示了種全新的巧妙方法:在RaspberryPiPico2上如何將音頻噪音抑制應(yīng)用于麥克風(fēng)輸入。機(jī)器學(xué)習(xí)(ML)技術(shù)徹底改變了許多軟件應(yīng)用
    的頭像 發(fā)表于 03-25 09:46 ?826次閱讀
    Raspberry Pi Pico 2 上實(shí)現(xiàn):實(shí)時(shí)機(jī)器學(xué)習(xí)(<b class='flag-5'>ML</b>)音頻噪音抑制功能

    AI開源模型庫有什么

    AI開源模型庫作為推動(dòng)AI技術(shù)發(fā)展的重要力量,正深刻改變著我們的生產(chǎn)生活方式。接下來,AI部落小編帶您了解AI開源模型庫有什么。
    的頭像 發(fā)表于 02-24 11:50 ?670次閱讀

    AI開發(fā)平臺(tái)模型怎么

    AI開發(fā)平臺(tái)極大地簡化了AI應(yīng)用的開發(fā)流程,從環(huán)境搭建、模型訓(xùn)練到部署集成,每步都提供了豐富的工具和資源。那么,AI開發(fā)平臺(tái)模型怎么呢?下面,AI部落小編帶您了解。
    的頭像 發(fā)表于 02-11 09:53 ?491次閱讀

    DAC8562輸出個(gè)三角測(cè)試,示波器發(fā)現(xiàn)輸出的三角有毛刺,怎么解決?

    DAC8562輸出個(gè)三角測(cè)試,示波器發(fā)現(xiàn)輸出的三角有些毛刺,負(fù)載是XTR111,電路圖按照datasheet提供的電路設(shè)計(jì),采
    發(fā)表于 01-23 06:21

    Reality AI Tools創(chuàng)建模型

    在第二步采集到的數(shù)據(jù)基礎(chǔ)之上,Reality AI Tools創(chuàng)建模型。
    的頭像 發(fā)表于 01-22 14:23 ?2659次閱讀
    <b class='flag-5'>用</b>Reality AI Tools創(chuàng)建<b class='flag-5'>模型</b>

    SPEC ML基準(zhǔn)測(cè)試新增模算效率指標(biāo)

    和模算效率三大關(guān)鍵指標(biāo)。 作為此次更新的亮點(diǎn)之,模算效率首次被納入SPEC ML基準(zhǔn)評(píng)測(cè)體系。這指標(biāo)的加入,旨在填補(bǔ)大模型計(jì)算效率評(píng)測(cè)基準(zhǔn)領(lǐng)域的研究空白,為AI領(lǐng)域的發(fā)展提供更加全
    的頭像 發(fā)表于 01-15 14:28 ?662次閱讀

    TLV5614的四個(gè)通道輸出電壓都一大堆雜波,請(qǐng)問是芯片的問題嗎?

    最近TLV5614芯片,他的四個(gè)通道輸出電壓都一大堆雜波,請(qǐng)問是芯片的問題嗎?
    發(fā)表于 12-26 08:22

    LM98640是給個(gè)過滿度的正弦采集大量全碼數(shù)據(jù)進(jìn)行概率分布計(jì)算DNL還是給個(gè)斜坡進(jìn)行靜態(tài)測(cè)試?

    是給個(gè)過滿度的正弦采集大量全碼數(shù)據(jù)進(jìn)行概率分布計(jì)算DNL還是給個(gè)斜坡進(jìn)行靜態(tài)測(cè)試? 我的正弦測(cè)試結(jié)果怎么使兩頭各有
    發(fā)表于 12-25 07:11

    Ollama輕松搞定Llama 3.2 Vision模型本地部署

    模型
    jf_23871869
    發(fā)布于 :2024年11月18日 19:40:10

    如何使用Python構(gòu)建LSTM神經(jīng)網(wǎng)絡(luò)模型

    NumPy:用于數(shù)學(xué)運(yùn)算。 TensorFlow:個(gè)開源機(jī)器學(xué)習(xí)庫,Keras是其高級(jí)API。 Keras:用于構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型。 你可以使用pip來安裝這些庫: pip install
    的頭像 發(fā)表于 11-13 10:10 ?1976次閱讀