chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)算法基礎(chǔ)與流程

倩倩 ? 來(lái)源:人人都是產(chǎn)品經(jīng)理 ? 2020-04-15 17:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、什么是機(jī)器學(xué)習(xí)

1. 含義

機(jī)器學(xué)習(xí)machine learning,是人工智能的分支,專門研究計(jì)算機(jī)怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,其通過(guò)各種算法訓(xùn)練模型,并用這些模型對(duì)新問(wèn)題進(jìn)行識(shí)別與預(yù)測(cè)。

本質(zhì)上機(jī)器學(xué)習(xí)是一種從數(shù)據(jù)或以往的經(jīng)驗(yàn)中提取模式,并以此優(yōu)化計(jì)算機(jī)程序的性能標(biāo)準(zhǔn)。

2. 解決什么問(wèn)題

解決復(fù)雜規(guī)則的問(wèn)題。如果簡(jiǎn)單規(guī)則可以實(shí)現(xiàn),則沒(méi)必要借助機(jī)器學(xué)習(xí)算法實(shí)現(xiàn)。

2009年ACM世界冠軍戴文淵加入百度的時(shí)候,百度所有的搜索、廣告都是基于1萬(wàn)條的專家規(guī)則。借助于機(jī)器算法,戴文淵把百度廣告的規(guī)則從1萬(wàn)條提升到了1000億條。與此相對(duì)應(yīng)的,百度的收入在四年內(nèi)提升了八倍。

3. 三個(gè)名詞之間的關(guān)系

人工智能》機(jī)器學(xué)習(xí)》深度學(xué)習(xí)

以機(jī)器學(xué)習(xí)算法是否應(yīng)用了神經(jīng)網(wǎng)絡(luò)作為區(qū)分標(biāo)準(zhǔn),應(yīng)用了多隱含層神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)就是深度學(xué)習(xí)。

4. 對(duì)AI產(chǎn)品經(jīng)理的要求

熟悉機(jī)器學(xué)習(xí)流程(詳見(jiàn)文章第三部分);

了解機(jī)器學(xué)習(xí)可以解決的問(wèn)題分類(詳見(jiàn)文章第四部分);

了解算法的基本原理;

了解工程實(shí)踐中算數(shù)據(jù)和計(jì)算資源三者間的依賴關(guān)系等。

二、機(jī)器學(xué)習(xí)的基礎(chǔ)

1. 機(jī)器學(xué)習(xí)的基礎(chǔ)——數(shù)據(jù)

人工智能產(chǎn)品由數(shù)據(jù)、算法、計(jì)算能力三部分組成,而數(shù)據(jù),是其中的基礎(chǔ)。

全球頂尖人工智能科學(xué)家李飛飛的成功離不開(kāi)ImageNet千萬(wàn)級(jí)的數(shù)據(jù)集。

“ImageNet 讓 AI 領(lǐng)域發(fā)生的一個(gè)重大變化是,人們突然意識(shí)到構(gòu)建數(shù)據(jù)集這個(gè)苦活累活是 AI 研究的核心,”李飛飛說(shuō): “人們真的明白了,數(shù)據(jù)集跟算法一樣,對(duì)研究都至關(guān)重要?!薄叭绻阒豢?5 張貓的照片,那么你只知道這 5 個(gè)攝像機(jī)角度、照明條件和最多 5 種不同種類的貓。但是,如果你看過(guò) 500 張貓的照片,你就能從更多的例子中發(fā)現(xiàn)共同點(diǎn)?!?/p>

數(shù)據(jù)量多大為好?

千級(jí)別:基本要求,可以解決簡(jiǎn)單手寫體數(shù)字識(shí)別問(wèn)題,例如MNIST;

萬(wàn)級(jí)別:一般要求,可以解決圖片分類問(wèn)題,例如cifar-100;

千萬(wàn)級(jí):比較好,例如ImageNet,準(zhǔn)確率2%左右,超過(guò)了人類5.1%。

2. 數(shù)據(jù)的衡量

人工智能產(chǎn)品對(duì)數(shù)據(jù)除了有量的要求,還有質(zhì)的要求,衡量數(shù)據(jù)質(zhì)量的標(biāo)準(zhǔn)包括四個(gè)R:關(guān)聯(lián)度relevancy(首要因素)、可信性reliability(關(guān)鍵因素)、范圍range、時(shí)效性recency。

數(shù)據(jù)獲取地址:

ICPSR:www.icpsr.umich.edu

美國(guó)政府開(kāi)放數(shù)據(jù):www.data.gov

加州大學(xué)歐文分校:archive.ics.uci.edu/ml

數(shù)據(jù)堂:www.datatang.com

三、機(jī)器學(xué)習(xí)的流程

機(jī)器學(xué)習(xí)的流程可以劃分為以下幾個(gè)主要步驟:目標(biāo)定義、數(shù)據(jù)收集、數(shù)據(jù)預(yù)處理、模型訓(xùn)練、準(zhǔn)確率測(cè)試、調(diào)參、模型輸出。

機(jī)器學(xué)習(xí)流程拆解

1. 目標(biāo)定義

確認(rèn)機(jī)器學(xué)習(xí)要解決的問(wèn)題本質(zhì)以及衡量的標(biāo)準(zhǔn)。

機(jī)器學(xué)習(xí)的目標(biāo)可以被分為:分類、回歸、聚類、異常檢測(cè)等。

2. 數(shù)據(jù)采集

原始數(shù)據(jù)作為機(jī)器學(xué)習(xí)過(guò)程中的輸入來(lái)源是從各種渠道中被采集而來(lái)的。

3. 數(shù)據(jù)預(yù)處理

普通數(shù)據(jù)挖掘中的預(yù)處理包括數(shù)據(jù)清洗、數(shù)據(jù)集成、數(shù)據(jù)轉(zhuǎn)換、數(shù)據(jù)削減、數(shù)據(jù)離散化。

深度學(xué)習(xí)數(shù)據(jù)預(yù)處理包含數(shù)據(jù)歸一化(包含樣本尺度歸一化、逐樣本的均值相減、標(biāo)準(zhǔn)化)和數(shù)據(jù)白化。需要將數(shù)據(jù)分為三種數(shù)據(jù)集,包括用來(lái)訓(xùn)練模型的訓(xùn)練集(training set),開(kāi)發(fā)過(guò)程中用于調(diào)參(parameter tuning)的驗(yàn)證集(validation set)以及測(cè)試時(shí)所使用的測(cè)試集(test set)。

數(shù)據(jù)標(biāo)注的質(zhì)量對(duì)于算法的成功率至關(guān)重要。

4. 模型訓(xùn)練

模型訓(xùn)練流程:每當(dāng)有數(shù)據(jù)輸入,模型都會(huì)輸出預(yù)測(cè)結(jié)果,而預(yù)測(cè)結(jié)果會(huì)用來(lái)調(diào)整和更新W和B的集合,接著訓(xùn)練新的數(shù)據(jù),直到訓(xùn)練出可以預(yù)測(cè)出接近真實(shí)結(jié)果的模型。

5. 準(zhǔn)確率測(cè)試

用第三步數(shù)據(jù)預(yù)處理中準(zhǔn)備好的測(cè)試集對(duì)模型進(jìn)行測(cè)試。

6. 調(diào)參

參數(shù)可以分為兩類,一類是需要在訓(xùn)練(學(xué)習(xí))之前手動(dòng)設(shè)置的參數(shù),即超參數(shù)(hypeparameter),另外一類是通常不需要手動(dòng)設(shè)置、在訓(xùn)練過(guò)程中可以被自動(dòng)調(diào)整的參數(shù)(parameter)。

調(diào)參通常需要依賴經(jīng)驗(yàn)和靈感來(lái)探尋其最優(yōu)值,本質(zhì)上更接近藝術(shù)而非科學(xué),是考察算法工程師能力高低的重點(diǎn)環(huán)節(jié)。

7. 模型輸出

模型最終輸出應(yīng)用于實(shí)際應(yīng)用場(chǎng)景的接口或數(shù)據(jù)集。

四、算法分類

機(jī)器學(xué)習(xí)囊括了多種算法,通常按照模型訓(xùn)練方式和解決任務(wù)的不同進(jìn)行分類。

1. 按照模型訓(xùn)練方式不同,可以分為

(1)監(jiān)督學(xué)習(xí)supervised learning

定義:監(jiān)督學(xué)習(xí)指系統(tǒng)通過(guò)對(duì)帶有標(biāo)記信息的訓(xùn)練樣本進(jìn)行學(xué)習(xí),以盡可能準(zhǔn)確地預(yù)測(cè)未知樣本的標(biāo)記信息。

常見(jiàn)的監(jiān)督學(xué)習(xí)類算法包括:人工神經(jīng)網(wǎng)絡(luò)artificial neural network、貝葉斯bayesian、決策樹(shù)decision tree、線性分類器linear classifier(svm支持向量機(jī))等。

(2)無(wú)監(jiān)督學(xué)習(xí)unsupervised learning

定義:無(wú)監(jiān)督學(xué)習(xí)指系統(tǒng)對(duì)沒(méi)有標(biāo)記信息的訓(xùn)練樣本進(jìn)行學(xué)習(xí),以發(fā)現(xiàn)數(shù)據(jù)中隱藏的結(jié)構(gòu)性知識(shí)。

常見(jiàn)的無(wú)監(jiān)督學(xué)習(xí)類算法包括:人工神經(jīng)網(wǎng)絡(luò)artificial neural network、關(guān)聯(lián)規(guī)則學(xué)習(xí)association rule learning、分層聚類hierarchical clustering、聚類分析cluster analysis、異常檢測(cè)anomaly detection等。

(3)半監(jiān)督學(xué)習(xí)semi-supervised learning

含義:半監(jiān)督學(xué)習(xí)指系統(tǒng)在學(xué)習(xí)時(shí)不僅有帶有標(biāo)記信息的訓(xùn)練樣本,還有部分標(biāo)記未知信息的訓(xùn)練樣本。

常見(jiàn)的半監(jiān)督學(xué)習(xí)算法包括:生成模型generative models、低密度分離low-density separation、基于圖形的方法graph-based methods、聯(lián)合訓(xùn)練co-training等。

(4)強(qiáng)化學(xué)習(xí)reinforcement learning

定義:強(qiáng)化學(xué)習(xí)指系統(tǒng)從不標(biāo)記信息,但是會(huì)在具有某種反饋信號(hào)(即瞬間獎(jiǎng)賞)的樣本中進(jìn)行學(xué)習(xí),以學(xué)到一種從狀態(tài)到動(dòng)作的映射來(lái)最大化累積獎(jiǎng)賞,這里的瞬時(shí)獎(jiǎng)賞可以看成對(duì)系統(tǒng)的某個(gè)狀態(tài)下執(zhí)行某個(gè)動(dòng)作的評(píng)價(jià)。

常見(jiàn)的強(qiáng)化學(xué)習(xí)算法包括:Q學(xué)習(xí)Q-learning、狀態(tài)-行動(dòng)-獎(jiǎng)勵(lì)-狀態(tài)-行動(dòng)state-action-reward-state-action,SARSA、DQN deep Q network、策略梯度算法policy gradients、基于模型強(qiáng)化學(xué)習(xí)model based RL、時(shí)序差分學(xué)習(xí)temporal different learning等。

(5)遷移學(xué)習(xí)transfer learning

定義:遷移學(xué)習(xí)指通過(guò)從已學(xué)習(xí)的相關(guān)任務(wù)中轉(zhuǎn)移知識(shí)來(lái)改進(jìn)學(xué)習(xí)的新任務(wù),雖然大多數(shù)機(jī)器學(xué)習(xí)算法都是為了解決單個(gè)任務(wù)而設(shè)計(jì)的,但是促進(jìn)遷移學(xué)習(xí)的算法的開(kāi)發(fā)是機(jī)器學(xué)習(xí)社區(qū)持續(xù)關(guān)注的話題。

遷移學(xué)習(xí)對(duì)人類來(lái)說(shuō)很常見(jiàn),例如,我們可能會(huì)發(fā)現(xiàn)學(xué)習(xí)識(shí)別蘋果可能有助于識(shí)別梨,或者學(xué)習(xí)彈奏電子琴可能有助于學(xué)習(xí)鋼琴。

常見(jiàn)的遷移學(xué)習(xí)算法包括:歸納式遷移學(xué)習(xí)inductive transfer learning、直推式遷移學(xué)習(xí)transductive transfer learning、無(wú)監(jiān)督式遷移學(xué)習(xí)unsupervised transfer learning、傳遞式遷移學(xué)習(xí)transitive transfer learning等。

(6)深度學(xué)習(xí)deep learning

定義:深度學(xué)習(xí)是指多層的人工神經(jīng)網(wǎng)絡(luò)和訓(xùn)練它的方法。一層神經(jīng)網(wǎng)絡(luò)會(huì)把大量矩陣數(shù)字作為輸入,通過(guò)非線性激活方法取權(quán)重,再產(chǎn)生另一個(gè)數(shù)據(jù)集合作為輸出。

這就像生物神經(jīng)大腦的工作機(jī)理一樣,通過(guò)合適的矩陣數(shù)量,多層組織鏈接一起,形成神經(jīng)網(wǎng)絡(luò)“大腦”進(jìn)行精準(zhǔn)復(fù)雜的處理,就像人們識(shí)別物體標(biāo)注圖片一樣。

常見(jiàn)的深度學(xué)習(xí)算法包括:深度信念網(wǎng)絡(luò)deep belief machines、深度卷積神經(jīng)網(wǎng)絡(luò)deep convolutional neural networks、深度遞歸神經(jīng)網(wǎng)絡(luò)deep recurrent neural networks、深度波爾茲曼機(jī)deep boltzmann machine,DBM、棧式自動(dòng)編碼器stacked autoencoder、生成對(duì)抗網(wǎng)絡(luò)generative adversarial networks等。

遷移學(xué)習(xí)與半監(jiān)督學(xué)習(xí)的區(qū)別:遷移學(xué)習(xí)的初步模型是完整的,半監(jiān)督學(xué)習(xí)的已標(biāo)注部分無(wú)法形成完整的模型。

2. 按照解決任務(wù)的不同分類,可以分為

(1)二分類算法two-class classification,解決非黑即白的問(wèn)題。

(2)多分類算法muti-class classification,解決不是非黑即白的多種分類問(wèn)題。

(3)回歸算法regression,回歸問(wèn)題通常被用來(lái)預(yù)測(cè)具體的數(shù)值而非分類。除了返回的結(jié)果不同,其他方法與分類問(wèn)題類似。我們將定量輸出,或者連續(xù)變量預(yù)測(cè)稱為回歸;將定性輸出,或者離散變量預(yù)測(cè)稱為分類。

(4)聚類算法clustering,聚類的目標(biāo)是發(fā)現(xiàn)數(shù)據(jù)的潛在規(guī)律和結(jié)構(gòu)。聚類通常被用做描述和衡量不同數(shù)據(jù)源間的相似性,并把數(shù)據(jù)源分類到不同的簇中。

(5)異常檢測(cè)anomaly detection,異常檢測(cè)是指對(duì)數(shù)據(jù)中存在的不正常或非典型的分體進(jìn)行檢測(cè)和標(biāo)志,有時(shí)也稱為偏差檢測(cè)。異常檢測(cè)看起來(lái)和監(jiān)督學(xué)習(xí)問(wèn)題非常相似,都是分類問(wèn)題。都是對(duì)樣本的標(biāo)簽進(jìn)行預(yù)測(cè)和判斷,但是實(shí)際上兩者的區(qū)別非常大,因?yàn)楫惓z測(cè)中的正樣本(異常點(diǎn))非常小。

3. 對(duì)AI產(chǎn)品經(jīng)理的要求

產(chǎn)品經(jīng)理應(yīng)了解和掌握每種常見(jiàn)算法的基本邏輯、最佳使用場(chǎng)景以及每種算法對(duì)數(shù)據(jù)的需求。

這樣有助于:

建立必要的知識(shí)體系以與研發(fā)人員進(jìn)行良好的交流;

在團(tuán)隊(duì)需要的時(shí)候提供必要的幫助;

識(shí)別和評(píng)估產(chǎn)品迭代過(guò)程中的風(fēng)險(xiǎn)、成本、預(yù)期效果等。

五、各類算法的對(duì)比

1. 算法與學(xué)習(xí)過(guò)程的對(duì)比

監(jiān)督學(xué)習(xí)——上課:有求知欲的學(xué)生從老師那里獲取知識(shí)、信息,老師提供對(duì)錯(cuò)指示、告知最終答案的學(xué)習(xí)過(guò)程;

無(wú)監(jiān)督學(xué)習(xí)——自習(xí):沒(méi)有老師的情況下,學(xué)生自習(xí)的過(guò)程;

強(qiáng)化學(xué)習(xí)下——自測(cè):沒(méi)有老師提示的情況下,自己對(duì)預(yù)測(cè)的結(jié)果進(jìn)行評(píng)估的方法。

2. 算法適用場(chǎng)景的影響因素

業(yè)務(wù)核心問(wèn)題;

數(shù)據(jù)大小、質(zhì)量;

計(jì)算時(shí)間要求;

算法精度要求。

3. 算法優(yōu)缺點(diǎn)及適用場(chǎng)景

注意:

(1)目前監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)是目前應(yīng)用范圍最廣且效果最好的機(jī)器學(xué)習(xí)方式。

(2)深度學(xué)習(xí)將在后續(xù)的文章中單獨(dú)介紹。

(3)半監(jiān)督學(xué)習(xí)依賴以下3個(gè)模型假設(shè)才能確保它良好的學(xué)習(xí)性能。

1)平滑假設(shè)(Smoothness Assumption)

位于稠密數(shù)據(jù)區(qū)域的兩個(gè)距離很近的樣例的類標(biāo)簽相似,當(dāng)兩個(gè)樣例北稀疏區(qū)域分開(kāi)時(shí),它們的類標(biāo)簽趨于不同。

2)聚類假設(shè)(Cluster Assumption)

當(dāng)兩個(gè)樣例位于同一聚類簇時(shí),它們?cè)诤艽蟮母怕试谟邢嗤念悩?biāo)簽。這個(gè)假設(shè)的等價(jià)定義為低密度分類假設(shè)(Low Density Separation Assumption),即分類決策邊界應(yīng)該穿過(guò)稀疏數(shù)據(jù)區(qū)域,而避免將稠密數(shù)據(jù)區(qū)域的樣例劃分到?jīng)Q策邊界兩側(cè)。

3)流形假設(shè)(Manifold Assumption)

將高維數(shù)據(jù)嵌入到低維流形中,當(dāng)兩個(gè)樣例位于低維流形中的一個(gè)小局部鄰域內(nèi)時(shí),它們具有相似的類標(biāo)簽。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249603
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134636
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    FPGA在機(jī)器學(xué)習(xí)中的具體應(yīng)用

    ,越來(lái)越多地被應(yīng)用于機(jī)器學(xué)習(xí)任務(wù)中。本文將探討 FPGA 在機(jī)器學(xué)習(xí)中的應(yīng)用,特別是在加速神經(jīng)網(wǎng)絡(luò)推理、優(yōu)化算法和提升處理效率方面的優(yōu)勢(shì)。
    的頭像 發(fā)表于 07-16 15:34 ?453次閱讀

    【「# ROS 2智能機(jī)器人開(kāi)發(fā)實(shí)踐」閱讀體驗(yàn)】視覺(jué)實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    視覺(jué)巡線,展示了如何從數(shù)據(jù)采集、模型訓(xùn)練到機(jī)器人部署的完整流程。 值得注意的是,深度學(xué)習(xí)模型的實(shí)時(shí)性對(duì)機(jī)器人計(jì)算資源提出了較高要求,優(yōu)化模型(如TensorRT加速)是實(shí)際部署的關(guān)鍵。
    發(fā)表于 05-03 19:41

    請(qǐng)問(wèn)STM32部署機(jī)器學(xué)習(xí)算法硬件至少要使用哪個(gè)系列的芯片?

    STM32部署機(jī)器學(xué)習(xí)算法硬件至少要使用哪個(gè)系列的芯片?
    發(fā)表于 03-13 07:34

    機(jī)器學(xué)習(xí)模型市場(chǎng)前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長(zhǎng)以及計(jì)算能力的飛速提升,機(jī)器學(xué)習(xí)模型的市場(chǎng)前景愈發(fā)廣闊。下面,AI部落小編將探討機(jī)器學(xué)習(xí)模型市場(chǎng)
    的頭像 發(fā)表于 02-13 09:39 ?365次閱讀

    算法加速的概念、意義、流程和應(yīng)用

    本文介紹算法加速的概念、意義、流程和應(yīng)用 一、什么是算法加速 面向“最耗時(shí)”的部分做專用化處理: 在軟件運(yùn)行時(shí),總有一些特定算法會(huì)消耗大量 CPU 資源,比如加密解密、圖像處理或神經(jīng)網(wǎng)
    的頭像 發(fā)表于 01-15 09:34 ?601次閱讀

    華為云 Flexus X 實(shí)例部署安裝 Jupyter Notebook,學(xué)習(xí) AI,機(jī)器學(xué)習(xí)算法

    前言 由于本人最近在學(xué)習(xí)一些機(jī)器算法,AI 算法的知識(shí),需要搭建一個(gè)學(xué)習(xí)環(huán)境,所以就在最近購(gòu)買的華為云 Flexus X 實(shí)例上安裝了
    的頭像 發(fā)表于 01-02 13:43 ?540次閱讀
    華為云 Flexus X 實(shí)例部署安裝 Jupyter Notebook,<b class='flag-5'>學(xué)習(xí)</b> AI,<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章中,我們介紹了機(jī)器學(xué)習(xí)的關(guān)鍵概念術(shù)語(yǔ)。在本文中,我們會(huì)介紹傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法特征,供各位老師選擇。 01 傳統(tǒng)
    的頭像 發(fā)表于 12-30 09:16 ?1194次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    如何選擇云原生機(jī)器學(xué)習(xí)平臺(tái)

    當(dāng)今,云原生機(jī)器學(xué)習(xí)平臺(tái)因其彈性擴(kuò)展、高效部署、低成本運(yùn)營(yíng)等優(yōu)勢(shì),逐漸成為企業(yè)構(gòu)建和部署機(jī)器學(xué)習(xí)應(yīng)用的首選。然而,市場(chǎng)上的云原生機(jī)器
    的頭像 發(fā)表于 12-25 11:54 ?458次閱讀

    構(gòu)建云原生機(jī)器學(xué)習(xí)平臺(tái)流程

    構(gòu)建云原生機(jī)器學(xué)習(xí)平臺(tái)是一個(gè)復(fù)雜而系統(tǒng)的過(guò)程,涉及數(shù)據(jù)收集、處理、特征提取、模型訓(xùn)練、評(píng)估、部署和監(jiān)控等多個(gè)環(huán)節(jié)。
    的頭像 發(fā)表于 12-14 10:34 ?436次閱讀

    什么是機(jī)器學(xué)習(xí)?通過(guò)機(jī)器學(xué)習(xí)方法能解決哪些問(wèn)題?

    來(lái)源:Master編程樹(shù)“機(jī)器學(xué)習(xí)”最初的研究動(dòng)機(jī)是讓計(jì)算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實(shí)現(xiàn)人工智能。因?yàn)闆](méi)有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?965次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?通過(guò)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問(wèn)題?

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對(duì)計(jì)算資源的需求也在不斷增長(zhǎng)。NPU作為一種專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-15 09:19 ?1229次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與其他機(jī)器學(xué)習(xí)算法的比較

    隨著人工智能技術(shù)的飛速發(fā)展,機(jī)器學(xué)習(xí)算法在各個(gè)領(lǐng)域中扮演著越來(lái)越重要的角色。長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)作為一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),因其在處理序列數(shù)據(jù)方面的優(yōu)勢(shì)而受到廣泛關(guān)注。 LSTM
    的頭像 發(fā)表于 11-13 10:17 ?2147次閱讀

    人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個(gè)很大的子集是機(jī)器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)。
    發(fā)表于 10-24 17:22 ?2981次閱讀
    人工智能、<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    LIBS結(jié)合機(jī)器學(xué)習(xí)算法的江西名優(yōu)春茶采收期鑒別

    以廬山云霧茶和狗牯腦茶的明前茶、雨前茶為對(duì)象,研究激光誘導(dǎo)擊穿光譜結(jié)合機(jī)器學(xué)習(xí)的茶葉鑒別方法。將茶葉茶,水?dāng)?shù)據(jù)融合可有效鑒別春茶采收期,且數(shù)據(jù)融合后表現(xiàn)出更好的穩(wěn)定性和魯棒性,LIBS結(jié)合機(jī)器
    的頭像 發(fā)表于 10-22 18:05 ?649次閱讀
    LIBS結(jié)合<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>的江西名優(yōu)春茶采收期鑒別

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 鳥(niǎo)瞰這本書(shū)

    清晰,從時(shí)間序列分析的基礎(chǔ)理論出發(fā),逐步深入到機(jī)器學(xué)習(xí)算法在時(shí)間序列預(yù)測(cè)中的應(yīng)用,內(nèi)容全面,循序漸進(jìn)。每一章都經(jīng)過(guò)精心設(shè)計(jì),對(duì)理論知識(shí)進(jìn)行了詳細(xì)的闡述,對(duì)實(shí)際案例進(jìn)行了生動(dòng)的展示,使讀者在理論與實(shí)踐
    發(fā)表于 08-12 11:28