一、什么是視覺檢測中的深度學(xué)習(xí)?
在深度學(xué)習(xí)算法出來之前,對于視覺算法來說,大致可以分為以下5個(gè)步驟:特征感知,圖像預(yù)處理,特征提取,特征篩選,推理預(yù)測與識(shí)別。早期的機(jī)器學(xué)習(xí)中,占優(yōu)勢的統(tǒng)計(jì)機(jī)器學(xué)習(xí)群體中,對特征是不大關(guān)心的。
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)技術(shù)的一個(gè)方面,由人工神經(jīng)網(wǎng)絡(luò)提供支持。深度學(xué)習(xí)技術(shù)的工作原理是教機(jī)器通過實(shí)例學(xué)習(xí)。通過為神經(jīng)網(wǎng)絡(luò)提供特定類型數(shù)據(jù)的標(biāo)記示例,可以提取這些示例之間的共同模式,然后將其轉(zhuǎn)換為數(shù)學(xué)方程。這有助于對未來的信息進(jìn)行分類。
通過視覺檢測技術(shù),深度學(xué)習(xí)算法的集成可以區(qū)分零件、異常和字符,在運(yùn)行計(jì)算機(jī)化系統(tǒng)的同時(shí)模擬人類視覺檢測。
那么,這到底是什么意思呢?舉個(gè)例子。
如果要為汽車制造創(chuàng)建視覺檢測軟件,你應(yīng)該開發(fā)一種基于深度學(xué)習(xí)的算法,并使用必須檢測的缺陷示例對其進(jìn)行訓(xùn)練。有了足夠的數(shù)據(jù),神經(jīng)網(wǎng)絡(luò)最終會(huì)在沒有任何額外指令的情況下檢測缺陷。
基于深度學(xué)習(xí)的視覺檢測系統(tǒng)擅長檢測性質(zhì)復(fù)雜的缺陷。它們不僅可以解決復(fù)雜的表面和外觀缺陷,還可以概括和概念化汽車零件的表面。
仿生學(xué)角度看深度學(xué)習(xí)
如果不手動(dòng)設(shè)計(jì)特征,不挑選分類器,有沒有別的方案呢?能不能同時(shí)學(xué)習(xí)特征和分類器?即輸入某一個(gè)模型的時(shí)候,輸入只是圖片,輸出就是它自己的標(biāo)簽。比如輸入一個(gè)明星的頭像,出來的標(biāo)簽就是一個(gè)50維的向量(如果要在50個(gè)人里識(shí)別的話),其中對應(yīng)明星的向量是1,其他的位置是0。
這種設(shè)定符合人類腦科學(xué)的研究成果。
1981年諾貝爾醫(yī)學(xué)生理學(xué)獎(jiǎng)?lì)C發(fā)給了David Hubel,一位神經(jīng)生物學(xué)家。他的主要研究成果是發(fā)現(xiàn)了視覺系統(tǒng)信息處理機(jī)制,證明大腦的可視皮層是分級(jí)的。他的貢獻(xiàn)主要有兩個(gè),一是他認(rèn)為人的視覺功能一個(gè)是抽象,一個(gè)是迭代。抽象就是把非常具體的形象的元素,即原始的光線像素等信息,抽象出來形成有意義的概念。這些有意義的概念又會(huì)往上迭代,變成更加抽象,人可以感知到的抽象概念。
像素是沒有抽象意義的,但人腦可以把這些像素連接成邊緣,邊緣相對像素來說就變成了比較抽象的概念;邊緣進(jìn)而形成球形,球形然后到氣球,又是一個(gè)抽象的過程,大腦最終就知道看到的是一個(gè)氣球。
模擬人腦識(shí)別人臉,也是抽象迭代的過程,從最開始的像素到第二層的邊緣,再到人臉的部分,然后到整張人臉,是一個(gè)抽象迭代的過程。
再比如看到圖片中的摩托車,我們可能在腦子里就幾微秒的時(shí)間,但是經(jīng)過了大量的神經(jīng)元抽象迭代。對計(jì)算機(jī)來說最開始看到的根本也不是摩托車,而是RGB圖像三個(gè)通道上不同的數(shù)字。
所謂的特征或者視覺特征,就是把這些數(shù)值給綜合起來用統(tǒng)計(jì)或非統(tǒng)計(jì)的形式,把摩托車的部件或者整輛摩托車表現(xiàn)出來。深度學(xué)習(xí)的流行之前,大部分的設(shè)計(jì)圖像特征就是基于此,即把一個(gè)區(qū)域內(nèi)的像素級(jí)別的信息綜合表現(xiàn)出來,利于后面的分類學(xué)習(xí)。
如果要完全模擬人腦,我們也要模擬抽象和遞歸迭代的過程,把信息從最細(xì)瑣的像素級(jí)別,抽象到“種類”的概念,讓人能夠接受。
卷積的概念
計(jì)算機(jī)視覺里經(jīng)常使卷積神經(jīng)網(wǎng)絡(luò),即CNN,是一種對人腦比較精準(zhǔn)的模擬。
什么是卷積?卷積就是兩個(gè)函數(shù)之間的相互關(guān)系,然后得出一個(gè)新的值,他是在連續(xù)空間做積分計(jì)算,然后在離散空間內(nèi)求和的過程。實(shí)際上在計(jì)算機(jī)視覺里面,可以把卷積當(dāng)做一個(gè)抽象的過程,就是把小區(qū)域內(nèi)的信息統(tǒng)計(jì)抽象出來。
比如,對于一張愛因斯坦的照片,我可以學(xué)習(xí)n個(gè)不同的卷積和函數(shù),然后對這個(gè)區(qū)域進(jìn)行統(tǒng)計(jì)??梢杂貌煌姆椒ńy(tǒng)計(jì),比如著重統(tǒng)計(jì)中央,也可以著重統(tǒng)計(jì)周圍,這就導(dǎo)致統(tǒng)計(jì)的和函數(shù)的種類多種多樣,為了達(dá)到可以同時(shí)學(xué)習(xí)多個(gè)統(tǒng)計(jì)的累積和。
上圖中是,如何從輸入圖像怎么到最后的卷積,生成的響應(yīng)map。首先用學(xué)習(xí)好的卷積和對圖像進(jìn)行掃描,然后每一個(gè)卷積和會(huì)生成一個(gè)掃描的響應(yīng)圖,我們叫response map,或者叫feature map。如果有多個(gè)卷積和,就有多個(gè)feature map。也就說從一個(gè)最開始的輸入圖像(RGB三個(gè)通道)可以得到256個(gè)通道的feature map,因?yàn)橛?56個(gè)卷積和,每個(gè)卷積和代表一種統(tǒng)計(jì)抽象的方式。
在卷積神經(jīng)網(wǎng)絡(luò)中,除了卷積層,還有一種叫池化的操作。池化操作在統(tǒng)計(jì)上的概念更明確,就是一個(gè)對一個(gè)小區(qū)域內(nèi)求平均值或者求最大值的統(tǒng)計(jì)操作。
帶來的結(jié)果是,如果之前我輸入有兩個(gè)通道的,或者256通道的卷積的響應(yīng)feature map,每一個(gè)feature map都經(jīng)過一個(gè)求最大的一個(gè)池化層,會(huì)得到一個(gè)比原來feature map更小的256的feature map。
在上面這個(gè)例子里,池化層對每一個(gè)2X2的區(qū)域求最大值,然后把最大值賦給生成的feature map的對應(yīng)位置。如果輸入圖像是100×100的話,那輸出圖像就會(huì)變成50×50,feature map變成了一半。同時(shí)保留的信息是原來2X2區(qū)域里面最大的信息。
操作的實(shí)例:LeNet網(wǎng)絡(luò)
Le顧名思義就是指人工智能領(lǐng)域的大牛Lecun。這個(gè)網(wǎng)絡(luò)是深度學(xué)習(xí)網(wǎng)絡(luò)的最初原型,因?yàn)橹暗木W(wǎng)絡(luò)都比較淺,它較深的。LeNet在98年就發(fā)明出來了,當(dāng)時(shí)Lecun在AT&T的實(shí)驗(yàn)室,他用這一網(wǎng)絡(luò)進(jìn)行字母識(shí)別,達(dá)到了非常好的效果。
怎么構(gòu)成呢?輸入圖像是32×32的灰度圖,第一層經(jīng)過了一組卷積和,生成了6個(gè)28X28的feature map,然后經(jīng)過一個(gè)池化層,得到得到6個(gè)14X14的feature map,然后再經(jīng)過一個(gè)卷積層,生成了16個(gè)10X10的卷積層,再經(jīng)過池化層生成16個(gè)5×5的feature map。
從最后16個(gè)5X5的feature map開始,經(jīng)過了3個(gè)全連接層,達(dá)到最后的輸出,輸出就是標(biāo)簽空間的輸出。由于設(shè)計(jì)的是只要對0到9進(jìn)行識(shí)別,所以輸出空間是10,如果要對10個(gè)數(shù)字再加上26個(gè)大小字母進(jìn)行識(shí)別的話,輸出空間就是62。62維向量里,如果某一個(gè)維度上的值最大,它對應(yīng)的那個(gè)字母和數(shù)字就是就是預(yù)測結(jié)果。
壓在駱駝身上的最后一根稻草
從98年到本世紀(jì)初,深度學(xué)習(xí)興盛起來用了15年,但當(dāng)時(shí)成果泛善可陳,一度被邊緣化。到2012年,深度學(xué)習(xí)算法在部分領(lǐng)域取得不錯(cuò)的成績,而壓在駱駝身上最后一根稻草就是AlexNet。
AlexNet由多倫多大學(xué)幾個(gè)科學(xué)家開發(fā),在ImageNet比賽上做到了非常好的效果。當(dāng)時(shí)AlexNet識(shí)別效果超過了所有淺層的方法。此后,大家認(rèn)識(shí)到深度學(xué)習(xí)的時(shí)代終于來了,并有人用它做其它的應(yīng)用,同時(shí)也有些人開始開發(fā)新的網(wǎng)絡(luò)結(jié)構(gòu)。
其實(shí)AlexNet的結(jié)構(gòu)也很簡單,只是LeNet的放大版。輸入是一個(gè)224X224的圖片,是經(jīng)過了若干個(gè)卷積層,若干個(gè)池化層,最后連接了兩個(gè)全連接層,達(dá)到了最后的標(biāo)簽空間。
去年,有些人研究出來怎么樣可視化深度學(xué)習(xí)出來的特征。那么,AlexNet學(xué)習(xí)出的特征是什么樣子?在第一層,都是一些填充的塊狀物和邊界等特征;中間的層開始學(xué)習(xí)一些紋理特征;更高接近分類器的層級(jí),則可以明顯看到的物體形狀的特征。
最后的一層,即分類層,完全是物體的不同的姿態(tài),根據(jù)不同的物體展現(xiàn)出不同姿態(tài)的特征了。
可以說,不論是對人臉,車輛,大象或椅子進(jìn)行識(shí)別,最開始學(xué)到的東西都是邊緣,繼而就是物體的部分,然后在更高層層級(jí)才能抽象到物體的整體。整個(gè)卷積神經(jīng)網(wǎng)絡(luò)在模擬人的抽象和迭代的過程。
二、如何集成AI視覺檢測系統(tǒng)
1. 明確需求:
視覺檢測開發(fā)通常從業(yè)務(wù)和技術(shù)分析開始。這里的目標(biāo)是確定系統(tǒng)應(yīng)該檢測什么樣的缺陷。
需要提前明確的重要問題包括:
什么是AI視覺檢測系統(tǒng)的環(huán)境?
AI檢測應(yīng)該是實(shí)時(shí)的還是延時(shí)的?
AI視覺檢測應(yīng)該如何徹底檢測缺陷,是否應(yīng)該按類型區(qū)分?
是否有任何現(xiàn)有的軟件可以集成視覺檢測功能,還是需要從頭開始開發(fā)?
系統(tǒng)應(yīng)如何將檢測到的缺陷通知用戶?
AI視覺檢測系統(tǒng)是否應(yīng)該記錄缺陷檢測統(tǒng)計(jì)數(shù)據(jù)?
關(guān)鍵問題是:是否存在用于深度學(xué)習(xí)模型開發(fā)的數(shù)據(jù),包括“好”和“壞”產(chǎn)品的圖像以及不同類型的缺陷?
2. 收集和準(zhǔn)備數(shù)據(jù):
在深度學(xué)習(xí)模型開發(fā)開始之前,數(shù)據(jù)科學(xué)工程師必須收集和準(zhǔn)備訓(xùn)練未來模型所需的數(shù)據(jù)。對于制造流程,實(shí)施物聯(lián)網(wǎng)數(shù)據(jù)分析非常重要。在談?wù)揂I視覺檢測模型時(shí),數(shù)據(jù)通常是視頻記錄,其中視覺檢測模型處理的圖像包括視頻幀。數(shù)據(jù)收集有多種選擇,但最常見的是:
現(xiàn)有視頻記錄,適用于特定目的的開源視頻記錄,根據(jù)深度學(xué)習(xí)模型要求從頭開始收集數(shù)據(jù)。
這里最重要的參數(shù)是視頻記錄的質(zhì)量。更高質(zhì)量的數(shù)據(jù)將導(dǎo)致更準(zhǔn)確的結(jié)果。一旦我們收集了數(shù)據(jù),我們就為建模做好準(zhǔn)備、清理、檢查異常并確保其相關(guān)性。
3. 開發(fā)深度學(xué)習(xí)模型
深度學(xué)習(xí)模型開發(fā)方法的選擇取決于任務(wù)的復(fù)雜性、所需的交付時(shí)間和預(yù)算限制。有幾種方法:
1)使用深度學(xué)習(xí)模型開發(fā)(例如:Google Cloud ML Engine、Amazon ML 等)
當(dāng)缺陷檢測功能的要求與給定服務(wù)提供的模板一致時(shí),這種類型的方法是有意義的。這些服務(wù)可以節(jié)省時(shí)間和預(yù)算,因?yàn)闊o需從頭開始開發(fā)模型。只需要根據(jù)相關(guān)任務(wù)上傳數(shù)據(jù)并設(shè)置模型選項(xiàng)。
問題就是這些類型的模型不可定制。模型的功能僅限于給定服務(wù)提供的選項(xiàng)。
2) 使用預(yù)訓(xùn)練模型
預(yù)訓(xùn)練模型是一種已經(jīng)創(chuàng)建的深度學(xué)習(xí)模型,它可以完成與我們想要執(zhí)行的任務(wù)類似的任務(wù)。我們不必從頭開始構(gòu)建模型,因?yàn)樗褂没谟脩糇约旱臄?shù)據(jù)訓(xùn)練模型。
預(yù)訓(xùn)練模型可能不會(huì) 100% 符合我們的所有任務(wù),但它可以節(jié)省大量時(shí)間和成本。使用之前在大型數(shù)據(jù)集上訓(xùn)練過的模型,用戶可以根據(jù)自己的問題定制這些解決方案。
3)從零開始深度學(xué)習(xí)模型開發(fā)
這種方法非常適用于復(fù)雜且安全的視覺檢測系統(tǒng)。這種方法可能需要大量時(shí)間和精力,但結(jié)果是值得的。
在開發(fā)自定義視覺檢測模型時(shí),數(shù)據(jù)科學(xué)家會(huì)使用一種或多種計(jì)算機(jī)視覺算法。這些包括圖像分類、對象檢測和實(shí)例分割。
許多因素會(huì)影響深度學(xué)習(xí)算法的選擇。這些包括:
業(yè)務(wù)目標(biāo);
物體/缺陷的大?。?/p>
光照條件;
檢驗(yàn)產(chǎn)品數(shù)量;
缺陷類型;
圖像分辨率;
假設(shè)我們正在開發(fā)用于建筑物質(zhì)量評(píng)估的目視檢查模型。主要重點(diǎn)是檢測墻壁上的缺陷。需要大量數(shù)據(jù)集才能獲得準(zhǔn)確的視覺檢查結(jié)果,因?yàn)槿毕蓊悇e可能非常多樣化,從油漆剝落和霉菌到墻壁裂縫。這里的最佳方法是從頭開始開發(fā)基于實(shí)例分割的模型。在某些情況下,預(yù)先訓(xùn)練的模型方法也是可行的。
4. 訓(xùn)練和評(píng)估
開發(fā)視覺檢測模型后的下一步是對其進(jìn)行訓(xùn)練。在這個(gè)階段,數(shù)據(jù)科學(xué)家驗(yàn)證和評(píng)估模型的性能和結(jié)果準(zhǔn)確性。測試數(shù)據(jù)集在這里很有用。對于視覺檢測系統(tǒng),它可能是一組過已有的或類似于要在部署后處理的視頻資料。
5. 部署和改進(jìn)
在部署視覺檢測模型時(shí),重要的是要考慮軟件和硬件系統(tǒng)架構(gòu)如何與模型容量對應(yīng)。
1)軟件
視覺檢測驅(qū)動(dòng)軟件的結(jié)構(gòu)基于用于數(shù)據(jù)傳輸?shù)?Web 解決方案和用于神經(jīng)網(wǎng)絡(luò)處理的 Python 框架的組合。這里的關(guān)鍵參數(shù)是數(shù)據(jù)存儲(chǔ)。有三種常見的數(shù)據(jù)存儲(chǔ)方式:在本地服務(wù)器、云服務(wù)或無服務(wù)器架構(gòu)上。
AI視覺檢測系統(tǒng)涉及視頻記錄的存儲(chǔ)。數(shù)據(jù)存儲(chǔ)解決方案的選擇通常取決于深度學(xué)習(xí)模型功能。例如,如果視覺檢測系統(tǒng)使用大型數(shù)據(jù)集,則最佳選擇可能是云服務(wù)。
2)硬件
根據(jù)行業(yè)和自動(dòng)化流程,集成視覺檢測系統(tǒng)所需的設(shè)備可能包括:
攝像頭。關(guān)鍵的攝像頭選項(xiàng)是實(shí)時(shí)視頻流。一些示例包括 IP Camera 和 CCTV。
網(wǎng)關(guān)。專用硬件設(shè)備和軟件程序都適用于視覺檢測系統(tǒng)。
CPU/GPU。如果需要實(shí)時(shí)結(jié)果,GPU 將是比 CPU 更好的選擇,因?yàn)榍罢咴诨趫D像的深度學(xué)習(xí)模型方面具有更快的處理速度??梢詢?yōu)化 CPU 來運(yùn)行視覺檢查模型,但不能優(yōu)化用于訓(xùn)練。
光度計(jì)(可選)。根據(jù)視覺檢測系統(tǒng)環(huán)境的照明條件,可能需要使用光度計(jì)。
色度計(jì)(可選)。在檢測光源的顏色和亮度時(shí),成像色度計(jì)始終具有高空間分辨率,可進(jìn)行詳細(xì)的AI視覺檢測。
熱像儀(可選)。在蒸汽/水管道和設(shè)施的自動(dòng)檢查的情況下,擁有熱像儀數(shù)據(jù)是個(gè)好主意。熱像儀數(shù)據(jù)為熱/蒸汽/水泄漏檢測提供了有價(jià)值的信息。熱像儀數(shù)據(jù)也可用于隔熱檢查。
無人機(jī)(可選)。如今,很難想象在沒有無人機(jī)的情況下對難以到達(dá)的區(qū)域進(jìn)行自動(dòng)檢查:建筑物內(nèi)部結(jié)構(gòu)、天然氣管道、油輪目視檢查、火箭/航天飛機(jī)檢查。無人機(jī)可能配備高分辨率相機(jī),可以進(jìn)行實(shí)時(shí)缺陷檢測。
深度學(xué)習(xí)模型在部署后可以改進(jìn)。深度學(xué)習(xí)方法可以通過新數(shù)據(jù)的迭代收集和模型重新訓(xùn)練來提高神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確性。結(jié)果是一個(gè)“更智能”的視覺檢測模型,它通過增加操作期間的數(shù)據(jù)量來學(xué)習(xí)。
三、AI視覺檢測的應(yīng)用示例
通用安防:
適用于社區(qū)、樓宇、企業(yè)園區(qū)等場所的安防管理場景,如:人員進(jìn)出、車輛進(jìn)出、周界防范、危險(xiǎn)區(qū)域闖入、可疑徘徊等,提高場所的安全管理水平。
明廚亮灶:
基于多種算法(廚師帽/廚師服識(shí)別、抽煙識(shí)別、玩手機(jī)識(shí)別、垃圾桶未蓋檢測、動(dòng)火離人檢測、陌生人檢測、貓/狗/老鼠識(shí)別等),可以有效監(jiān)測餐飲行業(yè)后廚的食品安全、環(huán)境衛(wèi)生、四害防治等是否有違規(guī)或異常情況出現(xiàn),并能實(shí)時(shí)發(fā)出告警信息。
森林防火:
可對前端設(shè)備采集的圖像、視頻等數(shù)據(jù)進(jìn)行實(shí)時(shí)風(fēng)險(xiǎn)監(jiān)測與煙火識(shí)別分析,根據(jù)火災(zāi)煙霧火焰特征,可準(zhǔn)確識(shí)別出煙霧、火焰、火點(diǎn),并立即觸發(fā)告警。 智慧安監(jiān):適用于企業(yè)安全生產(chǎn)監(jiān)管場景,如:工地、煤礦、?;贰⒓佑驼?、煙花爆竹、電力等行業(yè),有助于降低生產(chǎn)過程中的安全隱患、保障生命財(cái)產(chǎn)安全。 智慧景區(qū):適用于景區(qū)、公園等場景,可實(shí)時(shí)統(tǒng)計(jì)監(jiān)控范圍內(nèi)的人流量、預(yù)警人群擁擠事件、防止危險(xiǎn)區(qū)域有人員闖入、識(shí)別煙火等,助力景區(qū)智能化監(jiān)管。 智慧校園:可用于校園內(nèi)部及周邊的安防監(jiān)測場景,包括師生人臉門禁、車輛進(jìn)出、周界防范、翻越圍墻、危險(xiǎn)區(qū)域闖入、人員擁擠、異常聚集、煙火等。 區(qū)域安全監(jiān)測:適用于重點(diǎn)場所的安全監(jiān)測場景,如:政府機(jī)構(gòu)、軍事區(qū)域、機(jī)場、變電站、工業(yè)重地、看守所、農(nóng)場養(yǎng)殖等,監(jiān)測周界入侵、人員闖入、徘徊等事件。
無人值守:可用于野外遠(yuǎn)程監(jiān)控場景,如:水利、電力等,防范可疑人員靠近、人員破壞/偷盜設(shè)備、闖入危險(xiǎn)區(qū)域等,可聯(lián)動(dòng)語音等裝置進(jìn)行驅(qū)離提醒。 在崗離崗:可用于需要人員時(shí)刻在崗的監(jiān)測場景中,能實(shí)時(shí)檢測固定工作崗位的人員在崗離崗情況,當(dāng)檢測到離崗時(shí),可立即觸發(fā)告警提醒。 加油站安全監(jiān)管:用于加油站安全監(jiān)管,對加油區(qū)、卸油區(qū)、儲(chǔ)油罐等區(qū)域進(jìn)行重點(diǎn)監(jiān)測,可對區(qū)域內(nèi)的安全風(fēng)險(xiǎn),如:抽煙、打電話、煙火、靜電釋放等進(jìn)行告警提醒。 公共防疫:協(xié)助公共區(qū)域防疫工作的開展,實(shí)時(shí)監(jiān)測區(qū)域內(nèi)人員是否佩戴口罩,并可結(jié)合語音裝置發(fā)出提醒,可應(yīng)用于樓宇、商場、車站、公交、出租車、地鐵、廣場、景區(qū)、工廠、園區(qū)等場景。
審核編輯:郭婷
-
計(jì)算機(jī)
+關(guān)注
關(guān)注
19文章
7724瀏覽量
92302 -
AI
+關(guān)注
關(guān)注
88文章
37057瀏覽量
290241 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5586瀏覽量
123659
原文標(biāo)題:基于深度學(xué)習(xí)算法的AI智能視覺檢測技術(shù)
文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評(píng)論請先 登錄
機(jī)器視覺檢測PIN針
如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

地鐵隧道病害智能巡檢系統(tǒng)——機(jī)器視覺技術(shù)的深度應(yīng)用

鋰電行業(yè)視覺檢測案例集錦(二)

當(dāng)CAN握手EtherCAT:視覺檢測系統(tǒng)的“雙芯合璧”時(shí)代來了
【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用
行業(yè)首創(chuàng):基于深度學(xué)習(xí)視覺平臺(tái)的AI驅(qū)動(dòng)輪胎檢測自動(dòng)化

AI智能質(zhì)檢系統(tǒng) 工業(yè)AI視覺檢測

多維精密測量:半導(dǎo)體微型器件的2D&3D視覺方案

AI干貨補(bǔ)給站03 | 工業(yè)AI視覺檢測項(xiàng)目實(shí)施第二步:數(shù)據(jù)收集

NPU在深度學(xué)習(xí)中的應(yīng)用
AI干貨補(bǔ)給站 | 深度學(xué)習(xí)與機(jī)器視覺的融合探索

評(píng)論