chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

計(jì)算機(jī)視覺(jué)中主要的五大技術(shù)

新機(jī)器視覺(jué) ? 來(lái)源:全球人工智能 ? 作者:全球人工智能 ? 2021-06-18 11:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要:本文主要介紹計(jì)算機(jī)視覺(jué)中主要的五大技術(shù),分別為圖像分類(lèi)、目標(biāo)檢測(cè)、目標(biāo)跟蹤、語(yǔ)義分割以及實(shí)例分割。針對(duì)每項(xiàng)技術(shù)都給出了基本概念及相應(yīng)的典型方法,簡(jiǎn)單通俗、適合閱讀。

計(jì)算機(jī)視覺(jué)是當(dāng)前最熱門(mén)的研究之一,是一門(mén)多學(xué)科交叉的研究,涵蓋計(jì)算機(jī)科學(xué)(圖形學(xué)、算法、理論研究等)、數(shù)學(xué)(信息檢索、機(jī)器學(xué)習(xí))、工程(機(jī)器人、NLP等)、生物學(xué)(神經(jīng)系統(tǒng)科學(xué))和心理學(xué)(認(rèn)知科學(xué))。由于計(jì)算機(jī)視覺(jué)表示對(duì)視覺(jué)環(huán)境及背景的相對(duì)理解,很多科學(xué)家相信,這一領(lǐng)域的研究將為人工智能行業(yè)的發(fā)展奠定基礎(chǔ)。

那么,什么是計(jì)算機(jī)視覺(jué)呢?下面是一些公認(rèn)的定義:

1.從圖像中清晰地、有意義地描述物理對(duì)象的結(jié)構(gòu)(Ballard & Brown,1982);

2.由一個(gè)或多個(gè)數(shù)字圖像計(jì)算立體世界的性質(zhì)(Trucco & Verri,1998);

3.基于遙感圖像對(duì)真實(shí)物體和場(chǎng)景做出有用的決定(Sockman & Shapiro,2001);

那么,為什么研究計(jì)算機(jī)視覺(jué)呢?答案很明顯,從該領(lǐng)域可以衍生出一系列的應(yīng)用程序,比如:

1.人臉識(shí)別:人臉檢測(cè)算法,能夠從照片中認(rèn)出某人的身份;

2.圖像檢索:類(lèi)似于谷歌圖像使用基于內(nèi)容的查詢來(lái)搜索相關(guān)圖像,算法返回與3.查詢內(nèi)容最佳匹配的圖像。

4.游戲和控制:體感游戲;

5.監(jiān)控:公共場(chǎng)所隨處可見(jiàn)的監(jiān)控?cái)z像機(jī),用來(lái)監(jiān)視可疑行為;

6.生物識(shí)別技術(shù):指紋、虹膜和人臉匹配是生物特征識(shí)別中常用的方法;

7.智能汽車(chē):視覺(jué)仍然是觀察交通標(biāo)志、信號(hào)燈及其它視覺(jué)特征的主要信息來(lái)源;

正如斯坦福大學(xué)公開(kāi)課CS231所言,計(jì)算機(jī)視覺(jué)任務(wù)大多是基于卷積神經(jīng)網(wǎng)絡(luò)完成。比如圖像分類(lèi)、定位和檢測(cè)等。那么,對(duì)于計(jì)算機(jī)視覺(jué)而言,有哪些任務(wù)是占據(jù)主要地位并對(duì)世界有所影響的呢?本篇文章將分享給讀者5種重要的計(jì)算機(jī)視覺(jué)技術(shù),以及其相關(guān)的深度學(xué)習(xí)模型和應(yīng)用程序。相信這5種技術(shù)能夠改變你對(duì)世界的看法。

1.圖像分類(lèi)

圖像分類(lèi)這一任務(wù)在我們的日常生活中經(jīng)常發(fā)生,我們習(xí)慣了于此便不以為然。每天早上洗漱刷牙需要拿牙刷、毛巾等生活用品,如何準(zhǔn)確的拿到這些用品便是一個(gè)圖像分類(lèi)任務(wù)。官方定義為:給定一組圖像集,其中每張圖像都被標(biāo)記了對(duì)應(yīng)的類(lèi)別。之后為一組新的測(cè)試圖像集預(yù)測(cè)其標(biāo)簽類(lèi)別,并測(cè)量預(yù)測(cè)準(zhǔn)確性。

如何編寫(xiě)一個(gè)可以將圖像分類(lèi)的算法呢?計(jì)算機(jī)視覺(jué)研究人員已經(jīng)提出了一種數(shù)據(jù)驅(qū)動(dòng)的方法來(lái)解決這個(gè)問(wèn)題。研究人員在代碼中不再關(guān)心圖像如何表達(dá),而是為計(jì)算機(jī)提供許多很多圖像(包含每個(gè)類(lèi)別),之后開(kāi)發(fā)學(xué)習(xí)算法,讓計(jì)算機(jī)自己學(xué)習(xí)這些圖像的特征,之后根據(jù)學(xué)到的特征對(duì)圖像進(jìn)行分類(lèi)。

鑒于此,完整的圖像分類(lèi)步驟一般形式如下:

1.首先,輸入一組訓(xùn)練圖像數(shù)據(jù)集;

2.然后,使用該訓(xùn)練集訓(xùn)練一個(gè)分類(lèi)器,該分類(lèi)器能夠?qū)W習(xí)每個(gè)類(lèi)別的特征;

3.最后,使用測(cè)試集來(lái)評(píng)估分類(lèi)器的性能,即將預(yù)測(cè)出的結(jié)果與真實(shí)類(lèi)別標(biāo)記進(jìn)行比較;

對(duì)于圖像分類(lèi)而言,最受歡迎的方法是卷積神經(jīng)網(wǎng)絡(luò)(CNN)。CNN是深度學(xué)習(xí)中的一種常用方法,其性能遠(yuǎn)超一般的機(jī)器學(xué)習(xí)算法。CNN網(wǎng)絡(luò)結(jié)構(gòu)基本是由卷積層、池化層以及全連接層組成,其中,卷積層被認(rèn)為是提取圖像特征的主要部件,它類(lèi)似于一個(gè)“掃描儀”,通過(guò)卷積核與圖像像素矩陣進(jìn)行卷積運(yùn)算,每次只“掃描”卷積核大小的尺寸,之后滑動(dòng)到下一個(gè)區(qū)域進(jìn)行相關(guān)的運(yùn)算,這種計(jì)算叫作滑動(dòng)窗口。

e1afcc7c-cf68-11eb-9e57-12bb97331649.jpg

從圖中可以看到,輸入圖像送入卷積神經(jīng)網(wǎng)絡(luò)中,通過(guò)卷積層進(jìn)行特征提取,之后通過(guò)池化層過(guò)濾細(xì)節(jié)(一般采用最大值池化、平均池化),最后在全連接層進(jìn)行特征展開(kāi),送入相應(yīng)的分類(lèi)器得到其分類(lèi)結(jié)果。

大多數(shù)圖像分類(lèi)算法都是在ImageNet數(shù)據(jù)集上訓(xùn)練的,該數(shù)據(jù)集由120萬(wàn)張的圖像組成,涵蓋1000個(gè)類(lèi)別,該數(shù)據(jù)集也可以稱(chēng)作改變?nèi)斯ぶ悄芎褪澜绲臄?shù)據(jù)集。ImagNet 數(shù)據(jù)集讓人們意識(shí)到,構(gòu)建優(yōu)良數(shù)據(jù)集的工作是 AI 研究的核心,數(shù)據(jù)和算法一樣至關(guān)重要。為此,世界組織也舉辦了針對(duì)該數(shù)據(jù)集的挑戰(zhàn)賽——ImageNet挑戰(zhàn)賽。

第一屆ImageNet挑戰(zhàn)賽的第一名是由Alex Krizhevsky(NIPS 2012)獲得,采用的方法是深層卷積神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。在該模型中,采用了一些技巧,比如最大值池化、線性修正單元激活函數(shù)ReLU以及使用GPU仿真計(jì)算等,AlexNet模型拉開(kāi)了深度學(xué)習(xí)研究的序幕。

e1cd58a0-cf68-11eb-9e57-12bb97331649.jpg

自從AlexNet網(wǎng)絡(luò)模型贏得比賽之后,有很多基于CNN的算法也在ImageNet上取得了特別好的成績(jī),比如ZFNet(2013)、GoogleNet(2014)、VGGNet(2014)、ResNet(2015)以及DenseNet(2016)等。

2.目標(biāo)檢測(cè)

e1fe1a76-cf68-11eb-9e57-12bb97331649.jpg

目標(biāo)檢測(cè)通常是從圖像中輸出單個(gè)目標(biāo)的Bounding Box(邊框)以及標(biāo)簽。比如,在汽車(chē)檢測(cè)中,必須使用邊框檢測(cè)出給定圖像中的所有車(chē)輛。

之前在圖像分類(lèi)任務(wù)中大放光彩的CNN同樣也可以應(yīng)用于此。第一個(gè)高效模型是R-CNN(基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)),如下圖所示。在該網(wǎng)絡(luò)中,首先掃描圖像并使用搜索算法生成可能區(qū)域,之后對(duì)每個(gè)可能區(qū)域運(yùn)行CNN,最后將每個(gè)CNN網(wǎng)絡(luò)的輸出送入SVM分類(lèi)器中來(lái)對(duì)區(qū)域進(jìn)行分類(lèi)和線性回歸,并用邊框標(biāo)注目標(biāo)。

e215c428-cf68-11eb-9e57-12bb97331649.jpg

本質(zhì)上,是將物體檢測(cè)轉(zhuǎn)換成圖像分類(lèi)問(wèn)題。但該方法存在一些問(wèn)題,比如訓(xùn)練速度慢,耗費(fèi)內(nèi)存、預(yù)測(cè)時(shí)間長(zhǎng)等。

為了解決上述這些問(wèn)題,Ross Girshickyou提出Fast R-CNN算法,從兩個(gè)方面提升了檢測(cè)速度:

1)在給出建議區(qū)域之前執(zhí)行特征提取,從而只需在整幅圖像上運(yùn)行一次CNN;2)使用Softmax分類(lèi)器代替SVM分類(lèi)器;

e24e9a00-cf68-11eb-9e57-12bb97331649.jpg

雖然Fast R-CNN在速度方面有所提升,然而,選擇搜索算法仍然需要大量的時(shí)間來(lái)生成建議區(qū)域。為此又提出了Faster R-CNN算法,該模型提出了候選區(qū)域生成網(wǎng)絡(luò)(RPN),用來(lái)代替選擇搜索算法,將所有內(nèi)容整合在一個(gè)網(wǎng)絡(luò)中,大大提高了檢測(cè)速度和精度。

e25c6f04-cf68-11eb-9e57-12bb97331649.jpg

近年來(lái),目標(biāo)檢測(cè)研究趨勢(shì)主要向更快、更有效的檢測(cè)系統(tǒng)發(fā)展。目前已經(jīng)有一些其它的方法可供使用,比如YOLO、SSD以及R-FCN等。

3.目標(biāo)跟蹤

目標(biāo)跟蹤是指在給定場(chǎng)景中跟蹤感興趣的具體對(duì)象或多個(gè)對(duì)象的過(guò)程。簡(jiǎn)單來(lái)說(shuō),給出目標(biāo)在跟蹤視頻第一幀中的初始狀態(tài)(如位置、尺寸),自動(dòng)估計(jì)目標(biāo)物體在后續(xù)幀中的狀態(tài)。該技術(shù)對(duì)自動(dòng)駕駛汽車(chē)等領(lǐng)域顯得至關(guān)重要。

根據(jù)觀察模型,目標(biāo)跟蹤可以分為兩類(lèi):產(chǎn)生式(generative method)和判別式(discriminative method)。其中,產(chǎn)生式方法主要運(yùn)用生成模型描述目標(biāo)的表觀特征,之后通過(guò)搜索候選目標(biāo)來(lái)最小化重構(gòu)誤差。常用的算法有稀疏編碼(sparse coding)、主成分分析(PCA)等。與之相對(duì)的,判別式方法通過(guò)訓(xùn)練分類(lèi)器來(lái)區(qū)分目標(biāo)和背景,其性能更為穩(wěn)定,逐漸成為目標(biāo)跟蹤這一領(lǐng)域的主要研究方法。常用的算法有堆棧自動(dòng)編碼器(SAE)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)等。

使用SAE方法進(jìn)行目標(biāo)跟蹤的最經(jīng)典深層網(wǎng)絡(luò)是Deep Learning Tracker(DLT),提出了離線預(yù)訓(xùn)練和在線微調(diào)。該方法的主要步驟如下:

1.先使用棧式自動(dòng)編碼器(SDAE)在大規(guī)模自然圖像數(shù)據(jù)集上進(jìn)行無(wú)監(jiān)督離線預(yù)訓(xùn)練來(lái)獲得通用的物體表征能力。

2.將預(yù)訓(xùn)練網(wǎng)絡(luò)的編碼部分與分類(lèi)器相結(jié)合組成分類(lèi)網(wǎng)絡(luò),然后利用從初始幀獲得的正、負(fù)樣本對(duì)網(wǎng)絡(luò)進(jìn)行微調(diào),使其可以區(qū)分當(dāng)前對(duì)象和背景。在跟蹤過(guò)程中,選擇分類(lèi)網(wǎng)絡(luò)輸出得分最大的patch作為最終預(yù)測(cè)目標(biāo)。

3.模型更新策略采用限定閾值的方法。

基于CNN完成目標(biāo)跟蹤的典型算法是FCNT和MD Net。

FCNT的亮點(diǎn)之一在于對(duì)ImageNet上預(yù)訓(xùn)練得到的CNN特征在目標(biāo)跟蹤任務(wù)上的性能做了深入的分析:

1.CNN的特征圖可以用來(lái)做跟蹤目標(biāo)的定位;

2.CNN的許多特征圖存在噪聲或者和物體跟蹤區(qū)分目標(biāo)和背景的任務(wù)關(guān)聯(lián)較小;

3.CNN不同層提取的特征不一樣。高層特征更加抽象,擅長(zhǎng)區(qū)分不同類(lèi)別的物體,而低層特征更加關(guān)注目標(biāo)的局部細(xì)節(jié)。

基于以上觀察,F(xiàn)CNT最終提出了如下圖所示的模型結(jié)構(gòu):

1.對(duì)于Conv4-3和Con5-3采用VGG網(wǎng)絡(luò)的結(jié)構(gòu),選出和當(dāng)前跟蹤目標(biāo)最相關(guān)的特征圖通道;

2.為了避免過(guò)擬合,對(duì)篩選出的Conv5-3和Conv4-3特征分別構(gòu)建捕捉類(lèi)別信息GNet和SNet;

3.在第一幀中使用給出的邊框生成熱度圖(heap map)回歸訓(xùn)練SNet和GNet;

4.對(duì)于每一幀,其預(yù)測(cè)結(jié)果為中心裁剪區(qū)域,將其分別輸入GNet和SNet中,得到兩個(gè)預(yù)測(cè)的熱圖,并根據(jù)是否有干擾來(lái)決定使用哪個(gè)熱圖。

e3a39e5a-cf68-11eb-9e57-12bb97331649.jpg

區(qū)別與FCNT,MD Net使用視頻中所有序列來(lái)跟蹤它們的運(yùn)動(dòng)。但序列訓(xùn)練也存在問(wèn)題,即不同跟蹤序列與跟蹤目標(biāo)完全不一樣。最終MD Net提出多域的訓(xùn)練思想,網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示,該網(wǎng)絡(luò)分為兩個(gè)部分:共享層和分類(lèi)層。網(wǎng)絡(luò)結(jié)構(gòu)部分用于提取特征,最后分類(lèi)層區(qū)分不同的類(lèi)別。

e3b5d714-cf68-11eb-9e57-12bb97331649.jpg

4.語(yǔ)義分割

e3e89a50-cf68-11eb-9e57-12bb97331649.jpg

計(jì)算機(jī)視覺(jué)的核心是分割過(guò)程,它將整個(gè)圖像分成像素組,然后對(duì)其進(jìn)行標(biāo)記和分類(lèi)。語(yǔ)言分割試圖在語(yǔ)義上理解圖像中每個(gè)像素的角色(例如,汽車(chē)、摩托車(chē)等)。

CNN同樣在此項(xiàng)任務(wù)中展現(xiàn)了其優(yōu)異的性能。典型的方法是FCN,結(jié)構(gòu)如下圖所示。FCN模型輸入一幅圖像后直接在輸出端得到密度預(yù)測(cè),即每個(gè)像素所屬的類(lèi)別,從而得到一個(gè)端到端的方法來(lái)實(shí)現(xiàn)圖像語(yǔ)義分割。

e3f7635a-cf68-11eb-9e57-12bb97331649.jpg

與FCN上采樣不同,SegNet將最大池化轉(zhuǎn)移至解碼器中,改善了分割分辨率。提升了內(nèi)存的使用效率。

e4243218-cf68-11eb-9e57-12bb97331649.jpg

還有一些其他的方法,比如全卷積網(wǎng)絡(luò)、擴(kuò)展卷積,DeepLab以及RefineNet等。

5.實(shí)例分割

e4583dba-cf68-11eb-9e57-12bb97331649.jpg

除了語(yǔ)義分割之外,實(shí)例分割還分割了不同的類(lèi)實(shí)例,例如用5種不同顏色標(biāo)記5輛汽車(chē)。在分類(lèi)中,通常有一個(gè)以一個(gè)物體為焦點(diǎn)的圖像,任務(wù)是說(shuō)出這個(gè)圖像是什么。但是為了分割實(shí)例,我們需要執(zhí)行更復(fù)雜的任務(wù)。我們看到復(fù)雜的景象,有多個(gè)重疊的物體和日常背景,我們不僅對(duì)這些日常物體進(jìn)行分類(lèi),而且還確定它們的邊界、差異和彼此之間的關(guān)系。

到目前為止,我們已經(jīng)看到了如何以許多有趣的方式使用CNN功能來(lái)在帶有邊界框的圖像中有效地定位日常用品。我們可以擴(kuò)展這些技術(shù)來(lái)定位每個(gè)對(duì)象的精確像素,而不僅僅是邊界框嗎?

CNN在此項(xiàng)任務(wù)中同樣表現(xiàn)優(yōu)異,典型算法是Mask R-CNN。Mask R-CNN在Faster R-CNN的基礎(chǔ)上添加了一個(gè)分支以輸出二元掩膜。該分支與現(xiàn)有的分類(lèi)和邊框回歸并行,如下圖所示:

e492b486-cf68-11eb-9e57-12bb97331649.jpg

Faster-RCNN在實(shí)例分割任務(wù)中表現(xiàn)不好,為了修正其缺點(diǎn),Mask R-CNN提出了RolAlign層,通過(guò)調(diào)整Rolpool來(lái)提升精度。從本質(zhì)上講,RolAlign使用雙線性插值避免了取整誤差,該誤差導(dǎo)致檢測(cè)和分割不準(zhǔn)確。

一旦掩膜被生成,Mask R-CNN結(jié)合分類(lèi)器和邊框就能產(chǎn)生非常精準(zhǔn)的分割:

e4c53136-cf68-11eb-9e57-12bb97331649.jpg

結(jié)論

以上五種計(jì)算機(jī)視覺(jué)技術(shù)可以幫助計(jì)算機(jī)從單個(gè)或一系列圖像中提取、分析和理解有用信息。此外,還有很多其它的先進(jìn)技術(shù)等待我們的探索,比如風(fēng)格轉(zhuǎn)換、動(dòng)作識(shí)別等。希望本文能夠引導(dǎo)你改變看待這個(gè)世界的方式。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:一文讀懂深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域中的應(yīng)用

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用代理式AI激活傳統(tǒng)計(jì)算機(jī)視覺(jué)系統(tǒng)的三種方法

    當(dāng)前的計(jì)算機(jī)視覺(jué)系統(tǒng)擅長(zhǎng)于識(shí)別物理空間與流程的事件,卻難以詮釋場(chǎng)景細(xì)節(jié)及其意義,也無(wú)法推理后續(xù)可能發(fā)生的情況。
    的頭像 發(fā)表于 12-01 09:44 ?220次閱讀

    2025中國(guó)計(jì)算機(jī)大會(huì)DPU技術(shù)論壇成功舉辦

    近日,備受矚目的第22屆中國(guó)計(jì)算機(jī)大會(huì)(CNCC2025)在哈爾濱開(kāi)幕。本屆大會(huì)注冊(cè)人數(shù)突破1.2萬(wàn)人,匯聚了來(lái)自全球計(jì)算機(jī)領(lǐng)域的頂尖學(xué)者、產(chǎn)業(yè)領(lǐng)袖、青年學(xué)子及國(guó)際組織代表。大會(huì)以“數(shù)智賦能、無(wú)限可能”為主題,旨在深度探討數(shù)字智能技術(shù)
    的頭像 發(fā)表于 11-02 09:29 ?342次閱讀

    蔚來(lái)出席CNCC 2025中國(guó)計(jì)算機(jī)大會(huì)技術(shù)論壇

    2025年10月23日,CNCC 2025中國(guó)計(jì)算機(jī)大會(huì)技術(shù)論壇「AI落地應(yīng)用的主戰(zhàn)場(chǎng)——智能電動(dòng)汽車(chē)」在哈爾濱成功舉行。論壇聚焦計(jì)算機(jī)技術(shù)與汽車(chē)產(chǎn)業(yè)的深度融合,匯聚產(chǎn)業(yè)界與學(xué)術(shù)界頂尖專(zhuān)家,圍繞世界
    的頭像 發(fā)表于 10-27 15:47 ?280次閱讀

    STM32計(jì)算機(jī)視覺(jué)開(kāi)發(fā)套件:B-CAMS-IMX攝像頭模塊技術(shù)解析

    STMicroelectronics用于 STM32開(kāi)發(fā)板的B-CAMS-IMX攝像頭模塊提供強(qiáng)大的硬件集,可處理多種計(jì)算機(jī)視覺(jué)場(chǎng)景和用例。該模塊具有高分辨率500萬(wàn)像素IMX335LQN
    的頭像 發(fā)表于 10-20 09:46 ?648次閱讀
    STM32<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>開(kāi)發(fā)套件:B-CAMS-IMX攝像頭模塊<b class='flag-5'>技術(shù)</b>解析

    【作品合集】賽昉科技VisionFive 2單板計(jì)算機(jī)開(kāi)發(fā)板測(cè)評(píng)

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】燒錄系統(tǒng)+開(kāi)箱啟動(dòng) 第一期合集: 微科技CF5010RBT60開(kāi)發(fā)板測(cè)評(píng)作品合集 第二期合集: 創(chuàng)龍科技TLT113/TL3562-MiniEVM開(kāi)發(fā)板測(cè)評(píng)
    發(fā)表于 09-04 09:08

    易控智駕榮獲計(jì)算機(jī)視覺(jué)頂會(huì)CVPR 2025認(rèn)可

    近日,2025年國(guó)際計(jì)算機(jī)視覺(jué)與模式識(shí)別頂級(jí)會(huì)議(IEEE/CVF Conference on Computer Vision and Pattern Recognition,CVPR 2025)在美國(guó)田納西州納什維爾召開(kāi)。
    的頭像 發(fā)表于 07-29 16:54 ?958次閱讀

    工業(yè)計(jì)算機(jī)的重要性

    工業(yè)計(jì)算機(jī)對(duì)某些行業(yè)至關(guān)重要。我們將在下面詳細(xì)解釋這些行業(yè)的工業(yè)計(jì)算機(jī)應(yīng)用。1.制造與工業(yè)自動(dòng)化工業(yè)級(jí)計(jì)算機(jī)非常適合制造工廠,特別是那些想要自動(dòng)化裝配過(guò)程的工廠。在這樣的環(huán)境
    的頭像 發(fā)表于 07-28 16:07 ?386次閱讀
    工業(yè)<b class='flag-5'>計(jì)算機(jī)</b>的重要性

    自動(dòng)化計(jì)算機(jī)經(jīng)過(guò)加固后有什么好處?

    -40℃的寒冷環(huán)境運(yùn)行?C和溫度達(dá)到85℃的灼熱環(huán)境,這要?dú)w功于此類(lèi)系統(tǒng)中使用的寬溫度組件和被動(dòng)冷卻技術(shù)。2.抗沖擊和振動(dòng)自動(dòng)化計(jì)算機(jī)是工業(yè)級(jí)計(jì)算機(jī),其設(shè)計(jì)和制造可
    的頭像 發(fā)表于 07-21 16:44 ?414次閱讀
    自動(dòng)化<b class='flag-5'>計(jì)算機(jī)</b>經(jīng)過(guò)加固后有什么好處?

    自動(dòng)化計(jì)算機(jī)的功能與用途

    工業(yè)自動(dòng)化是指利用自動(dòng)化計(jì)算機(jī)來(lái)控制工業(yè)環(huán)境的流程、機(jī)器人和機(jī)械,以制造產(chǎn)品或其部件。工業(yè)自動(dòng)化的目的是提高生產(chǎn)率、增加靈活性,并提升制造過(guò)程的質(zhì)量。工業(yè)自動(dòng)化在汽車(chē)制造中體現(xiàn)得最為明顯,其中許多
    的頭像 發(fā)表于 07-15 16:32 ?510次閱讀
    自動(dòng)化<b class='flag-5'>計(jì)算機(jī)</b>的功能與用途

    工業(yè)計(jì)算機(jī)與商用計(jì)算機(jī)的區(qū)別有哪些

    工業(yè)計(jì)算機(jī)是一種專(zhuān)為工廠和工業(yè)環(huán)境設(shè)計(jì)的計(jì)算系統(tǒng),具有高可靠性和穩(wěn)定性,能夠應(yīng)對(duì)惡劣環(huán)境下的自動(dòng)化、制造和機(jī)器人操作。其特點(diǎn)包括無(wú)風(fēng)扇散熱技術(shù)、無(wú)電纜連接和防塵防水設(shè)計(jì),使其在各種工業(yè)自動(dòng)化場(chǎng)景
    的頭像 發(fā)表于 07-10 16:36 ?504次閱讀
    工業(yè)<b class='flag-5'>計(jì)算機(jī)</b>與商用<b class='flag-5'>計(jì)算機(jī)</b>的區(qū)別有哪些

    利用邊緣計(jì)算和工業(yè)計(jì)算機(jī)實(shí)現(xiàn)智能視頻分析

    IVA的好處、實(shí)際部署應(yīng)用程序以及工業(yè)計(jì)算機(jī)如何實(shí)現(xiàn)這些解決方案。一、什么是智能視頻分析(IVA)?智能視頻分析(IVA)集成了復(fù)雜的計(jì)算機(jī)視覺(jué),通常與卷積神經(jīng)網(wǎng)
    的頭像 發(fā)表于 05-16 14:37 ?623次閱讀
    利用邊緣<b class='flag-5'>計(jì)算</b>和工業(yè)<b class='flag-5'>計(jì)算機(jī)</b>實(shí)現(xiàn)智能視頻分析

    Arm KleidiCV與OpenCV集成助力移動(dòng)端計(jì)算機(jī)視覺(jué)性能優(yōu)化

    生成式及多模態(tài)人工智能 (AI) 工作負(fù)載的廣泛增長(zhǎng),推動(dòng)了對(duì)計(jì)算機(jī)視覺(jué) (CV) 技術(shù)日益高漲的需求。此類(lèi)技術(shù)能夠解釋并分析源自現(xiàn)實(shí)世界的視覺(jué)
    的頭像 發(fā)表于 02-24 10:15 ?866次閱讀

    AR和VR計(jì)算機(jī)視覺(jué)

    ):計(jì)算機(jī)視覺(jué)引領(lǐng)混合現(xiàn)實(shí)體驗(yàn)增強(qiáng)現(xiàn)實(shí)(AR)和虛擬現(xiàn)實(shí)(VR)正在徹底改變我們與外部世界的互動(dòng)方式。即便是在引人入勝的沉浸式
    的頭像 發(fā)表于 02-08 14:29 ?2104次閱讀
    AR和VR<b class='flag-5'>中</b>的<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>

    云端超級(jí)計(jì)算機(jī)使用教程

    云端超級(jí)計(jì)算機(jī)是一種基于云計(jì)算的高性能計(jì)算服務(wù),它將大量計(jì)算資源和存儲(chǔ)資源集中在一起,通過(guò)網(wǎng)絡(luò)向用戶提供按需的計(jì)算服務(wù)。下面,AI部落小編為
    的頭像 發(fā)表于 12-17 10:19 ?902次閱讀

    虛擬內(nèi)存對(duì)計(jì)算機(jī)性能的影響

    在現(xiàn)代計(jì)算機(jī)系統(tǒng),內(nèi)存管理是確保系統(tǒng)高效運(yùn)行的關(guān)鍵因素之一。虛擬內(nèi)存技術(shù)作為內(nèi)存管理的核心組成部分,對(duì)于提升計(jì)算機(jī)性能和用戶體驗(yàn)起著至關(guān)重要的作用。 一、虛擬內(nèi)存的概念 虛擬內(nèi)存是一
    的頭像 發(fā)表于 12-04 09:17 ?4417次閱讀