chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Kaggle的座頭鯨識(shí)別挑戰(zhàn)比賽在最近落下帷幕

電子工程師 ? 來(lái)源:lp ? 2019-03-28 14:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Kaggle的座頭鯨識(shí)別挑戰(zhàn)比賽在最近落下帷幕,全球共2131個(gè)團(tuán)隊(duì)參加了比賽。

這是近期Kaggle上頗受歡迎的一次競(jìng)賽,常用的分類(lèi)方法無(wú)法處理大量的無(wú)標(biāo)注數(shù)據(jù),只有對(duì)傳統(tǒng)的方法進(jìn)行創(chuàng)新,才能夠獲得高分。

下面文摘菌為大家介紹比賽中排名TOP10的團(tuán)隊(duì)如何完成比賽,以及其他幾只團(tuán)隊(duì)的相關(guān)經(jīng)驗(yàn)。

注:該團(tuán)隊(duì)由Vladislav Shakhray,Artsiom Sanakoyeu海德堡大學(xué)的博士組成,以及Kaggle Top-5 大神Pavel Pleskov。

本文作者Vladislav Shakhray,文摘菌對(duì)其編譯如下。

比賽鏈接:

https://www.kaggle.com/c/humpback-whale-identification

問(wèn)題描述

在比賽中,主要是構(gòu)建算法來(lái)識(shí)別圖像中的鯨魚(yú)個(gè)體,而難點(diǎn)在于訓(xùn)練樣本的嚴(yán)重不均衡以及存在近三分之一的無(wú)標(biāo)注數(shù)據(jù)。

訓(xùn)練數(shù)據(jù)中的同一條鯨魚(yú)的9張照片的示例

在超過(guò)2000個(gè)鯨魚(yú)類(lèi)別,只有一個(gè)訓(xùn)練樣本,這使得常用的分類(lèi)方法很難使用。更重要的是,無(wú)論鯨魚(yú)是否是新的種類(lèi),這都是比賽的重要組成部分,結(jié)果證明這是非常重要的。

鯨魚(yú)種類(lèi)間照片數(shù)量差距很大

競(jìng)賽的衡量標(biāo)準(zhǔn)是MAP @ 5(平均精度為5),能夠?yàn)槊總€(gè)測(cè)試圖像提交最多5個(gè)預(yù)測(cè)。 我們?cè)跍y(cè)試集上的最高成績(jī)是0.959 MAP @ 5。

驗(yàn)證和初始設(shè)置

在本次比賽前幾個(gè)月,同一比賽的另一個(gè)版本在Kaggle上舉行,但是,正如競(jìng)賽發(fā)起人所指出的那樣,現(xiàn)在的版本包含更多清潔的數(shù)據(jù)。我們決定以多種方式利用之前比賽的成果和數(shù)據(jù):

1.使用之前競(jìng)爭(zhēng)對(duì)手的數(shù)據(jù),我們使用image hashing來(lái)收集超過(guò)2000個(gè)驗(yàn)證樣本。 當(dāng)我們稍后驗(yàn)證我們的成果時(shí),這一方法非常重要。

2.我們從訓(xùn)練數(shù)據(jù)集中刪除了new_whale類(lèi),因?yàn)樗辉谄湓刂g共享任何邏輯圖像特征。

3.有些圖像根本沒(méi)有對(duì)齊。 幸運(yùn)的是,在之前一版kaggle比賽的成功解決方案中有一個(gè)公開(kāi)可用的預(yù)訓(xùn)練邊界框模型。我們用它來(lái)檢測(cè)鯨魚(yú)周?chē)木_邊界框并相應(yīng)地裁剪圖像。

4.由于圖像的顏色不同,所有數(shù)據(jù)在訓(xùn)練前都轉(zhuǎn)換為灰色。

方法1:孿生神經(jīng)網(wǎng)絡(luò)Siamese Networks(Vladislav)

我們的第一個(gè)架構(gòu)是一個(gè)具有眾多分支架構(gòu)和自定義損失的孿生神經(jīng)網(wǎng)絡(luò)(Siamese Networks),其中包括許多卷積和密集層。 我們使用的分支架構(gòu)包括:

ResNet-18, ResNet-34, Resnet-50

SE-ResNeXt-50

Martin Piotte公開(kāi)分享的類(lèi)似ResNet的自定義分支

我們通過(guò)在每4個(gè)時(shí)期的分?jǐn)?shù)矩陣上求解線性分配問(wèn)題來(lái)使用顯著陰性(hard-negative mining)和顯著陽(yáng)性挖掘(hard- positive mining)。 在矩陣中添加了一些隨機(jī)化以簡(jiǎn)化訓(xùn)練過(guò)程。

使用漸進(jìn)式學(xué)習(xí)(Progressive learning),分辨率策略為229x229 - > 384x384 - > 512x512。 也就是說(shuō),我們首先在229x229圖像上訓(xùn)練我們的網(wǎng)絡(luò),幾乎沒(méi)有用正則化和更大的學(xué)習(xí)率。 在收斂之后,我們重置學(xué)習(xí)速率并增加正則化,從而再次對(duì)更高分辨率的圖像(例如384×484)訓(xùn)練網(wǎng)絡(luò)。

此外,由于數(shù)據(jù)的性質(zhì),使用了大量增強(qiáng),包括隨機(jī)亮度,高斯噪聲,隨機(jī)剪裁和隨機(jī)模糊。

此外,我們采用智能翻轉(zhuǎn)增強(qiáng)策略,極大地幫助創(chuàng)建了更多的訓(xùn)練數(shù)據(jù)。 具體地,對(duì)于屬于相同的鯨魚(yú)X,Y的每對(duì)訓(xùn)練圖像,我們創(chuàng)建了另外一個(gè)訓(xùn)練對(duì)翻轉(zhuǎn)(X),翻轉(zhuǎn)(Y)。 另一方面,對(duì)于每對(duì)不同的鯨魚(yú),我們創(chuàng)建了另外三個(gè)例子:翻轉(zhuǎn)(X),Y,Y,翻轉(zhuǎn)(X)和翻轉(zhuǎn)(X),翻轉(zhuǎn)(Y)。

一個(gè)顯示隨機(jī)翻轉(zhuǎn)策略不適用于一對(duì)相同鯨魚(yú)照片的例子。 請(qǐng)注意當(dāng)我們翻轉(zhuǎn)圖片時(shí),兩張圖片的翻轉(zhuǎn)效果不同,因?yàn)槲覀冴P(guān)心鯨魚(yú)尾部的寄生藻的位置。

使用Adam優(yōu)化器優(yōu)化模型,初始學(xué)習(xí)率為1e-4,接近訓(xùn)練結(jié)束時(shí)減少5倍。 批量大小設(shè)置為64。

模型是用Keras編寫(xiě)的。在單個(gè)2080Ti上花費(fèi)2-3天(取決于圖像分辨率),訓(xùn)練模型大約400-600個(gè)周期。

使用ResNet-50性能最佳的單一模型得分為0.929 LB。

方法2:度量學(xué)習(xí)Metric Learning(Artsiom)

我們使用的另一種方法是使用保證金損失進(jìn)行度量學(xué)習(xí)。 我們使用了許多ImageNet預(yù)訓(xùn)練的架構(gòu),其中包括:

ResNet-50, ResNet-101, ResNet-152

DenseNet-121, DenseNet-169

這些網(wǎng)絡(luò)主要由448x448 - > 672x672策略逐步訓(xùn)練。

我們使用了Adam優(yōu)化器,在100個(gè)訓(xùn)練周期后將學(xué)習(xí)率降低了10倍。 我們還為整個(gè)訓(xùn)練使用批量大小為96的訓(xùn)練方法。

由Sanakoyeu,Tschernezki等人開(kāi)發(fā)的度量學(xué)習(xí)(metric learning)方法能夠讓成績(jī)迅速提升。

度量學(xué)習(xí)在CVPR 2019上發(fā)布,它所做的是每個(gè)周期它將訓(xùn)練數(shù)據(jù)以及嵌入層分成簇。在訓(xùn)練組塊和學(xué)習(xí)者之間建立雙射之后,模型分別訓(xùn)練它們,同時(shí)累積分支網(wǎng)絡(luò)的梯度。

代碼及文章鏈接:

https://github.com/CompVis/metric-learning-divide-and-conquer

由于巨大的種類(lèi)數(shù)量不平衡,我們使用了大量的增強(qiáng),包括隨機(jī)翻轉(zhuǎn),旋轉(zhuǎn),變焦,模糊,光照,對(duì)比度,飽和度變化。 之后,計(jì)算查詢(xún)特征向量和列車(chē)庫(kù)特征向量之間的點(diǎn)積,并且選擇具有最高點(diǎn)積值的類(lèi)作為T(mén)OP-1預(yù)測(cè)。 隱含地幫助類(lèi)不平衡的另一個(gè)技巧是對(duì)屬于相同鯨魚(yú)id的火車(chē)圖像的特征向量進(jìn)行平均。

這些模型使用PyTorch實(shí)現(xiàn),需要單個(gè)Titan Xp 2-4天(取決于圖像分辨率)來(lái)訓(xùn)練。 值得一提的是,具有DenseNet-169架構(gòu)表現(xiàn)最佳的單一模型得分為0.931LB。

方法3:特征分類(lèi)(Artsiom)

當(dāng)我和Artsiom聯(lián)手時(shí),我們做的第一件事就是使用從我們所有模型中提取并連接(應(yīng)用PCA分析)的特征來(lái)訓(xùn)練分類(lèi)模型。

分類(lèi)的主要部分由兩個(gè)密集的層組成,其間會(huì)刪失信息。由于我們使用了預(yù)先計(jì)算的特征,因此模型訓(xùn)練得非???。

通過(guò)這種方法我們獲得了0.924 LB,并讓整個(gè)集合更富多樣性。

方法4:新鯨魚(yú)分類(lèi)(Pavel)

本次比賽最復(fù)雜的部分之一是正確分類(lèi)新鯨魚(yú)(大約30%的圖像屬于新類(lèi)別鯨魚(yú))。

解決這個(gè)問(wèn)題的流行策略是使用一個(gè)簡(jiǎn)單的閾值。也就是說(shuō),如果給定的圖像X屬于某個(gè)已知類(lèi)別鯨魚(yú)的最大概率小于閾值,則將其歸類(lèi)為新鯨魚(yú)。然而,我們認(rèn)為可能有更好的方法來(lái)解決這個(gè)問(wèn)題。

對(duì)于每個(gè)表現(xiàn)最佳的模型和集合,我們選取了TOP-4預(yù)測(cè),按降序排序。然后,對(duì)于其他的每個(gè)模型,我們將他們的概率用于所選擇的這4個(gè)類(lèi)。目標(biāo)是根據(jù)這些特征來(lái)預(yù)測(cè)鯨魚(yú)是否屬于新類(lèi)別。

Pavel創(chuàng)建了一個(gè)非常強(qiáng)大的包含LogRegression,SVM,幾個(gè)k-NN模型和LightGBM的混合模型。這個(gè)混合模型在交叉驗(yàn)證中給出了0.9655 的ROC-AUC值,并且將LB得分提高了2%。

綜合

由我們的模型構(gòu)建混合模型相當(dāng)不容易。難度在于我的模型的輸出是非標(biāo)準(zhǔn)化概率矩陣(從0到1),而Artsiom提供的輸出矩陣由歐幾里德距離組成(范圍從0到無(wú)窮大)。

我們嘗試了許多方法將Artsiom的矩陣轉(zhuǎn)換為概率,其中包括:

1、類(lèi)似tSNE的轉(zhuǎn)換:

2、Softmax

3、通過(guò)應(yīng)用函數(shù)1 / (1 + distances)簡(jiǎn)單地反轉(zhuǎn)范圍

4、其他可以反轉(zhuǎn)矩陣范圍的函數(shù)

不幸的是,前兩種方法根本不起作用,而使用大多數(shù)函數(shù)將范圍剪切至[0,1]的結(jié)果大致相同。我們最終選擇在驗(yàn)證集上具有最高mAP @ 5的函數(shù)。

令人驚訝的是,最好的是1 / (1 + log(1 + log(1 + distances)))。

其他團(tuán)隊(duì)使用的方法

大衛(wèi)現(xiàn)在是Kaggle Grandmaster(等級(jí)為12),在Private LB上排名第四,并在Kaggle Discussions論壇上分享了他的解決方案。

https://www.kaggle.com/c/humpback-whale-identification/discussion/82356

他使用全分辨率圖像并使用傳統(tǒng)的關(guān)鍵點(diǎn)匹配技術(shù),利用SIFT和ROOTSIFT。為了解決假陽(yáng)性問(wèn)題,大衛(wèi)訓(xùn)練了一個(gè)U-Net從背景分割鯨魚(yú)。有趣的是,他使用后期處理給只有一個(gè)訓(xùn)練樣本的類(lèi)別更多的機(jī)會(huì)躋身TOP-1預(yù)測(cè)。

我們也考慮過(guò)嘗試基于SIFT的方法,但我們確信它肯定會(huì)比頂級(jí)神經(jīng)網(wǎng)絡(luò)表現(xiàn)得差。

在我看來(lái),我們能從中學(xué)會(huì)的是,永遠(yuǎn)不應(yīng)被深度學(xué)習(xí)的力量所蒙蔽,從而低估了傳統(tǒng)方法的能力。

單純分類(lèi)

由Dmytro Mishkin,Anastasiia Mishchuk和Igor Krashenyi組成的Pure Magic thanks radek團(tuán)隊(duì)(第7名),追求將metric learning(triplet loss)和分類(lèi)結(jié)合起來(lái),正如Dmytro在他的文章中描述的那樣。

在訓(xùn)練分類(lèi)模型一段時(shí)間時(shí),他們嘗試使用Center Loss來(lái)減少過(guò)擬合,并在應(yīng)用softmax之前進(jìn)行temperature scaling。在使用的眾多主干架構(gòu)中,最好的是SE-ResNeXt-50,它能夠達(dá)到0.955LB。

temperature scaling:

https://arxiv.org/pdf/1706.04599.pdf

他們的解決方案比這更加多樣化,我強(qiáng)烈建議你參考原文。

正如Ivan Sosin在文章中(他的團(tuán)隊(duì)BratanNet在本次比賽中排名第9)所述,他們使用了CosFace和ArcFace方法。下面是來(lái)自于原文:

Cosface和Arcface作為面部識(shí)別任務(wù)新近發(fā)現(xiàn)的SOTA脫穎而出。其主要思想是在余弦相似空間中將同類(lèi)的例子相互拉近并分開(kāi)不同的類(lèi)別。通常是分類(lèi)任務(wù)使用cosface或arcface,因此最終的損失函數(shù)是CrossEntropy

當(dāng)使用像InceptionV3或SE-ResNeXt-50這樣的較大主干網(wǎng)絡(luò)時(shí),他們注意到了過(guò)擬合,因而他們切換到較輕量的網(wǎng)絡(luò),如ResNet-34,BN-Inception和DenseNet-121。

文章鏈接:

https://www.kaggle.com/c/humpback-whale-identification/discussion/82427

該團(tuán)隊(duì)還使用了精心挑選的擴(kuò)充和眾多網(wǎng)絡(luò)修正方法,如CoordConv和GapNet。

他們方法中特別有趣的是他們處理新類(lèi)別鯨魚(yú)的方式。下面是原文:

一開(kāi)始我們就意識(shí)到必須對(duì)新鯨魚(yú)做一些處理,以便將它們納入訓(xùn)練中。簡(jiǎn)單的方法是給每個(gè)新鯨魚(yú)分配一個(gè)1/5004的可能屬于每一類(lèi)別的概率。在加權(quán)采樣方法的幫助下,它帶來(lái)了一些提升。

但后來(lái)我們意識(shí)到可以使用softmax預(yù)測(cè)來(lái)自于訓(xùn)練集中的新鯨魚(yú)。所以我們想到了distillation。我們選擇distillation代替?zhèn)?a target="_blank">標(biāo)簽,因?yàn)樾脉L魚(yú)的標(biāo)簽應(yīng)該與訓(xùn)練的標(biāo)簽不同,雖然它可能不是真的。

為了進(jìn)一步提升模型性能,我們將帶有偽標(biāo)簽的測(cè)試圖片添加到訓(xùn)練集中。最終,我們的單一模型可以通過(guò)snapshot ensembling達(dá)到0.958。不幸的是,以這種方式訓(xùn)練的ensembling并沒(méi)有在分?jǐn)?shù)上有任何的提高。也許是因?yàn)閭螛?biāo)簽和distillation造成的多樣性減少。

最后的思考

最后的排名

令人驚訝的是,盡管私人測(cè)試集占到全部測(cè)試集的近80%,但是最終結(jié)果幾乎沒(méi)有大的改變。我相信比賽的主辦方已經(jīng)提供了一個(gè)非常有趣的問(wèn)題,以及經(jīng)過(guò)很好地處理的數(shù)據(jù)。

這是我參加的第一場(chǎng)Kaggle比賽,毫無(wú)疑問(wèn),它表現(xiàn)出了Kaggle比賽的有趣,迷人,激勵(lì)和教育性。我要祝賀由于這次比賽而成為Expert,Master和Grandmaster的人。我還要感謝ODS.ai社區(qū)提供的精彩討論和支持。

最后,我要再一次特別感謝我的隊(duì)友Artsiom Sanakoyeu和Pavel Pleskov,為我?guī)?lái)了一次難忘的Kaggle比賽經(jīng)歷。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3611

    瀏覽量

    51428
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1229

    瀏覽量

    25913
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    812

    瀏覽量

    14426

原文標(biāo)題:Kaggle座頭鯨識(shí)別賽,TOP10團(tuán)隊(duì)的解決方案分享

文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    國(guó)產(chǎn)自主可控全自動(dòng)旋轉(zhuǎn)測(cè):中圖儀器ACH100T、ACH100S系列

    通過(guò)測(cè)同坐標(biāo)測(cè)量機(jī)控制系統(tǒng)的測(cè)接口相連,其結(jié)構(gòu)設(shè)計(jì)直接影響測(cè)量精度與靈活性。根據(jù)結(jié)構(gòu)類(lèi)型,測(cè)可分為手動(dòng)旋轉(zhuǎn)測(cè)、自動(dòng)旋轉(zhuǎn)測(cè)和固定測(cè)
    的頭像 發(fā)表于 08-25 11:17 ?895次閱讀
    國(guó)產(chǎn)自主可控全自動(dòng)旋轉(zhuǎn)測(cè)<b class='flag-5'>座</b>:中圖儀器ACH100T、ACH100S系列

    01Studio K230怎么同時(shí)使用兩個(gè)攝像?

    最近想整個(gè)激光打蚊子炮,想像網(wǎng)上那樣1個(gè)識(shí)別是否有人,另一個(gè)追蹤蚊子。 然后我使用原裝攝像和CSI1時(shí)頻繁報(bào)錯(cuò) 雖然我使用AI解決了頻繁報(bào)錯(cuò)的問(wèn)題,但是圖傳和檢測(cè)結(jié)果也直接不見(jiàn) 固
    發(fā)表于 08-12 07:48

    絲桿支撐醫(yī)療設(shè)備中的關(guān)鍵支撐

    絲桿支撐作為重要部件,保障設(shè)備精確運(yùn)行方面起著關(guān)鍵作用。
    的頭像 發(fā)表于 07-23 18:11 ?190次閱讀
    絲桿支撐<b class='flag-5'>座</b><b class='flag-5'>在</b>醫(yī)療設(shè)備中的關(guān)鍵支撐

    K230micropython下能實(shí)現(xiàn)同時(shí)用USB攝像和板載攝像YOLO識(shí)別并顯示IDE上嗎?

    K230micropython下能實(shí)現(xiàn)同時(shí)用USB攝像和板載攝像YOLO識(shí)別并顯示IDE上嗎?以及如何提高USB進(jìn)行YOLO識(shí)別的幀數(shù)
    發(fā)表于 06-20 06:35

    訓(xùn)練完模型后用cls_video.pycanmvIDE上運(yùn)行,按著步驟操作但是攝像沒(méi)有識(shí)別到是什么情況?

    訓(xùn)練完模型后用cls_video.pycanmvIDE上運(yùn)行,按著步驟操作但是攝像沒(méi)有識(shí)別到是什么情況啊,沒(méi)有框出現(xiàn)
    發(fā)表于 06-10 06:57

    有償求助!esp32cam攝像車(chē)牌識(shí)別代碼執(zhí)行時(shí),上位機(jī)閃退

    esp32cam攝像車(chē)牌識(shí)別在操作執(zhí)行識(shí)別車(chē)牌打開(kāi)攝像,上機(jī)位直接閃退,攝像例程檢測(cè)是有
    發(fā)表于 06-03 16:18

    啟智能獲專(zhuān)利授權(quán),無(wú)人配送技術(shù)賦能多行業(yè)智能化升級(jí)

    近日,南京啟智能科技有限公司的《智能配送機(jī)器人》專(zhuān)利獲得國(guó)家專(zhuān)利局授權(quán)。這一成就不僅彰顯了啟智能的技術(shù)實(shí)力,也為無(wú)人配送技術(shù)工廠、醫(yī)院、樓宇等場(chǎng)景的廣泛應(yīng)用提供了強(qiáng)有力的支持。自2022年成
    的頭像 發(fā)表于 03-04 12:24 ?677次閱讀
    <b class='flag-5'>鯨</b>啟智能獲專(zhuān)利授權(quán),無(wú)人配送技術(shù)賦能多行業(yè)智能化升級(jí)

    雙增速第一,云產(chǎn)品CES驚艷亮相

    前不久,2025CES美國(guó)拉斯維加斯消費(fèi)電子展覽會(huì)上,云攜旗下產(chǎn)品和前沿技術(shù)精彩亮相,引發(fā)行業(yè)廣泛關(guān)注,展示了云智能清潔領(lǐng)域的技術(shù)創(chuàng)新和市場(chǎng)進(jìn)取精神。
    的頭像 發(fā)表于 02-10 10:30 ?791次閱讀

    智能完成數(shù)億元新一輪融資

    融資,累計(jì)融資金額高達(dá)數(shù)十億元。這一輪融資歷程不僅顯示了云智能在掃地機(jī)器人領(lǐng)域的領(lǐng)先地位,也體現(xiàn)了其持續(xù)創(chuàng)新和市場(chǎng)拓展的能力。 智能的背后,匯聚了一批知名投資機(jī)構(gòu)。其中包括由李澤湘管理的清水灣基金、互
    的頭像 發(fā)表于 12-18 11:03 ?1355次閱讀

    客流統(tǒng)計(jì)自動(dòng)識(shí)別攝像

    隨著城市化進(jìn)程的加快和商業(yè)活動(dòng)的日益繁榮,客流統(tǒng)計(jì)成為了商家和城市管理者關(guān)注的重要指標(biāo)。為了更精準(zhǔn)地獲取客流數(shù)據(jù),客流統(tǒng)計(jì)自動(dòng)識(shí)別攝像應(yīng)運(yùn)而生,成為現(xiàn)代商業(yè)和公共管理中不可或缺的工具??土鹘y(tǒng)計(jì)
    的頭像 發(fā)表于 12-10 15:32 ?837次閱讀
    客流統(tǒng)計(jì)自動(dòng)<b class='flag-5'>識(shí)別</b>攝像<b class='flag-5'>頭</b>

    積水自動(dòng)監(jiān)控?cái)z像

    城市化進(jìn)程加速的今天,積水問(wèn)題成為了許多城市面臨的重要挑戰(zhàn)。尤其雨季,暴雨導(dǎo)致的積水不僅影響交通,還可能造成財(cái)產(chǎn)損失和安全隱患。為了有效應(yīng)對(duì)這一問(wèn)題,積水自動(dòng)監(jiān)控?cái)z像的應(yīng)用逐漸受
    的頭像 發(fā)表于 12-09 11:13 ?846次閱讀
    積水自動(dòng)監(jiān)控?cái)z像<b class='flag-5'>頭</b>

    邊坡智能監(jiān)測(cè)識(shí)別攝像

    增加。因此,邊坡智能監(jiān)測(cè)識(shí)別攝像應(yīng)運(yùn)而生,為邊坡安全管理提供了高效、可靠的解決方案。邊坡智能監(jiān)測(cè)識(shí)別攝像是一種結(jié)合了圖像處理技術(shù)與人工智能算法的高科技設(shè)備。它能
    的頭像 發(fā)表于 11-25 10:05 ?825次閱讀
    邊坡智能監(jiān)測(cè)<b class='flag-5'>識(shí)別</b>攝像<b class='flag-5'>頭</b>

    公安特警團(tuán)隊(duì)作戰(zhàn)過(guò)程中該如何保證和隊(duì)員間的實(shí)時(shí)通訊-TIKOOL太酷公網(wǎng)全雙工內(nèi)通

    “尖刀·使命”2024年全國(guó)公安特警挑戰(zhàn)浙江杭州順利落下帷幕。參賽隊(duì)?wèi){借精湛的技能和頑強(qiáng)的作風(fēng),全力以赴地參與各科目的角逐。FG-P80公網(wǎng)全雙工系列通過(guò)管理后臺(tái)靈活的矩陣式終端管
    的頭像 發(fā)表于 11-21 16:00 ?733次閱讀
    公安特警<b class='flag-5'>在</b>團(tuán)隊(duì)作戰(zhàn)過(guò)程中該如何保證和隊(duì)員間的實(shí)時(shí)通訊-TIKOOL太酷公網(wǎng)全雙工內(nèi)通

    高效安全的指紋,智能識(shí)別技術(shù)引領(lǐng)未來(lái)

    指紋采用最新指紋算法技術(shù),支持多種復(fù)雜場(chǎng)景,識(shí)別準(zhǔn)確率高。無(wú)論是干濕手指,還是淺紋指紋,都能快速完成驗(yàn)證,確保數(shù)據(jù)安全。
    的頭像 發(fā)表于 11-19 10:48 ?695次閱讀
    高效安全的指紋<b class='flag-5'>頭</b>,智能<b class='flag-5'>識(shí)別</b>技術(shù)引領(lǐng)未來(lái)

    PC機(jī)不能識(shí)別AIC3254EVM-K的原因?

    最近買(mǎi)了AIC3254EVM-K,帶USB口。按照user\'s guide的說(shuō)明一步一步安裝后,PC機(jī)不能識(shí)別該EVM,總找不到原因。特此請(qǐng)教軟件安裝、板上各插針的連接等,還需特別注意的問(wèn)題。謝謝!
    發(fā)表于 11-07 06:07