chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌Objectron數(shù)據(jù)集:3D目標(biāo)檢測(cè)數(shù)據(jù)集及檢測(cè)方案

新機(jī)器視覺 ? 來源:新機(jī)器視覺 ? 作者:新智元 ? 2020-11-27 09:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌人工智能實(shí)驗(yàn)室近日發(fā)布 Objectron 數(shù)據(jù)集,這是一個(gè)以3D目標(biāo)為中心的視頻剪輯的集合,這些視頻剪輯從不同角度捕獲了較大的一組公共對(duì)象。數(shù)據(jù)集包括 15K 帶注釋的視頻剪輯,并補(bǔ)充了從地理多樣的樣本中收集的超過 4M 帶注釋的圖像(覆蓋五大洲的 10 個(gè)國(guó)家)。

機(jī)器學(xué)習(xí)(ML)的最新技術(shù)已經(jīng)在許多計(jì)算機(jī)視覺任務(wù)上取得了SOTA的結(jié)果,但僅僅是通過在2D照片上訓(xùn)練模型而已。 在這些成功的基礎(chǔ)上,提高模型對(duì) 3D 物體的理解力有很大的潛力來支持更廣泛的應(yīng)用場(chǎng)景,如增強(qiáng)現(xiàn)實(shí)、機(jī)器人、自動(dòng)化和圖像檢索。 今年早些時(shí)候,谷歌發(fā)布了 MediaPipe Objectron,一套為移動(dòng)設(shè)備設(shè)計(jì)的實(shí)時(shí) 3D 目標(biāo)檢測(cè)模型,這個(gè)模型是基于一個(gè)已標(biāo)注的、真實(shí)世界的 3D 數(shù)據(jù)集,可以預(yù)測(cè)物體的 3D 邊界。

然而,理解3D 中的對(duì)象仍然是一項(xiàng)具有挑戰(zhàn)性的任務(wù),因?yàn)榕c2D 任務(wù)(例如,ImageNet、 COCO 和 Open Images)相比,缺乏大型的真實(shí)世界數(shù)據(jù)集。 為了使研究團(tuán)體能夠繼續(xù)推進(jìn)3D 對(duì)象理解,迫切需要發(fā)布以對(duì)象為中心的視頻數(shù)據(jù)集,這些數(shù)據(jù)集能夠捕獲更多的對(duì)象的3D 結(jié)構(gòu),同時(shí)匹配用于許多視覺任務(wù)(例如,視頻或攝像機(jī)流)的數(shù)據(jù)格式,以幫助機(jī)器學(xué)習(xí)模型的訓(xùn)練和基準(zhǔn)測(cè)試。 近期谷歌發(fā)布了 Objectron 數(shù)據(jù)集,這是一個(gè)以對(duì)象為中心的短視頻剪輯數(shù)據(jù)集,從不同的角度捕捉了一組更大的普通對(duì)象。

每個(gè)視頻剪輯都伴隨著 AR 會(huì)話元數(shù)據(jù),其中包括攝像機(jī)姿態(tài)和稀疏點(diǎn)云。數(shù)據(jù)還包含為每個(gè)對(duì)象手動(dòng)注釋的3D 邊界,這些 bounding box 描述了對(duì)象的位置、方向和尺寸。 每個(gè)視頻剪輯都隨附有 AR 的元數(shù)據(jù),其中包括相機(jī)姿勢(shì)和稀疏點(diǎn)云。數(shù)據(jù)還包含每個(gè)對(duì)象的手動(dòng)注釋的 3D 邊界框,用于描述對(duì)象的位置,方向和尺寸。 該數(shù)據(jù)集包括15K 注釋視頻剪輯與超過4M 注釋圖像收集的地理多樣性樣本(涵蓋10個(gè)國(guó)家橫跨五大洲)。

3D 目標(biāo)檢測(cè)解決方案

除了這個(gè)數(shù)據(jù)集,谷歌還分享了一個(gè) 3D 目標(biāo)檢測(cè)解決方案,可以用于4類物體:鞋子、椅子、杯子和相機(jī)。 這些模型是在 MediaPipe 中發(fā)布的,MediaPipe 是谷歌的開源框架,用于跨平臺(tái)可定制的流媒體機(jī)器學(xué)習(xí)解決方案,它同時(shí)也支持機(jī)器學(xué)習(xí)解決方案,比如設(shè)備上的實(shí)時(shí)手勢(shì)、虹膜和身體姿態(tài)跟蹤。

與之前發(fā)布的 single-stage Objectron 模型相比,這些最新版本采用了兩級(jí)架構(gòu)。 第一級(jí)使用 TensorFlow 目標(biāo)檢測(cè)模型來尋找物體的 2D 裁剪,第二級(jí)使用圖像裁剪來估計(jì)三維bounding box,同時(shí)計(jì)算下一幀對(duì)象的二維裁剪,使得目標(biāo)檢測(cè)器不需要運(yùn)行每一幀。第二階段的三維 bounding box 預(yù)測(cè)器是以83 FPS在 Adreno 650 GPU 上運(yùn)行。

3D 目標(biāo)檢測(cè)的評(píng)估指標(biāo)

有了真實(shí)的注釋,我們就可以使用 3D IoU(intersection over union)相似性統(tǒng)計(jì)來評(píng)估 3D 目標(biāo)檢測(cè)模型的性能,這是計(jì)算機(jī)視覺任務(wù)常用的指標(biāo),衡量bounding box與ground truth的接近程度。 谷歌提出了一種計(jì)算一般的面向三維空間的精確 3D IoU 的算法。 首先使用 Sutherland-Hodgman Polygon clipping 算法計(jì)算兩個(gè)盒子面之間的交點(diǎn),這類似于計(jì)算機(jī)圖形學(xué)的剔除技術(shù)(frustum culling),利用所有截?cái)喽噙呅蔚耐拱?jì)算相交的體積。最后,通過交集的體積和兩個(gè)盒子的并集的體積計(jì)算 IoU。 谷歌表示將隨數(shù)據(jù)集一起發(fā)布評(píng)估的源代碼。

數(shù)據(jù)格式

Objectron 數(shù)據(jù)集的技術(shù)細(xì)節(jié),包括使用和教程,均可在數(shù)據(jù)集網(wǎng)站上獲得。這些數(shù)據(jù)集中的物體包括自行車、書籍、瓶子、相機(jī)、麥片盒、椅子、杯子、筆記本電腦和鞋子等,和數(shù)據(jù)集一起發(fā)布的具有以下內(nèi)容: 1.視頻序列 2.帶注釋的標(biāo)簽(目標(biāo)的3D 邊界框) 3.AR 元數(shù)據(jù) (如照相機(jī)姿態(tài)、點(diǎn)云和平面表面) 4.處理過的數(shù)據(jù)集: 混合版本的帶注釋的幀、tf.example 格式的圖像和 SequenceExample 格式的視頻 5.支持基于上面描述的度量評(píng)估的腳本 6.支持腳本將數(shù)據(jù)加載到 Tensorflow、Pytorch、Jax并且可視化數(shù)據(jù)集 除了數(shù)據(jù)集,谷歌還開放了數(shù)據(jù)管道來解析 Tensorflow、 PyTorch 和 Jax 框架中的數(shù)據(jù)集。

還提供了 colab notebook 的實(shí)例 。 通過發(fā)布這個(gè) Objectron 數(shù)據(jù)集,谷歌希望能夠使研究團(tuán)體推進(jìn)三維物體幾何理解的極限。同時(shí)也希望促進(jìn)新的研究和應(yīng)用,如視圖合成,改進(jìn)的 3D 表示和非監(jiān)督式學(xué)習(xí)等。 參考鏈接: https://ai.googleblog.com/2020/11/announcing-objectron-dataset.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+blogspot%2FgJZg+%28Google+AI+Blog%29

責(zé)任編輯:xj

原文標(biāo)題:重磅!谷歌發(fā)布3D目標(biāo)檢測(cè)數(shù)據(jù)集及檢測(cè)方案

文章出處:【微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2987

    瀏覽量

    113750
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6244

    瀏覽量

    110216
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49713

    瀏覽量

    261294

原文標(biāo)題:重磅!谷歌發(fā)布3D目標(biāo)檢測(cè)數(shù)據(jù)集及檢測(cè)方案

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    SimData:基于aiSim的高保真虛擬數(shù)據(jù)生成方案

    01前言在自動(dòng)駕駛感知系統(tǒng)的研發(fā)過程中,模型的性能高度依賴于大規(guī)模、高質(zhì)量的感知數(shù)據(jù)。目前業(yè)界常用的數(shù)據(jù)包括KITTI、nuScenes、WaymoOpenDataset等,它們?yōu)?/div>
    的頭像 發(fā)表于 11-07 17:35 ?5113次閱讀
    SimData:基于aiSim的高保真虛擬<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>生成<b class='flag-5'>方案</b>

    iTOF技術(shù),多樣化的3D視覺應(yīng)用

    動(dòng)態(tài)模糊,確保高耐光性,同時(shí)輸出2D(紅外)和3D(深度)數(shù)據(jù)。 ◆ Testing Principles ※ 測(cè)量脈沖光的飛行時(shí)間,以檢測(cè) TOF 相機(jī)與被測(cè)物體之間的距離。
    發(fā)表于 09-05 07:24

    AIcube1.4目標(biāo)檢測(cè)模型導(dǎo)入yolotxt格式數(shù)據(jù)后一直顯示數(shù)據(jù)正在解析,為什么?

    AIcube1.4目標(biāo)檢測(cè)模型導(dǎo)入yolotxt格式數(shù)據(jù)后一直顯示數(shù)據(jù)正在解析 數(shù)據(jù)有問題,把
    發(fā)表于 08-13 07:16

    AI Cube如何導(dǎo)入數(shù)據(jù)?

    我從在線平臺(tái)標(biāo)注完并且下載了數(shù)據(jù),也按照ai cube的要求修改了文件夾名稱,但是導(dǎo)入提示 不知道是什么原因,我該怎么辦? 以下是我修改后的文件夾目錄
    發(fā)表于 08-11 08:12

    請(qǐng)問AICube所需的目標(biāo)檢測(cè)數(shù)據(jù)標(biāo)注可以使用什么工具?

    請(qǐng)問AICube所需的目標(biāo)檢測(cè)數(shù)據(jù)標(biāo)注可以使用什么工具? 我使用labelimg進(jìn)行標(biāo)注,標(biāo)注后的數(shù)據(jù)
    發(fā)表于 08-11 08:07

    3D激光輪廓儀可實(shí)現(xiàn)在線3D測(cè)量和檢測(cè)

    Z-Trak? Express 1K5 系列專為實(shí)現(xiàn)經(jīng)濟(jì)高效的在線3D測(cè)量和檢測(cè)而設(shè)計(jì),具有高速檢測(cè)能力和實(shí)時(shí)處理性能。
    的頭像 發(fā)表于 08-08 17:17 ?773次閱讀
    <b class='flag-5'>3D</b>激光輪廓儀可實(shí)現(xiàn)在線<b class='flag-5'>3D</b>測(cè)量和<b class='flag-5'>檢測(cè)</b>

    云訓(xùn)練平臺(tái)數(shù)據(jù)過大無(wú)法下載數(shù)據(jù)至本地怎么解決?

    起因是現(xiàn)在平臺(tái)限制了圖片數(shù)量,想要本地訓(xùn)練下載數(shù)據(jù)時(shí)發(fā)現(xiàn)只會(huì)跳出網(wǎng)絡(luò)異常的錯(cuò)誤,請(qǐng)問這有什么解決辦法?
    發(fā)表于 07-22 06:03

    使用AICube導(dǎo)入數(shù)據(jù)點(diǎn)創(chuàng)建后提示數(shù)據(jù)不合法怎么處理?

    重現(xiàn)步驟 data目錄下 labels.txt只有英文 **錯(cuò)誤日志** 但是使用示例的數(shù)據(jù)可以完成訓(xùn)練并部署
    發(fā)表于 06-24 06:07

    海伯森3D閃測(cè)傳感器,工業(yè)檢測(cè)領(lǐng)域的高精度利器

    隨著信息技術(shù)的飛速進(jìn)步,第四次視覺革命深度融合“人”“機(jī)”“物”,基于光學(xué)原理的3D視覺檢測(cè)技術(shù)迎來爆發(fā)式發(fā)展,成為工業(yè)生產(chǎn)中更高效的檢測(cè)利器。3D視覺技術(shù)通過非接觸性、高速性、
    的頭像 發(fā)表于 06-20 17:46 ?1280次閱讀
    海伯森<b class='flag-5'>3D</b>閃測(cè)傳感器,工業(yè)<b class='flag-5'>檢測(cè)</b>領(lǐng)域的高精度利器

    數(shù)據(jù)下載失敗的原因?

    數(shù)據(jù)下載失敗什么原因太大了嗎,小的可以下載,想把大的下載去本地訓(xùn)練報(bào)錯(cuò)網(wǎng)絡(luò)錯(cuò)誤 大的數(shù)據(jù)多大?數(shù)據(jù)量有多少?
    發(fā)表于 06-18 07:04

    請(qǐng)問NanoEdge AI數(shù)據(jù)該如何構(gòu)建?

    我想用NanoEdge來識(shí)別異常的聲音,但我目前沒有辦法生成模型,我感覺可能是數(shù)據(jù)的問題,請(qǐng)問我該怎么構(gòu)建數(shù)據(jù)?或者生成模型失敗還會(huì)有哪些原因?
    發(fā)表于 03-10 08:20

    ?超景深3D檢測(cè)顯微鏡技術(shù)解析

    方案的制定提供依據(jù)。 在工業(yè)檢測(cè)領(lǐng)域,超景深3D檢測(cè)顯微鏡的高精度成像能力使其成為質(zhì)量控制的利器。無(wú)論是電子元器件的檢測(cè),還是精密機(jī)械零件的
    發(fā)表于 02-25 10:51

    AI Cube進(jìn)行yolov8n模型訓(xùn)練,創(chuàng)建項(xiàng)目目標(biāo)檢測(cè)時(shí)顯示數(shù)據(jù)目錄下存在除標(biāo)注和圖片外的其他目錄如何處理?

    AI Cube進(jìn)行yolov8n模型訓(xùn)練 創(chuàng)建項(xiàng)目目標(biāo)檢測(cè)時(shí)顯示數(shù)據(jù)目錄下存在除標(biāo)注和圖片外的其他目錄怎么解決
    發(fā)表于 02-08 06:21

    武漢環(huán)保節(jié)能裝備3D數(shù)據(jù)掃描采集分析檢測(cè)完成

    2024年3月,公司開展三維掃描數(shù)據(jù)采集業(yè)務(wù),成功在節(jié)能減排裝備葉片三D數(shù)據(jù)采集和檢測(cè)分析方面取得顯著成果,提供精確模型和
    的頭像 發(fā)表于 01-15 14:35 ?533次閱讀
    武漢環(huán)保節(jié)能裝備<b class='flag-5'>3D</b><b class='flag-5'>數(shù)據(jù)</b>掃描采集分析<b class='flag-5'>檢測(cè)</b>完成