chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

關于激光雷達傳感器如何投影成二維圖像

新機器視覺 ? 來源:CSDN技術社區(qū) ? 作者:W_Tortoise ? 2021-04-03 09:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

“前視圖”投影

為了將激光雷達傳感器的“前視圖”展平為2D圖像,必須將3D空間中的點投影到可以展開的圓柱形表面上,以形成平面。

2a6759e6-8e94-11eb-8b86-12bb97331649.png

2a9336d8-8e94-11eb-8b86-12bb97331649.png

問題在于這樣做會將圖像的接縫直接放在汽車的右側。將接縫定位在汽車的最后部更有意義,因此前部和側部更重要的區(qū)域是不間斷的。讓這些重要區(qū)域不間斷將使卷積神經(jīng)網(wǎng)絡更容易識別那些重要區(qū)域中的整個對象。

以下代碼解決了這個問題。

沿每個軸配置刻度

變量h r e s h_{res}和v r e s v_{res}非常依賴于所使用的LIDAR傳感器。在KTTI數(shù)據(jù)集中,使用的傳感器是Velodyne HDL 64E。根據(jù)Velodyne HDL 64E的規(guī)格表,它具有以下重要特征:

垂直視野為26.9度,分辨率為0.4度,垂直視野被分為傳感器上方+2度,傳感器下方-24.9度

360度的水平視野,分辨率為0.08-0.35(取決于旋轉速度)

旋轉速率可以選擇在5-20Hz之間

可以按以下方式更新代碼:

然而,這導致大約一半的點在x軸負方向上,并且大多數(shù)在y軸負方向上。為了投影到2D圖像,需要將最小值設置為(0,0),所以需要做一些改變:

繪制二維圖像

將3D點投影到2D坐標點,最小值為(0,0),可以將這些點數(shù)據(jù)繪制成2D圖像。

完整代碼

把上面所有的代碼放在一個函數(shù)中。

def lidar_to_2d_front_view(points, v_res, h_res, v_fov, val=“depth”, cmap=“jet”, saveto=None, y_fudge=0.0 ): “”“ Takes points in 3D space from LIDAR data and projects them to a 2D ”front view“ image, and saves that image.

Args: points: (np array) The numpy array containing the lidar points. The shape should be Nx4 - Where N is the number of points, and - each point is specified by 4 values (x, y, z, reflectance) v_res: (float) vertical resolution of the lidar sensor used. h_res: (float) horizontal resolution of the lidar sensor used. v_fov: (tuple of two floats) (minimum_negative_angle, max_positive_angle) val: (str) What value to use to encode the points that get plotted. One of {”depth“, ”height“, ”reflectance“} cmap: (str) Color map to use to color code the `val` values. NOTE: Must be a value accepted by matplotlib‘s scatter function Examples: ”jet“, ”gray“ saveto: (str or None) If a string is provided, it saves the image as this filename. If None, then it just shows the image. y_fudge: (float) A hacky fudge factor to use if the theoretical calculations of vertical range do not match the actual data.

For a Velodyne HDL 64E, set this value to 5. ”“”

# DUMMY PROOFING assert len(v_fov) ==2, “v_fov must be list/tuple of length 2” assert v_fov[0] 《= 0, “first element in v_fov must be 0 or negative” assert val in {“depth”, “height”, “reflectance”}, ’val must be one of {“depth”, “height”, “reflectance”}‘

x_lidar = points[:, 0] y_lidar = points[:, 1] z_lidar = points[:, 2] r_lidar = points[:, 3] # Reflectance # Distance relative to origin when looked from top d_lidar = np.sqrt(x_lidar ** 2 + y_lidar ** 2) # Absolute distance relative to origin # d_lidar = np.sqrt(x_lidar ** 2 + y_lidar ** 2, z_lidar ** 2)

v_fov_total = -v_fov[0] + v_fov[1]

# Convert to Radians v_res_rad = v_res * (np.pi/180) h_res_rad = h_res * (np.pi/180)

# PROJECT INTO IMAGE COORDINATES x_img = np.arctan2(-y_lidar, x_lidar)/ h_res_rad y_img = np.arctan2(z_lidar, d_lidar)/ v_res_rad

# SHIFT COORDINATES TO MAKE 0,0 THE MINIMUM x_min = -360.0 / h_res / 2 # Theoretical min x value based on sensor specs x_img -= x_min # Shift x_max = 360.0 / h_res # Theoretical max x value after shifting

y_min = v_fov[0] / v_res # theoretical min y value based on sensor specs y_img -= y_min # Shift y_max = v_fov_total / v_res # Theoretical max x value after shifting

y_max += y_fudge # Fudge factor if the calculations based on # spec sheet do not match the range of # angles collected by in the data.

# WHAT DATA TO USE TO ENCODE THE VALUE FOR EACH PIXEL if val == “reflectance”: pixel_values = r_lidar elif val == “height”: pixel_values = z_lidar else: pixel_values = -d_lidar

# PLOT THE IMAGE cmap = “jet” # Color map to use dpi = 100 # Image resolution fig, ax = plt.subplots(figsize=(x_max/dpi, y_max/dpi), dpi=dpi) ax.scatter(x_img,y_img, s=1, c=pixel_values, linewidths=0, alpha=1, cmap=cmap) ax.set_axis_bgcolor((0, 0, 0)) # Set regions with no points to black ax.axis(’scaled‘) # {equal, scaled} ax.xaxis.set_visible(False) # Do not draw axis tick marks ax.yaxis.set_visible(False) # Do not draw axis tick marks plt.xlim([0, x_max]) # prevent drawing empty space outside of horizontal FOV plt.ylim([0, y_max]) # prevent drawing empty space outside of vertical FOV

if saveto is not None: fig.savefig(saveto, dpi=dpi, bbox_inches=’tight‘, pad_inches=0.0) else: fig.show()

以下是一些用例:

import matplotlib.pyplot as pltimport numpy as np

HRES = 0.35 # horizontal resolution (assuming 20Hz setting)VRES = 0.4 # vertical resVFOV = (-24.9, 2.0) # Field of view (-ve, +ve) along vertical axisY_FUDGE = 5 # y fudge factor for velodyne HDL 64E

lidar_to_2d_front_view(lidar, v_res=VRES, h_res=HRES, v_fov=VFOV, val=“depth”, saveto=“/tmp/lidar_depth.png”, y_fudge=Y_FUDGE)

lidar_to_2d_front_view(lidar, v_res=VRES, h_res=HRES, v_fov=VFOV, val=“height”, saveto=“/tmp/lidar_height.png”, y_fudge=Y_FUDGE)

lidar_to_2d_front_view(lidar, v_res=VRES, h_res=HRES, v_fov=VFOV, val=“reflectance”, saveto=“/tmp/lidar_reflectance.png”, y_fudge=Y_FUDGE)

產(chǎn)生以下三個圖像:

Depth

2ac4628a-8e94-11eb-8b86-12bb97331649.png

Height

2afb4796-8e94-11eb-8b86-12bb97331649.png

Reflectance

2b4c7080-8e94-11eb-8b86-12bb97331649.png

后續(xù)操作步驟

目前創(chuàng)建每個圖像非常慢,可能是因為matplotlib,它不能很好地處理大量的散點。

因此需要創(chuàng)建一個使用numpy或PIL的實現(xiàn)。

測試

需要安裝python-pcl,加載PCD文件。

sudo apt-get install python-pip

sudo apt-get install python-dev

sudo pip install Cython==0.25.2

sudo pip install numpy

sudo apt-get install git

git clone https://github.com/strawlab/python-pcl.git

cd python-pcl/

python setup.py build_ext -i

python setup.py install

可惜,sudo pip install Cython==0.25.2這步報錯:

Cannot uninstall ‘Cython’。 It is a distutils installed project and thus we cannot accurately determine which files belong to it which would lead to only a partial uninstall.”

換個方法,安裝pypcd:

pip install pypcd

查看 https://pypi.org/project/pypcd/ ,用例如下:

Example-------

。. code:: python

import pypcd# also can read from file handles.pc = pypcd.PointCloud.from_path(’foo.pcd‘)# pc.pc_data has the data as a structured array# pc.fields, pc.count, etc have the metadata

# center the x fieldpc.pc_data[’x‘] -= pc.pc_data[’x‘].mean()

# save as binary compressedpc.save_pcd(’bar.pcd‘, compression=’binary_compressed‘)

測試數(shù)據(jù)結構:

“ 》》》 lidar = pypcd.PointCloud.from_path(‘~/pointcloud-processing/000000.pcd’)

》》》 lidar.pc_data

array([(18.323999404907227, 0.04899999871850014, 0.8289999961853027, 0.0),

(18.3439998626709, 0.10599999874830246, 0.8289999961853027, 0.0),

(51.29899978637695, 0.5049999952316284, 1.944000005722046, 0.0),

…,

(3.7139999866485596, -1.3910000324249268, -1.7330000400543213, 0.4099999964237213),

(3.9670000076293945, -1.4739999771118164, -1.8569999933242798, 0.0),

(0.0, 0.0, 0.0, 0.0)],

dtype=[(‘x’, ‘《f4’), (‘y’, ‘《f4’), (‘z’, ‘《f4’), (‘intensity’, ‘《f4’)])

》》》 lidar.pc_data[‘x’]

array([ 18.3239994 , 18.34399986, 51.29899979, …, 3.71399999,

3.96700001, 0. ], dtype=float32) ”

加載PCD:

import pypcd

lidar = pypcd.PointCloud.from_path(’000000.pcd‘)

x_lidar:

x_lidar = points[’x‘]

結果:

Depth

2bc5c4ee-8e94-11eb-8b86-12bb97331649.png

Height

2c287c7e-8e94-11eb-8b86-12bb97331649.png

Reflectance

2c7f18cc-8e94-11eb-8b86-12bb97331649.png

編輯:lyn

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2577

    文章

    55505

    瀏覽量

    793953
  • 投影
    +關注

    關注

    0

    文章

    147

    瀏覽量

    25444
  • 激光雷達
    +關注

    關注

    982

    文章

    4548

    瀏覽量

    197095

原文標題:點云處理——將激光雷達數(shù)據(jù)投影到二維圖像

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    固態(tài)激光雷達參數(shù)以及避障視頻

    本帖最后由 jf_63660781 于 2026-3-27 14:23 編輯 1 產(chǎn)品概述 G90A-60傳感器是一款線陣固態(tài)激光雷達。本產(chǎn)品基于三角測距原理,并配以相關光學、電學
    發(fā)表于 03-27 14:14

    激光雷達傳感器:智能時代的“智慧之眼”

    的關鍵力量。 激光雷達傳感器,是一種通過發(fā)射激光束并接收其反射信號來探測目標距離、速度、方位和表面特性的主動遙感技術。它就像一雙擁有超能力的“眼睛”,能夠穿透復雜的環(huán)境,為我們呈現(xiàn)出一個清晰、精確的三
    的頭像 發(fā)表于 03-27 08:37 ?120次閱讀
    <b class='flag-5'>激光雷達</b><b class='flag-5'>傳感器</b>:智能時代的“智慧之眼”

    漢思新材料:車載激光雷達傳感器封裝膠:種類、要求及選擇指南

    車載激光雷達(LiDAR)傳感器封裝膠是保障傳感器性能穩(wěn)定、提升環(huán)境適應性的核心關鍵材料,直接決定傳感器在復雜車載環(huán)境中的工作可靠性與使用壽命。以下將詳細介紹常見封裝膠種類、核心要求及
    的頭像 發(fā)表于 02-06 14:06 ?3544次閱讀
    漢思新材料:車載<b class='flag-5'>激光雷達</b><b class='flag-5'>傳感器</b>封裝膠:種類、要求及選擇指南

    自動駕駛激光雷達會傷害人體嗎?

    人體造成傷害,那事實果真如此嗎? 什么是激光雷達? 激光雷達作為一種主動感知傳感器,它的核心工作方式是發(fā)射大量的激光脈沖,這些脈沖碰到前方的物體后會反射回來,當接收到反射信號后就可以計
    的頭像 發(fā)表于 02-05 08:59 ?532次閱讀
    自動駕駛<b class='flag-5'>激光雷達</b>會傷害人體嗎?

    雨霧天氣,毫米波雷達表現(xiàn)為什么比激光雷達更好?

    在自動駕駛領域,要讓汽車自己“看懂”周圍環(huán)境,必須借助激光雷達、毫米波雷達傳感器。它們雖都用于探測周圍物體,但物理原理和應對惡劣天氣的能力卻有明顯不同。
    的頭像 發(fā)表于 01-13 17:47 ?2398次閱讀
    雨霧天氣,毫米波<b class='flag-5'>雷達</b>表現(xiàn)為什么比<b class='flag-5'>激光雷達</b>更好?

    如何為自動駕駛汽車選擇一款合適的激光雷達

    物體離傳感器多遠。把很多這樣的測距結果按角度組織起來,就能得到一個三的“點云”,用來表示周圍物體的形狀和位置。激光雷達的主要作用就是讓車知道周圍有哪些東西、在什么位置、大概是什么大小。 ? 它是怎么工作的?
    的頭像 發(fā)表于 12-14 09:58 ?2739次閱讀
    如何為自動駕駛汽車選擇一款合適的<b class='flag-5'>激光雷達</b>?

    自動駕駛里的激光雷達有何作用?

    [首發(fā)于智駕最前沿微信公眾號]激光雷達(LiDAR)是一款把光當“尺子”來量距離的一類傳感器,在自動駕駛里負責“看清三形狀和距離”。它和攝像頭、毫米波雷達不一樣,能直接給出稠密的三
    的頭像 發(fā)表于 10-10 07:15 ?1296次閱讀
    自動駕駛里的<b class='flag-5'>激光雷達</b>有何作用?

    自動駕駛激光雷達可以安裝在哪些位置?

    為了讓自動駕駛汽車在各種復雜環(huán)境中都能精準感知周圍情況,激光雷達(LiDAR)作為重要的環(huán)境感知傳感器,發(fā)揮著不可替代的作用。激光雷達能夠發(fā)射數(shù)十萬乃至數(shù)百萬束激光脈沖,并接收反射光信
    的頭像 發(fā)表于 09-08 09:19 ?1144次閱讀

    速騰聚創(chuàng)激光雷達全球銷量破百萬,市占率26%居首

    應用最廣泛、量產(chǎn)車型最多的車載激光雷達平臺。今年,RoboSense速騰聚創(chuàng)全球首個可量產(chǎn)全固態(tài)數(shù)字化激光雷達E平臺產(chǎn)品開啟量產(chǎn)交付,成為業(yè)內唯一攻破二維可尋址VCSEL技術、有效抑制高反膨脹問題、實現(xiàn)自研SPAD-SoC量產(chǎn)的
    的頭像 發(fā)表于 06-17 19:25 ?1613次閱讀
    速騰聚創(chuàng)<b class='flag-5'>激光雷達</b>全球銷量破百萬,市占率26%居首

    FMCW激光雷達,加速落地工業(yè)場景

    產(chǎn)品融合實時測速、無GPS高精度定位、全建圖、圖像級分辨率及原生抗干擾能力,為智能工業(yè)與行業(yè)機器人領域注入強勁動力。 ? 據(jù)介紹,F(xiàn)MCW技術應用在球形激光雷達中,有以下優(yōu)勢: ? 動靜分離,決策優(yōu)化:FMCW技術賦予
    的頭像 發(fā)表于 06-17 00:21 ?4620次閱讀

    SPAD席卷車載激光雷達市場

    電子發(fā)燒友網(wǎng)報道(文/梁浩斌)上周我們報道了一款新推出的激光雷達ASIC方案,值得關注的是該方案中與ASIC搭配的傳感器均選擇了SiPM。當然從成本的角度來看,作為第三方的激光雷達ASIC方案
    的頭像 發(fā)表于 06-13 00:59 ?5986次閱讀

    自動駕駛中純視覺替代不了激光雷達?

    ,不少人設想“移除LiDAR,只用攝像頭+AI”也能實現(xiàn)可靠感知。但現(xiàn)實遠比想象復雜,為什么純視覺難以完全替代LiDAR? 首先要知道,攝像頭與LiDAR的工作原理截然不同。攝像頭通過光學透鏡和圖像傳感器獲取二維彩色
    的頭像 發(fā)表于 06-11 09:06 ?1159次閱讀

    超酷的樹莓派激光雷達掃描儀!

    摘要這款DIY的PiLiDAR掃描儀項目利用樹莓派進行激光雷達測繪。激光雷達通過發(fā)射激光來掃描周圍環(huán)境,從而創(chuàng)建三模型。該項目需要樹莓派4、攝像頭、電機以及
    的頭像 發(fā)表于 06-01 08:33 ?1269次閱讀
    超酷的樹莓派<b class='flag-5'>激光雷達</b>掃描儀!

    AGV搬運機器人常用傳感器應用簡介及其原理

    雷達 #?揭秘雷達如何實時鎖定高速目標! 激光雷達是一種通過發(fā)射激光束探測目標信息的傳感器系統(tǒng)。其核心原理為:向目標發(fā)射
    的頭像 發(fā)表于 05-23 09:33 ?1239次閱讀
    AGV搬運機器人常用<b class='flag-5'>傳感器</b>應用簡介及其原理

    FMCW激光雷達,工業(yè)應用新進展

    電子發(fā)燒友網(wǎng)報道(文/梁浩斌)FMCW激光雷達有了新進展。近日FMCW激光雷達廠商Aeva宣布,通過與SICK?AG和LMI等工業(yè)自動化領域領導者合作,其應用于工業(yè)自動化的高精度傳感器Eve?1系列
    的頭像 發(fā)表于 05-18 00:02 ?6157次閱讀