Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

3d单目视觉调用 #32

Open
zhu2900000 opened this issue May 28, 2024 · 16 comments
Open

3d单目视觉调用 #32

zhu2900000 opened this issue May 28, 2024 · 16 comments

Comments

@zhu2900000
Copy link

zhu2900000 commented May 28, 2024

你好,我在调用3D单目视觉检测算法,我发现1.3.1版本没有打开,当我打开以后引起加载报错,请帮忙看一下.我想在GPU上跑双传感器融合的版本.我的GPU是特斯拉P4,
Screenshot from 2024-05-28 13-56-05
Screenshot from 2024-05-28 13-56-40
引起报错的位置
image

@zhu2900000
Copy link
Author

@w111liang222 你好,我更换方法,使用onnxruntime,在cpu上运行,加载模型 detection_image.onnx, 在计算目标框的时候回报错,原因是数据的尺度不对,我检查过模型的输入和实际输入的数据是一致的,请帮忙看一下:
Screenshot from 2024-05-28 17-35-21
这里是模型的输出,应该是KPS这个np的维度问题
Screenshot from 2024-05-28 17-36-40

模型的输入要求
Screenshot from 2024-05-28 17-38-38

视频输入的shape
Screenshot from 2024-05-28 17-39-33

@zhu2900000
Copy link
Author

我用的视频是demo的视频,加载的模型是sensor_inference/image_infer.py 版本是1.3.0

@zhu2900000
Copy link
Author

你好,我这里看不到
image

@w111liang222
Copy link
Owner

@w111liang222 你好,我更换方法,使用onnxruntime,在cpu上运行,加载模型 detection_image.onnx, 在计算目标框的时候回报错,原因是数据的尺度不对,我检查过模型的输入和实际输入的数据是一致的,请帮忙看一下: Screenshot from 2024-05-28 17-35-21 这里是模型的输出,应该是KPS这个np的维度问题 Screenshot from 2024-05-28 17-36-40

模型的输入要求 Screenshot from 2024-05-28 17-38-38

视频输入的shape Screenshot from 2024-05-28 17-39-33

kps的维度是1024x18,你可以通过https://netron.app网址加载image onnx查看输入输出,报错的原因估计是你的输出顺序搞错了

@zhu2900000
Copy link
Author

牛逼,我这里的输出顺序搞错了,和模型的输出对上就可以了,谢谢了!现在相机可以融合上了。
Screenshot from 2024-05-29 08-51-07
另请问,咱们界面上可以单独看camera的结果吗?是否有单独调试的方法。
我看有一个传感器类型的选项,但是不知道如何区分。

1 similar comment
@zhu2900000
Copy link
Author

牛逼,我这里的输出顺序搞错了,和模型的输出对上就可以了,谢谢了!现在相机可以融合上了。
Screenshot from 2024-05-29 08-51-07
另请问,咱们界面上可以单独看camera的结果吗?是否有单独调试的方法。
我看有一个传感器类型的选项,但是不知道如何区分。

@w111liang222
Copy link
Owner

  1. 激光相机目标融合,依赖相机内外参,需要提前标定好(注意图像检测的输入尺寸是352x640,原始图像缩放对fx, fy, cx, cy的影响
  2. 按传感器类型显示后,不同颜色表示由不同传感器输出
    3.可以打印proto/proto_serialize.py中的pred_object.sensor字段来确定由哪个传感器输出

@zhu2900000
Copy link
Author

  1. 激光相机目标融合,依赖相机内外参,需要提前标定好(注意图像检测的输入尺寸是352x640,原始图像缩放对fx, fy, cx, cy的影响

    1. 按传感器类型显示后,不同颜色表示由不同传感器输出
      3.可以打印proto/proto_serialize.py中的pred_object.sensor字段来确定由哪个传感器输出

你好,有几个疑问:
1、怎么才能看单独的相机的检测结果,在界面上看。
2、通过传感器类型显示,显示的是:融合的,lidar(单传感器未融合),camera(单传感器未融合)这样区分的吗?具体那个颜色和哪种类型对应?
3、我打印的pred_object.sensor只有0,我的lidar和camera都有数据,能正常融合。

1 similar comment
@zhu2900000
Copy link
Author

  1. 激光相机目标融合,依赖相机内外参,需要提前标定好(注意图像检测的输入尺寸是352x640,原始图像缩放对fx, fy, cx, cy的影响

    1. 按传感器类型显示后,不同颜色表示由不同传感器输出
      3.可以打印proto/proto_serialize.py中的pred_object.sensor字段来确定由哪个传感器输出

你好,有几个疑问:
1、怎么才能看单独的相机的检测结果,在界面上看。
2、通过传感器类型显示,显示的是:融合的,lidar(单传感器未融合),camera(单传感器未融合)这样区分的吗?具体那个颜色和哪种类型对应?
3、我打印的pred_object.sensor只有0,我的lidar和camera都有数据,能正常融合。

@zhu2900000
Copy link
Author

  1. 激光相机目标融合,依赖相机内外参,需要提前标定好(注意图像检测的输入尺寸是352x640,原始图像缩放对fx, fy, cx, cy的影响

    1. 按传感器类型显示后,不同颜色表示由不同传感器输出
      3.可以打印proto/proto_serialize.py中的pred_object.sensor字段来确定由哪个传感器输出

@w111liang222 您好,关于第一个问题,您预测的很准。
截图 2024-05-29 18-09-08
3D的lidar 转成2D时候里面出现了空数据,我打印了内参发现里面是初始状态。我觉得问题出在这里。我跑的demo里自代的数据,cam的内参我没法标出来,我觉得您应该提供demo里数据对应的相机内参。

@w111liang222
Copy link
Owner

不好意思。这个demo数据当时是只用来测试激光检测和激光slam的,由于时间太长了,现在已经找不到标定参数了。

@zhu2900000
Copy link
Author

@w111liang222 嗯嗯,很感谢,这么久还能提供支持,也是不容易啊。如果您之前跑过没有问题的话我就试一试,主要是怕里面有坑,和哈哈哈哈。

@w111liang222
Copy link
Owner

功能肯定是没问题的,但是性能能不能达到你的预期就不一定了

@zhu2900000
Copy link
Author

  1. 激光相机目标融合,依赖相机内外参,需要提前标定好(注意图像检测的输入尺寸是352x640,原始图像缩放对fx, fy, cx, cy的影响
    你的意思是模型是在352x640上运行的,结果是基于352x640产生的,而iou匹配是基于原始图像投影的,需要把结果还原到原始图像下的坐标?我们的代码没实现吗?因为,视觉输入后都应该有尺寸变化的

@zhu2900000
Copy link
Author

我觉得咱们传感器数据进来以后应该统一和车辆后轴对齐,这样后面操作就好理解。否则每次操作还需要转来转去容易出错

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants