ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

论文阅读笔记:(2021.06 cvpr) Categorical Depth Distribution Network for Monocular 3D Object Detection

2022-02-07 17:00:13  阅读:366  来源: 互联网

标签:Detection 2021.06 features Monocular Object Network Categorical 3D


paper:https://openaccess.thecvf.com/content/CVPR2021/papers/Reading_Categorical_Depth_Distribution_Network_for_Monocular_3D_Object_Detection_CVPR_2021_paper.pdficon-default.png?t=M0H8https://openaccess.thecvf.com/content/CVPR2021/papers/Reading_Categorical_Depth_Distribution_Network_for_Monocular_3D_Object_Detection_CVPR_2021_paper.pdf

code:GitHub - TRAILab/CaDDN: Categorical Depth Distribution Network for Monocular 3D Object Detection (CVPR 2021 Oral)icon-default.png?t=M0H8https://github.com/TRAILab/CaDDN精度对比:KITTI Cars Moderate Benchmark (Monocular 3D Object Detection) | Papers With Code

 

主要观点/贡献:

1. pseudo lidar lidar系列的方法, 直接用预测出来的伪点云, 可能会有over confident的问题,尤其对远距离的情形特别明显;

2. 直接把feature投影到3D空间,在预测深度和3D框的方法,存在特征混淆(feature smearing)的问题,检测结果也不好;

3. 因此, 提出了CaDDN: 先预测置信度分布,再把feature投影到3D,再做检测,提高了检测的准确性;

实现:

1. 产生voxel feature: a) 用depth distribution把front view的features投影成为frustum features(左下图)  -》 b) 用空间线性插值(trilinear interpolation)把frustum features 差值为voxel features(右下图);

2. 按照类似point pillars的方式进行3D目标检测

消融实验:

对精度有较大提高的地方:

joint depth supervision with 3d-object detection;

LID;

use full distribution to generate frustum features;

重要参考文献:

1. Center3d: Center-based monocular 3d object detection with joint depth understanding

标签:Detection,2021.06,features,Monocular,Object,Network,Categorical,3D
来源: https://blog.csdn.net/chaoqinyou/article/details/122805577

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有