ICode9

精准搜索请尝试: 精确搜索
  • 关于ME。。。。。。。。。2021-04-27 22:29:12

    我是北京理工大学智能车辆研究所的一名普通学生,目前研一,是个比较菜的SLAMer。平常喜欢写blog,听说多写点这种东西对出国有利(真的吗???),便在这里介绍一下寄几。 编程语言:一丢丢 C++ ;一丢丢 Python 操作系统:一丢丢 Ubuntu ;一丢丢 ROS(如果ROS也算操作系统的话) 相关技能:一丢丢SLAM;一丢

  • 视觉slam爬坑 高翔 深蓝学院 视觉SLAM理论与实践 激光SLAM理论与实践2021-04-17 19:59:09

    前沿:研二狗,之前一直是做四轴无人机控制的,现在退魔转来学学自动驾驶方面关于vslam的内容。现在关于slam相关的学习很火,尤其是有了高翔大佬的视觉slam十四讲之后,使得普通学生入门有了系统性的方案和了解,为学生造福了,以后的学习会围绕着高博和高博的视觉slam十四讲展开,每次学完一讲

  • SLAM学习2021-04-16 16:59:40

    本人只是很浅显的学习了解了一下,没有具体研究,有错误的地方还请见谅。 有需要学习的可以自取链接(侵删):提取码hnon 相对应的学习思维导图 以下是大纲

  • ORB_SLAM与Gmapping对比2021-04-15 16:02:46

    SLAM(Simultaneous localization and Mapping)是实现无人驾驶的关键技术。当车辆处在未知场景中时,需要依据传感器获取的信息完成自身定位和环境建图,然后在建好的地图上进行路径实时规划和车辆自主控制。 文章目录 一、ORB_SLAM算法方案二、Gmapping算法方案三、两种SLAM算

  • 论文阅读: 基于SLAM的使用GPS和鱼眼相机第Integrity Monitoring2021-04-14 16:04:35

    Abstract在urban场景用GPS和鱼眼有multipath effect. 我们提出了一种SLAM-Based IM(Integrity Monitoring)算法来计算位置保护等级. 我们用GPS pseudoranges的连续数据, 像素光度, 车辆动态和satellite ephemeris (卫星星历表)来同时计算车辆位置和landmarks: GPS卫星和图像像素.我

  • 7.2.1 导航实现01_SLAM建图2021-04-11 22:01:46

    ROS入门 7.2.1 导航实现01_SLAM建图 《ROS入门-理论与实践》视频教程镇楼 SLAM算法有多种,当前我们选用gmapping,后续会再介绍其他几种常用的SLAM实现。 1.gmapping简介 gmapping 是ROS开源社区中较为常用且比较成熟的SLAM算法之一,gmapping可以根据移动机器人里程计数据和激

  • fusion就是融合的意思2021-04-05 22:01:17

    vins-fusion也符合这个称谓,里面确实有多种融合       《视觉SLAM十四讲》341面

  • LeeCode1783. Grand Slam Titles2021-03-31 11:34:19

    SQL架构 Table: Players +----------------+---------+ | Column Name | Type | +----------------+---------+ | player_id | int | | player_name | varchar | +----------------+---------+ player_id is the primary key for this table. Each row in

  • 2021-03-302021-03-30 11:31:06

      P450—让无人机更智能,让科研更高效 Prometheus 450(P450)是阿木实验室专为科研工作者及无人机开发者设计并打造的无人机飞行平台,适用于无人机专业应用研究和开发。   P450遵循“让研发更高效”的设计理念,搭载开源飞控PX4及开源自主无人机软件平台Prometheus,提供丰富的demo例程

  • SLAM文献泛读10篇2021-03-29 17:31:32

    这里写目录标题 LIC-Fusion: LiDAR-Inertial-Camera Odometry摘要介绍和相关工作结论 LIC-Fusion2.0: LiDAR-Inertial-Camera Odometry with Sliding-Window Plane-Feature Tracking摘要主要贡献如下:总结 BALM: Bundle Adjustment for LiDAR Mapping. 2020 ICRV摘要研究背

  • 论文笔记 DF-SLAM: A Deep-Learning Enhanced Visual SLAM System based on Deep Local Features2021-03-23 22:04:23

    论文链接:https://arxiv.org/pdf/1901.07223.pdf 主要内容 作者首先指出当前的传统SLAM算法受制于数据整合任务,因此希望通过深度学习方法加以解决,但同时大部分基于深度学习的研究会受到数据库和特定环境的影响,甚至会存在牺牲效率换取准确性的问题,极大程度上降低了系统的实用性

  • 占坑2021-03-10 10:30:50

    视觉SLAM学习过程记录 2020年3月10日开始学习视觉SLAM,鉴于拥有深度学习的基础和Python语言的基础,特此决定自主研究一下python版的视觉slam并做踩坑记录。在学习之前发现几点问题: 1. python的slam特别少。 2. slam大多数是跟ros相关联的。 3. 资料少的可怜,大多数是国外的,不

  • 【面经】Momenta:SLAM实习生2021-03-09 19:04:19

    一面两个小时,三个小组轮流面,要命。第一组:地图组(地下高精地图,视觉里程计,相机标定) 讲讲硕士论文和项目 框架原理是什么? 对框架进行了哪些修改? 为什么采用直接法? 说说对极几何约束 SVD分解直接就能得到旋转和平移吗? 第二组:Mpilot Parking(自动泊车,定位,感知,预测)。面试官电话没打通,面

  • 3D视觉创新应用(三维重建)竞赛作品系列——人体三维精准量测与动作捕捉2021-03-03 16:01:22

    一、背景介绍 1 项目背景与国内外研究现状 1.1 项目背景分析 近年来,RGB-Depth(RGB-D)传感器,如Kinect V1,和Structure Sensor等,在室内即时定位与地图构建应用上被广泛使用[1]。该类传感器与传统激光测图原理不同,基于结构光实现距离量测。其硬件由激光投射器,光学衍射元件(DOE)和红外

  • 论文笔记2021-03-03 02:03:36

    《Environment Driven Underwater Camera-IMU Calibration for Monocular Visual-Inertial SLAM》 用于单目惯性视觉SLAM的环境驱动水下相机-IMU校准   Abstract 大多数先进的视觉系统都是在浅水中手动标定的,并且在公海中使用而无更改。 然而,水的折射率根据盐度,温度,深度或其他水

  • 视觉SLAM十四讲从理论到实践|2-eigen|visualizeGeometry2021-03-02 22:01:48

    文章目录 源码解读 编译文件 源码解读 #include <iostream> #include <iomanip> using namespace std; #include <Eigen/Core> #include <Eigen/Geometry> using

  • 近十年的VI-SLAM算法综述与发展2021-03-01 15:34:30

    本文主要总结一下这几年工作中遇到过以及改进过相关VIO算法 1.背景介绍 一个完整的 SLAM(simultaneous localization and mapping) 框架包括传感器数据、 前端、 后端、 回环检测与建图,如图1所示,其中,前端将传感器的数据抽象成适用于估计的模型,回环检测判断机器人是否经过已知

  • SLAM概述与预备知识2021-02-28 15:32:50

    一、熟悉 Linux 1.1.如何在 Ubuntu 中安装软件(命令行界面)?它们通常被安装在什么地方? Ubuntu 中安装软件(命令行界面): 在线安装:sudo apt-get install xxx; 本地安装:sudo dpkg -i xxx.deb 软件安装位置: 一般在 /usr/bin中 1.2. linux 的环境变量是什么?我如何定义新的环境变量?

  • 2021-02-282021-02-28 10:57:38

    记录ROS初学者教程(中科大mooc)的pkg安装编译问题: 1.缺少相关依赖包的问题: 下载原始包(ROS-Academy-for-Beginners)后,进行编译catkin_make后,提示: ... Could not find a package configuration file provided by “slam_karto” with any of the following names: slam_kartoConfig.c

  • 《无人机视觉SLAM协同建图与导航》2021-02-27 19:34:00

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言一、空地机器人协作介绍二、本文的方法三、实验总结 前言 本文提出了一种基于无人机视觉SLAM的协同建图与导航方法,利用无人机空中视角带来的大范围环境感知能力,协助地面机器人快速构建环境模型

  • 作品集2021-02-27 18:35:58

    AR交互平台 服务端 https://github.com/BForever/ARServer-ORB_SLAM2 手机端 https://github.com/BForever/ARClient-ORBSLAM 编译器前端 https://github.com/BForever/OneLinkLang 集群故障注入与监测 [代码仓库]https://github.com/BForever/kube-chaos RGBD SLAM定位与导航(大学

  • 激光slam入门知识总结2021-02-27 13:04:34

    目录 说明一. 开篇二. 数据集三. 软件框架四. 前端里程计初试五. 前端里程计代码优化 说明 学习知乎上任乾写的从零开始做激光slam系列,在这里总结一下收获 一. 开篇 作者给出了本系列的简单介绍,包括用的传感器,平台,写作思路等等。 二. 数据集 作者使用了KITTI数据集,在下载

  • 机器人SLAM与自主导航(一)——理论基础2021-02-23 23:01:35

    机器人SLAM与自主导航(一)——理论基础 目录 总述1、激光雷达2、摄像头3、RGB-D摄像头 总述 SLAM可以描述为:机器人在未知的环境中从一个未知位置开始移动,移动过程中根据位置估计和地图进行自身定位,同时建造增量式地图,实现机器人的自主定位和导航。 想象一个盲人在一个未

  • SLAM总结(一)2021-02-18 20:29:39

    SLAM总结(一)- SLAM原理概述与简介 SLAM(Simultaneous Localization and Mapping):同时定位和建图,定位是定位机体在世界坐标系下的位姿(pose、transformation)。单传感器机体一般指相机光心、激光雷达scan中心、IMU中心、编码器两轮轴心,多传感器一般使用IMU中心,可以避免离心力

  • 视觉SLAM十四讲(第2版)总结2021-02-14 21:30:34

    最近看完了《视觉SLAM十四讲(第2版):从理论到实践》(高翔等著),原书分两部分,先介绍了数学基础,然后介绍了具体的SLAM实践,非常适合零基础开始学习SLAM。 作为总结,这里并不对书中的内容做太多的重复说明,本人的水平也不足以用聊聊数字概括原书精华,因而这里采用这样一种思路:提出问题,分析求

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有