论文阅读《Unified Multi-Modal Landmark Tracking for Tightly Coupled Lidar-Visual-Inertial Odometry》
RAL这个期刊质量是很高的,最近看到了一篇RAL新收录的多传感器融合方向的论文,论文效果不错,因此做一个阅读笔记。
RAL这个期刊质量是很高的,最近看到了一篇RAL新收录的多传感器融合方向的论文,论文效果不错,因此做一个阅读笔记。
ORB这个组是真的有毅力,看了它的视频, 户外场景4分钟,几百米,闭环漂移基本看不见,提升是非常明显的。
上一篇写了ORB1的论文阅读分析,今天就继续写ORB2,众所周知,ORB2是ORB1的改进版,最大的特点就是单目变成了双目
虽然做的一直是传感器融合这方面的工作,但是对于视觉SLAM的理解确实有欠缺,因为入门直接是从loam开始然后VLOAM,对于视觉SLAM的理解一直停留在特征法和直接法的框架层面,具体的细节没有深究过,正好最近有时间,回顾下ORB三件套。本篇分析的是ORB的开山之作。
虽然跑SLAM用不到什么计算资源,但是既然实验室有服务器,为什么不使用呢(毕竟自己写的代码太差劲了,时间复杂度和空间复杂度都没优化orz),今天就简单的讲讲如何用自己的小霸王连接实验室的服务器(主要针对ubuntu客户端连接服务器)
JFR这个期刊可以说是SLAM领域的顶刊了,并且他这个期刊里的论文大多数都偏向于应用领域的效果,这周我刷到了一篇JFR关于地下采矿车结合多传感器进行定位的论文,论文实验结果很好,做一个记录。
传感器融合是SLAM中比较热门的方向,传统的融合方式是基于优化滤波或者激光辅助视觉获取深度,视觉辅助激光初始化或者频率之类的。但是随着深度学习的大热,很多人也将深度学习应用到SLAM中,最典型的应用就是端到端直接输出位姿或者输入图像+激光输出单目深度图之类的。
目前刚入门SLAM一年多(主要做的基于优化/滤波的激光视觉融合),对于基于深度学习的融合认识尚未到位,正好今天...
layout: post title: “ceres中关于位姿参数过参数化加法定义的问题” date: 2021-01-18 tags: [ceres,quaternion,lie algebra and lie group] comments: true author: xuwuzhou —
Cer...