【资源介绍】:
自主导航是机器人与自动驾驶的核心功能,而SLAM技术是实现自主导航的前提与关键。现有的机器人与自动驾驶车辆往往会安装激光雷达,相机,IMU,GPS等多种模态的传感器,而且已有许多优秀的激光SLAM与视觉SLAM算法。但是每种模态的传感器都有其优点和缺点,如相机只能测量2D图像,且容易受光照和夜晚的影响;激光雷达获取的3D点云较为稀疏,而且在长走廊,隧道,以及开阔场景中容易发生退化;GPS测量极易受到环境的干扰;每种模态的传感器只能在适当的环境中发挥积极的作用。因此,我们希望以适当的方式融合多种模态的测量,通过优势互补,使SLAM算法能够在各种挑战性环境下持续输出鲁棒且精确的估计结果。因此无论是学术界还是工业界,多模态融合是未来SLAM发展的必然趋势。
【资源目录】:
├──1、公开课多模态融合SLAM技术分享.mp4 280.89M
├──2、传感器介绍及分析及激光与视觉SLAM算法框架解析.mp4 964.07M
├──3、多传感器外参标定原理与代码讲解.mp4 871.83M
├──4、激光—惯性子系统(LIS)代码精读.mp4 664.91M
├──5、视觉—惯性子系统(VIS)代码精读.mp4 1.29G
├──6、激光—视觉—惯性数据融合与优化融合.mp4 923.09M
├──7、LVI—SAM代码实战与评估.mp4 3.06G
└──8、大作业讲解视频.mp4 430.27M
常见问题FAQ
- 免费下载或者VIP会员专享资源能否直接商用?
- 本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。