版权声明:本文为博主原创博文,未经允许不得转载,若要转载,请说明出处并给出博文链接
进行路径规划的前提是,无人机或机器人自身已经对当前环境有一个清晰的认知(环境感知),清晰地知道当前自己处在当前环境下的位置姿态朝向以及目的地的位置。下面的仿真也是基于上述这个前提的。那么,环境感知针对所谓的智能体(robot、uav......)一定是需要强大的传感器的,例如激光雷达、视觉传感器等,通过这些传感器获取当前环境的信息,再通过最近大火的SLAM(三维实时地图重建)算法对当前的环境感知到位,从而进行下一步的path planning路径规划。
从网上扒了个大神实现的水平面二维的VFH算法仿真,自己修改了一些,以便展示更清晰美观。
VFH算法的原理如下:
1)利用机载距离传感器采集的距离数据,实时更新二维直角直方图网格。
2)直方图网格被简化为围绕机器人瞬间位置构造的一维极坐标直方图。极坐标直方图是VFF和VFH方法之间最显著的区 别,因为它允许对机器人的瞬时环境进行空间解释(称为极坐标障碍密度)。
3)极障碍密度低于阈值的连续扇区称为“候选谷”。选择最接近目标方向的候选谷进行进一步处理。
4)确定所选候选方向的中心方向和转向的方向。
5)机器人朝向与那个方向对齐。
6)机器人在迎面接近障碍物时降低速度。
VFH+算法仿真示意图:
![](https://img-blog.csdnimg.cn/20200715124428257.gif)
![](https://img-blog.csdnimg.cn/20200715124447558.gif)
![](https://img-blog.csdnimg.cn/20200715125735509.gif)
一组VFH&VFH+&VFH*的对比仿真——相关参数一致:
![](https://img-blog.csdnimg.cn/20200712163454604.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3UwMTI4MTQ5NDY=,size_16,color_FFFFFF,t_70)
![](https://img-blog.csdnimg.cn/20200712163748274.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3UwMTI4MTQ5NDY=,size_16,color_FFFFFF,t_70)
![](https://img-blog.csdnimg.cn/20200712165615279.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3UwMTI4MTQ5NDY=,size_16,color_FFFFFF,t_70)
VFH算法的实际路径走了10.2,VFH+算法的实际路径为10,VFH*算法的实际路径为10。
很明显可以看得出VFH+和VFH*还是要优于VFH的,但是通过多次调参对比,相对于VFH+,并没有看得出VFH*有什么显著优势,反而路径直观对比VFH+会更顺滑一些,可能是我的调参能力还有待提升吧。。。。。。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)