㈠ 怎么用ROS实现自己的算法
最近几年各种移动机器人开始涌现出来,不论租迟是轮式的还是履带式的,如何让移动机器人移动都是最核心的工作。要让机器人实现环境感知、机械臂控制、导航规划等一系列功能,就需要弊则李操作系统的盯派支持,而ROS就是最重要的软件平台之一
㈡ ROS机器人仿真(六)- 航行,路径规划和SLAM
实时建立环境地图并定位,要依靠于昂贵的激光雷达,不过现在有了可替代的工具,可以伪造出激光雷达的效果,算是伪造吧。
可替代的工具是微软的Kinect和Asus Xtion相机。可以看depthimage_to_laserscan和kinect_2d_scanner 两个包的内容。
这一章主要以3个包的内容展开航行的设计:
move_base使用 MoveBaseActionGoal message ,看一下消息的定义:
rosmsg show MoveBaseActionGoal
会显示以下信息:
这个看起来有点复杂,我们下面会使用简单一点的东西来指定目标。
move_base运行之前需要设置四个文件。这些文件定义了障碍,机器人半径,路径需要规划多远,机器人运行多快等。
这四个设置文件可以在config文件夹下找到:
move base节点需要一个环境地图才能运行,不过使用一个空地图也是可以的。我们后面会使用真正的地图。 rbx1_nav package包含了一个空地图叫做 blank_map.pgm ,它在maps的子目录下。描述文件叫blank_map.yaml。启动move_base节点和空地图的启动文件叫fake_move_base_blank_map.launch,它在launch的子目录下。
现在来看一下启动文件。
首先在一个空白地图上启动了mao_server node.地图的描述文件就是那个.yaml文件.
然后加载了fake_move_base.launch文件扰袭,它启动了move_base node并且加载了必要的参数.
最后,因为我们使用了空白的地图并且我们的仿真机器人没有传感器,机器人不能使用扫描数据定位.我们对机器人量程框架和地图框架,或者说坐标系,做一个静态的简单对应,换句话说,就是假设机器人的编码器能够获得理想的数据.
然后我们再看一下fake_move_base.launch文件:
这个启动文件运行了move_base node和五个rosparam来导入参数.costmap_common_params.yaml导入了两次,是为了把这些参数同时设置在global_costmap namespace 和 local_costmap namespace.使用后面的ns来指定.
要在仿真中尝试,首先启动ArbotiX仿真器:
这里可以换成别的机器人.
然后在空白地图上启动move_base node:
如果你还没有运行过RViz,可以使用配置好的参数文件启动:
现在我们已经准备好了使用move_base控制机器人,而裤李液不是简单的使用Twist消息.
为了测试一下.首先我们让机器人前进1米.现在我们的机器人位于(0,0,0)在/map坐标系和/base_link坐标系.我们可以使用任意一个坐标系指定这次移动.
然而,第一次移动并不能让机器人到达准确的位置,随后的误差要靠/base_link坐标系去比较消除.所以我们最好在/map上面设定目标.指令如下:
把机器人移动回原点,只要停止刚才的命令,然后按照相同的格式输入原点坐标就可以了,像下面这样:
你可以看到一个细细的绿线,那个是全局路径规划,还可以看到一个红线,是实时更新的本地路径规划.想要更为清晰的看到这两条线,可以在RViz上面关掉Odometry, Goal
Pose and Mouse Pose,然后重新运行上面的命令.
绿色的路径比较平坦,是因为这中间没有任何的障碍,另外,它还跟我们的一些参数设置有关.比如,pdist_scale (0.4) and gdist_scale (0.8),还有最大线速度( max_vel_x ).我们的局部路径,跟我们的全局规划路径相差很大,想要让我们的机器人更加贴近我们的全局规划路径,我们可以使用rqt_reconfigure增大pdist_scale参胡物数或者减小max_vel_x.
再打开一个新窗口,启动rqt_reconfigure:
然后,打开move_base->TrajectoryPlannerROS,把pdist_scale设置的大一点,比如0.8,然后把gdist_scale设置的小一点,比如0.4.然后重新运行运动指令,看看有什么变化.
好像是好了很多.
我们刚刚是使用nav.rviz文件启动RViz的,这样我们可以直接点击2D Nav Goal在地图上指定目标.点击时不要放开,可以旋转改变设定目标的方向.
我们可以再RViz的窗口上看到设置信息:
我们最好重新开始,关掉之前所有的node,然后:
然后执行命令:
程序里面有很多注释,可以自己打开看一下.
move_base最厉害的一点是,它可以在到达指定位置的同时躲避障碍.局部路径规划会重新计算路径.
我们将会打开一个带有障碍的地图,然后仍然使用move_base_square.py运行机器人,看它是否会避开障碍,并且到达目标.
首先打开地图:
然后清理到move_base节点的资源:
这个命令会清理掉所有move_base已经退出的参数,它的清理程度仅次于重启roscore.
然后运行加载地图和move_base:
然后运行RViz:
黄色的部分就是障碍,其他颜色代表一个扩大的安全距离的缓冲.
也可以使用点击,像之前那样,设定目标.
㈢ 一、ROS机器人如何利用GPS模块来精确定位
GPS模块在户外机器的定位导航方面是一个最基本的配置。注意这里主要是针对在户外工作的机器人,若您的机器人是室内使用的,根本不会被允许到室外工作,那么GPS模块就没有任何价值了。因为建筑物的屋顶和墙体会把GPS卫星信号大幅度削弱,一般商用级别的GPS模块根本接收不到符合要求的信号。是不是户外机器人搭载GPS模块,就可以精确知道自己的位置?璞数技术来为大家解答一洞虚液下:是,也不是!说是,是因为在大尺度地图(比例尺一般为每厘米100米左右)上,普通商用经济款的GPS模块一般能达到的定位精度是20米~50米,在100米/厘米这个级别的地图上可以比较准确的知道机器人当前位置。说不是,是指在机器人工作区域的微尺度地图(一般是每厘米10米以下),GPS模誉陵块给出的位置误差范围太大,仅仅利用GPS模块算出来的经纬度坐标无法实现机器人的准确定位,当然更无法推纳物算出机器人的准确运动方向。很遗憾,20米~50米的位置误差对机器人完成指定任务的应用来说是不可接受的。
㈣ 激光雷达SLAM算法
机器人研究的问题包含许许多多的领域,我们常见的几个研究的问题包括:建图(Mapping)、定位(Localization)和路径规划(Path Planning),如果机器人带有机械臂,那么运动规划(Motion Planning)也是重要的一个环节,SLAM需要机器人在未知的环境中逐步建立起地图,然后根据地区确定自身位置,从而进一步定位。
ROS系统通常由大量节点组成,其中任何一个节点均可以通过发布/订阅的方式与其他节点进行通信。举例来说,机器人上的一个位置传感器如雷达单元就可以作为ROS的一个节点,雷达单元可以以信息流的方式发布雷达获得的信息,发布的信息可以被其他节点如导航单元、路径规划单元获得。
ROS的通信机制:
ROS(机器人操作系统)中SLAM的一些功能包,也就是一些常用的SLAM算法,例如Gmapping、Karto、Hector、Cartographer等算法。我们不会去关注算法背后的数学原理,而是更注重工程实现上的方法,告诉你SLAM算法包是如何工作的,怎样快速的搭建起SLAM算法。
地图 : ROS中的地图很好理解,就是一张普通的灰度图像,通常为pgm格式。这张图像上的黑色像素表示障碍物,白色像素表示可行区域,灰色是未探索的区域
地图在ROS中是以Topic的形式维护和呈现的,这个Topic名称就叫做 /map ,由于 /map 中实际上存储的是一张图片,为了减少不必要的开销,这个Topic往往采用锁存(latched)的方式来发布。地图如果没有更新,就维持着上次发布的内容不变,此时如果有新的订阅者订阅消息,这时只会收到一个 /map 的消息,也就是上次发布的消息;只有地图更新了(比如SLAM又建出来新的地图),这时 /map 才会发布新的内容。 这种方式非常适合变动较慢、相对固定的数据(例如地图),然后只发布一次,相比于同样的消息不定的发布,锁存的方式既可以减少通信中对带宽的占用,也可以减少消息资源维护的开销。
Gmapping ,Gmapping算法是目前基于激光雷达和里程计方案里面比较可靠和成熟的一个算法,它基于粒子滤波,采用RBPF的方法效果稳定,许多基于ROS的机器人都跑的是gmapping_slam。
gmapping的作用是根据激光雷达和里程计(Odometry)的信息,对环境地图进行构建,并且对自身状态进行估计。因此它得输入应当包括激光雷达和里程计的数据,而输出应当有自身位置和地图。
论文支撑:R-LINS: A Robocentric Lidar-Inertial State Estimator for Robust and Efficient Navigation
6轴 IMU:高频,聚焦自身运动,不采集外界环境数据
3D LiDAR:低频,聚焦车体运动,采集外界环境数据
R-LINS使用以上两种传感器来估计机器人的运动姿态, 对于任一传感器而言,单独的依靠自己的数据是很难实现地图构建的, 比如纯雷达模型使用的传感器是激光雷达,可以很好的探测到外界的环境信息。但是,同样的,也会受到这些信息的干扰,再长时间的运算中会产生一定的累计误差。为了防止这种误差干扰到后续的地图构建中,需要使用另一种传感器来矫正机器人自身的位姿信息, 即IMU传感器,IMU传感器由于是自身运动估计的传感器,所以,采集的都是自身运动的姿态信息。可以很好的矫正激光雷达里程计的位姿信息。所以,通常使用激光雷达和惯导来进行数据融合,实现姿态信息的矫正。
一共分为三大块:
㈤ ROS机器人里程计模型
3.5 移动机器人系统模型
相信大家的机器人平台STM32端底层控制和机器人urdf建模都已经顺利完成了,在正式开始ros端编写机器人启动功能包之前,我们还不得不学习一些必要的理论知识。别担心数学不好,这里基本都是高中数学。下面我们开始,Are you ready? 没准备好也开始了。
3.5.1 常用坐标系系统模型
在移动机器人技术研究中,最为常用的坐标系统是笛卡尔坐标系统。而在SLAM算法研究中,有如下几个比较常见的笛卡尔坐标系统,它们分别为 机器人坐标系XR YR OR 、 传感器坐标系XS YS OS 、 世界坐标系XW YW OW 。顾名思义,世界坐标系是描述机器人全局信息的坐标系;机器人坐标系是描述机器人自身信息的坐标系;传感器坐标系是描述传感器信息的坐标系。他们之间的关系如下图所示:
从图中我们可以知道,首先世界坐标系是固定不变的,机器人坐标系和传感器坐标系是在世界坐标系下描述的。这里我们看到的是俯视图,机器人坐标系和传感器坐标系原点重合但是存在一定的角度,不同的机器人坐标系关系是不同的。当我们使用传感器数据时,这些坐标系间的关系就是我们变换矩阵的参数,因为传感器的数据必定是要变换到机器人坐标系或者世界坐标系中使用的。
3.5.2 移动机器人位姿模型
移动机器人的位姿模型就是机器人在世界坐标系下的状态。 常用随机变量Xt =(xt ,yt ,θt )来描述t时刻的机器人在世界坐标系下的状态,简称位姿 。其中(xt ,yt )表示的在t时刻机器人袭兄毁在世界坐标系下的位置,θt 表示机器人的方向。 默认世界坐标系的X正半轴为正方向,逆时针旋转为旋转正方向,初始时刻机器人坐标系和世界坐标系重合 。某时刻t机器人的位姿描述如下图所示:
3.5.3 移动机器人里程计模型
简单的说, 移动机器人的里程计就是机器人每时每刻在世界坐标系下位姿状态 。 常用的激光SLAM和导航算法通常都需要移动机器人的里程计作为控制输入 。这也是我们对本章理论内容讲解的必要性。
不同底盘的里程计模型有所不同,本文以两轮差分轮式机器人为例介绍里程计模型以及如何计算里程计。在介绍里程计模型之前,要先介绍差分轮式机器人的运动学模型,这样可以先了解一下机器人的物理特性。 首先明确差分模型的机器人始终做的是以R为半径的圆弧运动 。如下图所示,机器人的线速度V、角速度ω,左右轮速用VL和VR表示,用D表示轮间距,D=2d,右轮到旋转中心的距离为L。
ROS端给机器人底盘(STM32端)发送的是机器人要达到的线速度V和角速度ω,而我们底盘控制板需要的是左右轮速VL和VR来进行速度控制。所以,我们通过高中知识可以得到他们之间的关系:
上面的公式是由角速度和线速度的关系得来,如果不知道这个关系,那就自行网络吧拍备,我相信你一定知道。 从这些公式我们是不是发现了什么,机器人的轮间距影响着我们向左右轮分发速度以及合成角速度,所以这是个我们需要注意的参数,不同的机器人结构,该参数就不同。
有了上面坐标系系统模型、位姿模型的基础,里程计就非常简单了。 里程计的计算是指以机器人上电时刻为世界坐标系的起点(机器人的航向角是世界坐标系X正方向)开始累积计算任意时刻机器人在世界坐标系下的位姿尘行 。通常计算里程计方法是 速度积分推算 : ==通过左右电机的编码器测得机器人的左右轮的速度VL和VR,在一个短的时刻△t内,认为机器人是匀速运动,并且根据上一时刻机器人的航向角计算得出机器人在该时刻内世界坐标系上X和Y轴的增量,然后将增量进行累加处理,关于航向角θ采用的IMU的yaw值。然后根据以上描述即可得到机器人的里程计== 。具体计算如下图所示:
至此,里程计模型原理及计算就结束了。
3.5.4 2D激光雷观测模型
我们做移动机器人平台少不了使用2D激光雷达,所以了解激光雷达的观测模型也是有必要的。
激光雷达通常由精准控制的旋转电机、红外激光发射器、红外接收视觉系统和主控组成。
激光雷达的测距原理分为两种,一种是基于三角测距,另一个是基于TOF(飞行时间)。基于三角测距的激光雷达表现出的特点,价格便宜、中近距离测距较准确、远距离精度差。基于TOF的激光雷达表现出来的特点,价格昂贵、测距精度高、测距范围广、扫描频率高。
本文采用市面上比较便宜的基于三角测距的低成本激光雷达RPLIDAR A1。该激光雷达在每次测距过程中,发射器发射红外激光信号,视觉采集系统接收激光反射信号。在经过主控实时解算后,将激光雷达几何中心到被测物体的距离值以及当时的角度值,通过主控的通信接口发出。RPLIDAR A1 工作原理如图所示。
激光雷达在整个SLAM和导航中起着不可替代的作用。 第一,通过激光雷达观测数据与地图进行匹配,估计出机器人的位姿 ;第 二,当机器人估计出较准确的位姿时,通过激光雷达的观测数据建立环境地图 ; 第三,在机器人导航过程中,检测地图中的未知障碍物 。本文主要使用的观测传感器是2D激光雷达RPLIDAR A1如下图所示:
RPLIDAR A1是一款360度激光雷达,角度分辨率≤1,输出的每一个激光点的数据都是使用极坐标的方式描述,一个距离值以及一个对应的角度值。
㈥ ROS机器人底盘(2)-运动解算
这里以 zeus 为例子讲述运动正解与逆解
从整体速度转换为各个轮子速度即为正解,关系着如何根据既定速度控制机器人正确运行
我们知道 ROS 里面驱动小车最终下发的为线速度穗橡和角速度,通过 rosmsg show 可以看到
可以看到 ROS 坐标系规定
对于每个轮子:
前轮,左轮及后轮速度分别设为 Vf, Vl,Vr (假设轮子使得底盘逆时针时的线速度为正);轮子所在圆直接为 L
从各个轮子速宴族埋度(行径距离)转换晌蚂为整体机器人的速度(坐标、姿态)
只需从正解
反推即可得到
通过正解可以转换对机器人的速度控制为对各个轮子的速度控制;通过逆解,通过积分可以根据每个轮子的行径距离求得机器人的坐标和姿态
model.h 模型接口类
differential.h 差分轮解算实现
omni3.h 三轮全向轮解算
根据配置选择加载对应模型接口解耦模型的正反解算
㈦ ROS(机器人操作系统)
现在还只是个草稿,后面会陆续更新改正,保证大家一看就会,绝对不废
只是帮助大家理解,很多知识点只是类比推理,是有错误的,哈哈,勿喷
蛮多人在学习ROS的时候,其实还是不太理解什么是ROS,为什么要去ROS,以及怎么样去学习ROS,我大二的时候开始接触到ROS,也经历过比较痛苦的一段时间,所以希望用这篇文章来帮助大家对ROS有一个较好的理解。
首先我们抛开ROS来说,如果我们要写一个程序,程序需要完成特定的功能,就拿C语言中的加法函数来说吧。我们定义了一个加法函数,输入两个整数最后返回两个整数的和,然后定义完函数以后,在main()函数里调用这个加法函数,就可以在键盘上输入两个整数,然后计算两个整数的和了。
那么问题来了 如果我要在别的程序需要使用加法函数所返回的值,应该怎么做呢?
一种方式 定义一个全局变量,将加法函数返回的值赋给这个全局变量,那么在一个工程文件下的程序都可以使用这个全局变量了,这就达到了其他程序使用这个变量的目的了
那么问题又来了,如果不是在同一个工程目录下的程序,要怎么样才能使用到这个加法函数的返回值呢?
一种方式 将第一个程序的加法返回值写到一个文档中,然后其他程序去读这个文件,这样也可以达到使用这个数据的目的了
上面的例子,想给大家传递的知识点就是 我们在写程序的时候,大多数人是只有一个main()函数的,也就是只有一个可执行文件,那么问题就来了,要是不同的main()函数之间需要相互使用对方的数据,那应该怎么办呢,这就引申出了程序与程序之间到交流问题,也就是通信问题。这也是ROS里面我个人觉得必须首先要搞清楚的问题。大家先理解到这个地方,然后往下看。
开始进入主题 到底什么是ROS,ROS就是Robot Operating System 的缩写,这大家都知道,对吧,翻译成中文也就是机器人操作系统,可是除了这个大家对操作系统是什么大家有了解过么,为什么需要操作系统,也就是操作系统能干什么,大家有简单的了解过么
操作系统(先空白,后面再填坑)
在了解操作系统以后,我们就可以开始分析我们的机器人操作系统了,话不多说,先放狗,不不不,先放图:
我们知道,操作系统本身也是一个软件,但是他的特殊之处在于能够完成对硬件的调配,而其他的应用软件,比如网易云,他如果想放歌,他需要打开播放器,是得需要操作系统去完成的,它本身没有这个能力去直接打开播放器,而是对操作系统说,大哥,能不能帮我打开一下播放器,求求你了,哈哈。
我们也知道,在win上安装了许许多多的软件,向上面的solidworks(三维制图软件),matalab(数据计算软件) QQ(聊天软件) 网易云 (听歌软件) 腾讯视频(播放软件)......
那么问题又来了 你能让你的扣扣去跟网易云说 我想听歌,然后网易云就会打开播放么,当然你要是杠杆定理学得好,那我认了,哈哈,大多数人是应该是觉得这应该不可以,因为扣扣怎么跟网易云通信嘛,对吧。
所以我们安装在win上的各个软件只负责自己的问题,不会跟其他的软件有过多的交流。
哈哈,所以我有了一个大胆的想法,让我的电脑同时登录3个扣扣,那么这三个扣扣总该可以相互发消息了吧,没错,这就是我想要讲的东西,我只在我的电脑上安装三个软件 也就是3个扣扣软件,他们肯定是可以相互交流的。因为他们是同一类软件。
是的,ROS也是这么干的,在ROS上也安装了向扣扣这样的可执行程序,只不过在ROS中换了个说法,可执行程序叫做节点,这应该不拿理解吧。要记住在ROS上安装了许许多多的软件哦,也就是许许多多的可执行程序,也就是许许多多的节点,如果你现在理解了节点是什么了,那么恭喜你,已经迈出了一小步了,你说巧不巧,安装在ROS上的这些程序,它还可以相互通信,也就是相互交流,哈哈。
好了,理解到这一步呢就理解了节点是个什么东西了。
下面又开始了一个新的例子,我们的手机上有一个扣扣,我们需要和其他人聊天对吧,那么你知道你要和别人聊天需要先做什么么,你肯定说,登录账号加好友啊,不对的,首先要做的就是把腾讯的服务器打开,不然你登录不上去的,也就是说,腾讯的服务器不打开,你是登录不上扣扣的,只不过这一步不是我们操作的,人家的服务器他已经给我门打开了,然后我们再登录扣扣,想一下,我们在登录的时候,做了什么,对吧,大家都知道,我们也就是输入账号密码就可以登录了吧对吧,这个过程呢就是向腾讯的服务器注册自己的信息,告诉腾讯服务器,我上线了,然后腾讯服务器就把你加入到注册表中,里面包含了你的一些信息,你想要和别人连天,那么别人是不是也要跟你一样,也要先登录,过程和你的一样,所以这个时候,腾讯服务器那边是已经有了你和你想要聊天的对象的一些信息的,比如ip地址之类的东西,这样,你想发消息给你的朋友(后面再填坑)
类比一下 服务器 就相当于ROS里面的ros master
只不过这个rosmaster需要我们自己开启而已。
事实上,ros并不是一个操作系统,他并不能直接运行在硬件之上,只不过他把硬件做了一个给操作系统的接口 和网易云一样 网易云大不了就使用一个喇叭呗,只不过ros使用了太多的硬件,比如激光雷达,相机,编码器,imu等等。
因此ROS本身也就是一个软件,和qq一样,运行在操作系统之上,所不同的是,在ROS上又可以安装许许多多的同类软件,这些安装在ROS上的程序(节点)之间可以按照ROS所规定的通讯机制进行相互交流通讯。比如激光雷达节点(程序)通过ROS提供的接口,让操作系统把激光数据传上来,交给建图所需要的Gmapping节点使用,然后Gmaping节点把所构建的地图给move_base节点使用,move_base节点的输入是一个速度和角度的命令,先由move_base下发给ros,然后ros下发给操作系统,然后操作系统调用硬件,在这里是电机,让电机按照ROS下发的速度的角速度进行运动.
大家应该会有一点点理解了吧
总结下 就是ros是一个类似于win上的一个软件,但是这个软件上又安装了很多软件,在ros上安装的这些软件可以相互通信,然后可以借助ROS,去调用操作系统去调用硬件。
这就是为什么我们每次想要聊天的时候,需要先打开qq这个软件,也就是我们想要用ROS的时候,先运行roscore这个命令打开ROS了吧
接下来是
ros中的通讯方式
ros中的一些工具
ros中的一些已经有了的功能包(算法)
慢慢写,不着急
㈧ 机器人操作系统ROS--简介(一)
网址: http://www.ros.org/
ROS (机器人操作系统,Robot Operating System),是专为机器人软件开发所设计出来的一套电脑[操作系统]架构。它是一个开源的元级操作系统(后操作系统),提供类似于操作系统的服务,包括硬件抽象描述、底层驱动程序管理、共用功能的执行、程序间消息传递、程序发行包管理,它也提供一些工具和库用于获取、建立、编写和执行多机融合的程序。
ROS究竟为何物?
2007年Morgan Quigley,Eric Berger和Andrew Ng发布了一纸有关STAIR的论文,讲述了用Switchyard可以在各软件程序之间传递信息,可以帮助机器人有效的完成一芦兄些复杂的任务。这个项目是斯坦福大学和机器人技术公司Willow Garage的个人机器人项目Personal Robots Program合作进行的,2008年后完全由这家公司推广,相关发布文件称Switchyard可以让机器人编译模块化,而且不需要重新设计框架,ROS操作系统也就随之问世了,2012年ROS团队成立了一个非盈利组织(OSRF),经过这几年的发展ROS从最初的无人问津的小众操作系统,到现在已是主流的机器人操作系统之一铅哗凯。
ROS的运行架构是一种使用ROS通信模块实现模块间P2P的松耦合的网络连接的处理架构,它执行若干种类型的通讯,包括基于服务的同步RPC(远程过程调用)通讯、基于Topic的异步数据流通讯,还有参数服务器上的数据存储。但是ROS本身并没有实时性。
ROS的主要特点可以归纳为以下几条槐唤:
(1)点对点设计
㈨ 如何设计一款基于ROS的移动机器人
最近几年各种移动机器人开始涌现出来,不论是轮式的还是履带式的,如何让移动机器人移动都是最核心的工作。要让机器人实现环境感知、机械臂控制、导航规划等一系列功能,就需要操作系统的支持,而ROS就是最重要的软件平台之一,它在科研领域已经有广泛的应用。
不过有关ROS的书籍并不多,国内可供的学习社区就更少了。本期硬创公开课就带大家了解一下如何利用ROS来设计移动机器人。
分享嘉宾李金榜:EAI科技创始人兼CEO,毕业于北京理工大学,硕士学位。 曾在网易、雪球、腾讯技术部有多年linux底层技术研发经验。2015年联合创立EAI科技,负责SLAM算法研发及相关定位导航软件产品开发。EAI科技,专注机器人移动,提供消费级高性能激光雷达、slam算法和机器人移动平台。
移动机器人的三个部分
所谓的智能移动, 是指机器人能根据周围的环境变化,自主地规划路线、避障,到达目标地。
机器人是模拟人的各种行为,想象一下,人走动需要哪些器官的配合? 首先用眼睛观察周围环境,然后用脑去分析如何走才能到达目标地,接着用腿走过去, 周而复始,直到到达目标地址为至。机器人如果要实现智能移动,也需要眼、脑和腿这三部分的紧密配合。
腿
“腿”是机器人移动的基础。机器人的“腿”不局限于类人或类动物的腿,也可以是轮子、履带等,能让机器人移动起来的部件,都可以笼统地称为“腿”。
类人的腿式优点是:既可以在复杂路况(比如爬楼梯)下移动、也可以更形象地模仿人的动作(比如跳舞),缺点是:结构和控制单元比较复杂、造价高、移动慢等。
所以大部分移动的机器人都是轮式机器人,其优势在于轮子设计简单、成本低、移动快。而轮式的也分为多种: 两轮平衡车、三轮、四轮和多轮等等。目前最经济实用的是两个主动轮+一个万向轮。
眼睛
机器人的眼睛其实就是一个传感器。它的作用是观察周围的环境,适合做机器人眼睛的有激光雷达、视觉(深度相机、单双相机)、辅助(超声波测距、红外测距)等。
“脑”
机器人的大脑就负责接收“眼睛”传输的数据,实时计算出路线,指挥腿去移动。
其实就是要把看到的东西转换为数据语言。针对如何描述数据,如何实现处理逻辑等一系列问题。 ROS系统给我们提供一个很好的开发框架。
ROS简介
ROS是建立在linux之上的操作系统。它的前身是斯坦福人工智能实验室为了支持斯坦福智能机器人而建立项目,主要可以提供一些标准操作系统服务,例如硬件抽象,底层设备控制,常用功能实现,进程间消息以及数据包管理。
ROS是基于一种图状架构,从而不同节点的进程能接受、发布、聚合各种信息(例如传感,控制,状态,规划等等)。目前ROS主要支持Ubuntu操作系统。
有人问ROS能否装到虚拟机里,一般来说是可以的,但是我们建议装个双系统,用Ubuntu专门跑ROS。
实际上,ROS可以分成两层,低层是上面描述的操作系统层,高层则是广大用户群贡献的实现不同功能的各种软件包,例如定位绘图,行动规划,感知,模拟等等。ROS(低层)使用BSD许可证,所有是开源软件,并能免费用于研究和商业用途,而高层的用户提供的包则使用很多种不同的许可证。
用ROS实现机器人的移动
对于二维空间,使用线速度 + 角速度可以实现轮式机器的随意移动。
线速度:描述机器人前后移动的速度大小
角速度:描述机器人转动的角速度大小
所以控制机器人移动主要是要把线速度角速度转换为左右轮的速度大小,然后,通过轮子直径和轮间距,可以把线速度和角速度转化为左轮和右轮的速度大小。
这里有一个关键问题就是编码器的选择和pid的调速。
编码器的选择:一般编码器和轮子是在一个轴上,目前来说,速度在0.7m/s以下的话,编码器选600键到1200键之间都ok。不过需要注意的是,编码器最好用双线的,A、B两线输出,A向和B向输出相差90度,这样可以防抖动。防抖动就是可以在之后里程计算时可以更准确。
左轮和右轮的速度大小的控制,通过轮子编码器反馈,通过PID实时调整电机的PMW来实现。实时计算出小车的里程计(odom),得到小车移动位置的变化。
计算车的位置变化是通过编码器来计算的,如果轮子打滑等情况,那么计算的变化和实际的变化可能不同。要解决这个问题,其实是看那个问题更严重。要走5米只走了4.9米重要,还是要走180度只走了179度重要。
其实角度的不精确对小车的影响更大。一般来说,小车的直线距离精确度可以控制在厘米范围内,在角度方面可以控制精准度在1%~2%。因为角度是比较重要的参数,所以很多人就用陀螺仪来进行矫正。
所以有时候大家问小车精度有多高?其实现在这样已经精度比较高了,难免打滑等问题,不可能做到百分之百的精准。
小车在距离和角度方面做到现在这样对于自建地图导航已经是可以接受的,要提高更高的精度可能就要其他设备辅助,比如激光雷达来进行辅助,激光雷达可以进行二次检测进行纠正。
激光雷达数据的存储格式,它首先会有一个大小范围,如果超出范围是无效的。还有就是有几个采样点,这样就可以激光雷达可以告诉你隔多少度有一个采样点。
另外最后那个Intensities是告诉大家数据的准确率,因为激光雷达也是取最高点的数据,是有一定的准确率的。上面的ppt其实就是用激光雷达扫了一个墙的形状。
激光雷达扫出一个静态形状其实没有意义,雷达建图的意义其实在于建立房间的地图。
如何绘制地图?
第一步是收集眼睛数据:
针对激光雷达,ROS在sensor_msgs 包中定义了专用了数据结构来存储激光消息的相关信息,成为LaserScan。
它指定了激光的有效范围、扫描点采样的角度及每个角度的测量值。激光雷达360度实时扫描,能实时测出障碍物的距离、形状和实时变化。
第二步就是把眼睛看到的数据转化为地图:
ROS的gmapping把激光雷达的/scan数据转换为栅格map数据,其中黑色代表障碍物、白色代表空白区域,可以顺利通行、灰色 :未知领域。随着机器人的移动,激光雷达可以在多个不同方位观测同一个位置是否有障碍物,如果存在障碍物的阈值超过设置值是,就标定此处是存在障碍物;否则标定不存在障碍物。 把障碍物、空白区域和未知领域的尺寸用不同灰度表示出来,就是栅格地图。便于下一步定位和导航。
有时候会出现很直的墙,机器人却无法直着行走,这时的问题可能就是机器人的轮子出现打滑等其他问题,而走歪了,这时绘制出的地图也可能是歪的。这种情况可以通过加一个陀螺仪来避免这个情况。因为激光雷达的特性,有时候遇到黑色或镜面会导致测距不准。
目前的解决方法就是不用激光雷达,或者用激光雷达和超声波进行辅助处理。
ROS的地图是分多层的,我可以在不同高度放多台激光雷达来一起叠加,共同绘制一张地图。地图绘制结束之后,就可以进行定位和导航等工作。
如何定位和导航?
定位:其实是概率性的定位,而不是100%的精度。根据激光雷达扫描周围障碍物的形状,与地图的形状做匹配,判断机器人所在位置的概率
机器人的定位是否成功,与地图特征有很大关系,如果区域特征明显,那么机器人就很容易判断自己的位置。如果出现难以定位的问题,可能需要人给指定初始位置,或者加led来进行位置识别,或者其他的定位设备来协助定位。
目前的视觉通过色彩或者光的技术越来越多。
导航:全局路径规划+局部调整(动态避障)
导航其实就是全局定位,首先根据现有地图进行规划,但是在运行过程中会进行局部的路线规划。但是总体还是根据全局路径来走。
导航中工作量还很大,比如扫地机的路径规划和服务机器人的路径规划是不一样的,扫地机器人可能要全覆盖的有墙角的地图,而服务机器人主要围绕指定的路径或者最短路径来进行规划,这部分是ROS工作量最大的一块。
路径规划根据不同应用场景变化比较大,但是ROS提供基础的路径规划的开发包,在这个基础上我们会做自己的路径规划。
机器人描述和坐标系变换
在导航时,哪些区域可以通过,取决于机器人形状等信息,ROS通过URDF(UnifiedRobot Description Format) 就是描述机器人硬件尺寸布局,比如轮子的位置、底盘大小、激光雷达安装位置,这些都会影响到坐标系的转换。
坐标系遵循的前提是每个帧只能有一个父帧,再往上进行一些眼神或者关联。
激光雷达的安装位置直接影响/scan输出数据。所以激光雷达和机器人的相对位置是需要做坐标变换,才能把激光雷达的数据转化为机器人视角的数据。
ROS的坐标系,最终归结为三个标准框架,可以简化许多常见的机器人问题:
1)全局准确,但局部不连续的帧(’map”)
2)全局不准确,但局部光滑框架(’odom”)
3)机器人自身框架(’base_link”)
多种传感器(像激光雷达、深度摄像头和陀螺仪加速度计等)都可以计算base_link和odom的坐标关系,但由于“每个帧只能有一个父帧”,所以只能有一个节点(比如 robot_pose_ekf 融合多传感器)发布base_link和odom的坐标关系。
Base link自身的坐标系,因为不同元件装在机器人上不同位置,都要对应到base link的坐标系中,因为所有的传感器都是要通过机器人的视角来“看”。
有些朋友问我,激光雷达在建地图的时候,小车移动后地图就乱了,这是因为小车的底盘坐标系和激光雷达的坐标系没有标定准确。
map和odom之间的关联
因为小车移动需要一个局部联系,比如小车在向前走,不停的累加,这是里程计的作用,map起到全局的、不连续的作用,经过激光雷达和map对应。
如果要学习ROS的话,坐标系的变化是重要的点。坐标系的变换还有一个点,就是每个帧都只有一个父帧,有时候两个坐标都和它有关联的话,就是A和B关联,B再和C关联,而不是B/C都和A关联。
三个坐标帧的父子关系如下:
map –> odom –> base_link
其实, map和odom都应该和base_link关联,但为了遵守“每个帧只能有一个父帧”的原则,根据map和base_link 以及 odom->base_link的关系,计算出map与odom的坐标关系并发布。
odom->base_link的坐标关系是由里程计节点计算并发布的。
map -> base_link的坐标关系是由定位节点计算出来,但并不发布,而是利用接收odom->base_link的坐标关系,计算出map->odom的坐标关系,然后发布。
只有里程计的时候,没有激光雷达,也可以跑,但是要先根据预设地图进行简单避障。
精彩问答
Q:还有ROS的实时性有什么改进进展吗 ?
A:实时改进要看ROS2.0的设计,其实ROS2.0的进展网上有公开。但是实际上他的进展离实际应用还有一定距离,至少今年下半年还达不到稳定,不过可以去研究下他的代码,他对内存管理,线程管理,在实时性上有了很大改善。
Q:vSLAM对内存和CPU要求颇高。实际工程中,李老师使用的是什么硬件配置?可以做多大的地图呢?
A:确实如此,目前来说我们还是使用激光雷达和传感器辅助来进行,这个和地图大小没有太大关系,主要是与地形障碍物复杂程度有关。
㈩ ros2在不同楼层之间怎么建图导航
ROS2
ros2与windows入门携做教程-融合建图和导航
创客智造
原创
关注
0点赞·128人阅读
系列文章目录
ros2与windows入门教程-windows上安装ROS2 foxy
ros2与windows入门教程-控制小乌龟
ros2与windows入门教程-监腊竖听和发布话题
ros2与windows入门教程-编译ROS2包
ros2与windows入门教程-ROS2 导航Navigation2
ros2与windows入门教程-修改域Domain_ID
ros2与windows入门教程-控制walking机器人移动
ros2与windows入门教程-创建工作空间和功能包
ros2与windows入门教程-使用rviz2
ros2与windows入门教程-slam_toolbox算法建图
ros2与windows入门教程-融合建图和导航
说明:
介绍如何在windows下融合建图和导航
步骤:
启动底盘
ros2 launch walking_bringup robot.launch.py
登录后复制
启动导航,默认使用slam_toolbox算法建图
ros2 launch walking_navigation bringup_v1.launch.py use_slam:=true
登录后复制
启动windows 10
新打开一个cmd命令提示符窗口,执行以下命令
使用call命令设置环境
call C:\opt\ros\foxy\x64\local_setup.bat
call C:\test_ws\install\local_setup.bat
登录后复制
设置域ID为2
set ROS_DOMAIN_ID=2
登录后复制
启动rviz2
ros2 launch test_tools rviz_view.launch.py
登录后复制
启动导航和rviz,效果图
选择单点导航模式
在点击2D Goal Pose按钮,指定一个机器人要到达的位置即选择机器人要达到地图上位置,选择后即开始导航
大数据
ROS2
walking
谁说办辩局衡公笔记本配置就不能高了?
精选推荐
广告