我正在开发一个项目,我应该使用Parrot AR Drone 2.0的相机实现对象跟踪技术.所以主要的想法是,无人机应该能够识别指定的颜色,然后通过保持一定距离来跟随它.
我正在使用opencv API与无人机建立通信.此API提供的功能:
ARDrone::move3D(double vx, double vy, double vz, double vr)
它将AR.Drone移动到3D空间和哪里
vx:X速度[m/s]
vy:Y速度[m/s]
vz:Z速度[m/s]
vr:转速[rad/s]
我编写了一个应用程序,它使用OpenCV对从无人机的摄像机获得的图像进行简单的图像处理,并找到要跟踪的对象的所需轮廓.请参阅以下示例:
现在,我正在努力的部分是找到使用哪种技术,我应该找到发送到move3D函数的速度.我已经读过,控制的常用方法是使用PID控制.但是,我已经读过这个,并且无法了解它是如何与这个问题相关的.
总而言之,我的问题是如何将机器人移向相机中检测到的物体?如何从相机中找到某些物体的坐标?
编辑:
所以,我刚刚意识到你正在使用无人机和你的坐标系WRT无人机可能x向前进入图像,y左侧是图像(图像列),z向上垂直(图像行).我的答案有坐标WRT摄像机x =列,y =行,z =深度(进入图像)当你阅读我的轮廓时,请记住.我写的所有内容都是伪代码,如果没有很多修改就不会运行
原始帖子:
PID控制器是比例 - 积分 - 微分控制器.它决定根据您的特定错误排序的操作.
对于您的问题,我们假设最佳跟踪意味着矩形位于图像的中心,它占据了像素空间的约30%.这意味着您移动相机/机器人,直到满足这些条件.我们将调用这些目标参数
x_ideal = image_width / 2 y_ideal = image_height / 2 area_ideal = image_width * image_height * 0.3
现在假设您的边界框由4个参数表征
(x_bounding, y_bounding, width_bounding_box, height_bounding_box)
你的错误将是这样的:
x_err = x_bounding - x_ideal; y_err = y_bounding - y_ideal; z_err = area_ideal - (width_bounding_box * height_bounding_box)
请注意,我已将z距离(深度)与对象的大小联系起来.这假设被跟踪的对象是刚性的并且不会改变大小.尺寸的任何变化都是由于物体与相机的距离(较大的边界框意味着物体靠近,较小的一个意味着物体很远).这是一个估计,但没有相机或对象本身的任何参数我们只能做这些一般性的陈述.
在创建控制序列时,我们需要记住这个标志,这就是为什么顺序在进行减法时很重要.让我们从逻辑上思考一下.x_err
确定边界框与所需位置的水平距离.在我们的例子中,这应该是正的,这意味着机器人应该向左移动,以便物体移近图像的中心.盒子太小,意味着物体太远等等.
z_err <0:表示机器人太近,需要减速,Vz应该减少
z_err = 0:保持速度命令相同,没有变化
z_err> 0:我们需要靠近,Vz应该增加x_err <0:表示机器人在右边,需要向左转(减少x),Vx应该减少
x_err = 0:保持X中的速度相同,不改变Vx
x_err> 0:表示机器人在左边并且需要向右转(增加x),Vx应该增加
我们可以为每个y轴做同样的事情.现在我们使用此错误为bot创建命令序列.
那个描述听起来很像PID控制器.观察状态,找出错误,创建控制序列以减少错误,然后反复重复该过程.在您的情况下,速度将是您的算法输出的动作.你基本上会运行3个PID
X的PID
Y的PID
Z的PID
因为它们本质上是正交的,我们可以说每个系统是独立的(理想情况下是这样),沿x方向移动不应该影响Y方向.这个例子也完全忽略了轴承信息(Vr
),但这是一个思想练习,而不是一个完整的解决方案
校正的确切速度由您的PID系数决定,这是事情变得有点棘手的地方.这是一个易于阅读(几乎没有数学)的概述或PID控制.您将需要通过一些实验来使用您的系统(也就是"调整"您的参数).这更加困难,因为相机不是一个完整的3D传感器,因此我们无法从环境中提取真实的测量结果.~30 pixels
在m/s
不知道有关传感器/环境的更多信息的情况下很难将错误转换为,但我希望这能让您大致了解如何继续