无人机航空像片数字定位过程研究

2024-05-08

无人机航空像片数字定位过程研究(共3篇)

篇1:无人机航空像片数字定位过程研究

无人机航空像片数字定位过程研究

无人机航空像片以其高分辨率、大的收容面积等突出优点在现代侦察中占有重要的`地位,通过对侦察像片的处理实现目标高精度定位是无人机信息处理和情报处理的核心问题,传统对侦察像片的处理主要是采用光学判读结合地形分析和解析定位设备方式,存在处理周期长、成本高等使用弊端,论文提出了采用数字处理方式实现对侦察像片的定位处理,实践表明数字定位具有定位精度高、处理速度快、操作方便等优点.

作 者:程超 李金 谈国军 CHENG Chao LI Jin TAN Guo-jun 作者单位:解放军炮兵学院,研究生系,安徽,合肥,230031刊 名:桂林航天工业高等专科学校学报英文刊名:JOURNAL OF GUILIN COLLEGE OF AEROSPACE TECHNOLOGY年,卷(期):13(4)分类号:V554关键词:无人机航空像片 数字定位 影像匹配 粗差检测

篇2:无人机航空像片数字定位过程研究

利用无人机航空像片的模型点重心化坐标和地面重心化坐标构成单位四元数,通过最优化求解绝对定向旋转矩阵,并基于旋转矩阵解算平移参数和比例参数,实现绝对定向的非迭代解算.与传统方法相比,这种方法具有无需初始值、可靠性高等优点.实验结果表明,方法可以得到较高的.解算精度,能够满足无人机航空像片定位的需要.

作 者:程超 段连飞 李金 顾强 CHENG Chao DUAN Lian-fei LI Jin GU Qiang 作者单位:程超,李金,顾强,CHENG Chao,LI Jin,GU Qiang(解放军炮兵学院,安徽,合肥,230031)

段连飞,DUAN Lian-fei(解放军炮兵学院,安徽,合肥,230031;山东科技大学,山东,青岛,266510)

篇3:无人机航空像片数字定位过程研究

无人机的自主导航依赖于它的精确定位,以前的研究中GPS始终处于主导地位。然而,在实际应用中,一旦遇到坏天气或是障碍物遮挡,GPS信号就会丢失或受到干扰,而这也将导致无人机在飞行任务中收到错误的位置信号,造成不可预估的灾难[1]。近年来,基于视觉的无人机自主飞行控制方法受到了国内外研究者们的关注,文献[2,3]研究了基于视觉的无人机目标跟踪技术,其中涉及到了软硬件的设计以及控制方法的研究,但都对视觉算法的研究较少,摄像头拍摄到的图像质量以及图像处理算法的速度和精度都是对无人机实时控制应考虑的重要因素。还有一些研究者致力于视觉辅助的无人机着陆研究,文献[4,5]是基于地面目标的着陆,文献[6,7,8]是基于跑道检测的着陆,关于视觉辅助的着陆算法已经比较成熟,在此基础上研究无人机飞行过程中的实时定位,为无人机自主飞行控制提供位置反馈就成为下一步的研究重点。文献[9]提出了无人机混合定位算法,首先利用GPS在飞行轨迹上采出图像绘制飞行环境地图,当实际飞行时用绘制好的地图来定位。然而,在实际任务中,有的任务环境未知,无法事先绘制好地图,导致该算法具有应用上的局限性。文献[10]提出的定位算法使用SIFT图像匹配,适合于在未知环境中定位无人机。

SIFT算法适合于对无人机拍摄到的图像进行处理,然而它所需时间较长,无法保证定位的实时性。本文对SIFT算法进行了改进,使得图像匹配时间大大缩短,既保证了实时性又提高了匹配精度。在此基础上提出迭代定位算法,计算出无人机三维位置坐标。并设计仿真实验,解决了算法实现阶段有用特征点选择问题,使算法能在实际中得以应用。

1 基于改进SIFT算法的特征提取

SIFT算法[11]由David G.Lowe教授提出并完善。其算法流程如图1所示。

文中提出,在关键点描述子生成阶段,每个关键点用其邻域内4×4共16个种子点来描述,每个种子点有8个方向,这样对于一个关键点就可以产生128个数据,最终形成128维的SIFT特征向量。基准图与实时图匹配,每幅图像会形成大量的关键点,每个关键点有128维,计算两幅图像关键点采用欧氏距离,必然会耗费比较长的时间,所以从降维的角度对SIFT算法进行改进。

SIFT算法是对同一幅图像进行高斯模糊形成高斯金字塔,在尺度空间上求取关键点。这样每一个尺度平面内均能找到关键点,所以一幅图像能产生多个关键点。然而,并不是所有关键点对后续的计算有用。对于无人机拍摄的图像来讲,尽量调整摄像头,使目标位于图像的中央部分,如图2所示。需要的是目标上的关键点,所以可以使用聚类算法去除不必要的关键点,以减少关键点的数量,节省匹配所用的时间。

图2中,以地板上放置的手册作为目标,摄像头光心垂直地面拍摄。

1.1 SIFT关键点特征描述符降维处理

SIFT关键点邻域内16个种子点的描述如图3所示。

如图3所示,每个种子点有8个方向,对这8个方向进行处理,使其变成4个方向,如图4所示。

图4中方向的变化满足如下关系:

尽管种子点的方向数减少了一半,但新的方向由旧的方向分别相减得到,体现了旧方向的信息,所以按照此方法使关键点的维数降低到4×4×4=64维,依然能达到很好描述特征点的目的,同时会减少匹配时间。

1.2 K-means聚类算法特征点数量压缩

K-means聚类算法是数据挖掘技术中基于分裂法的一个经典聚类算法,该算法因为理论可靠、算法简单、收敛迅速而被广泛应用[12]。SIFT算法提取出的特征点用像素点的位置坐标表示,因此采用K-means算法对位置坐标进行聚类。针对无人机采集的图像,去除边缘的聚类,可以得到位于图像中央目标上的特征点,该聚类算法如下:

1)为待聚类的数据点寻找聚类中心;

2)计算每个数据点到聚类中心的距离,将每个聚类点聚类到离该点最近的聚类中去;

3)计算每个聚类中所有数据点的坐标平均值,并将这个平均值作为新的聚类中心;

4)反复执行2)、3),直到聚类中心不再进行大范围移动或者聚类次数达到要求为止;

5)选取位于中央位置的聚类,用于下一步的匹配。

综上,SIFT特征点描述符降维和聚类之后图像的特征点数量大大减少,效果图对比如图5所示。

图5为采集到的10幅图像中的前5幅,由上到下依次为P1、P2、P3、P4、P5。其中图5(a)为原SIFT算法提取出的特征点,从图中可以看出,地板部分也提取出了大量的特征点,而这些特征点在下一步的匹配中是不起作用的,去除这部分的特征点不但不会影响匹配的效果,而且减少了匹配过程中特征点搜索的时间,进而能减少匹配时间。改进后的SIFT算法特征提取效果如图5(b),可以看出,特征点基本集中在目标部分,不必要的特征点数量大大减少,达到了改进的目的。

1.3 采用BBF算法匹配特征点

BBF(Best-Bin-First)最优节点优先算法是一种改进的k-d树最近邻查询算法[13]。它的查询思路是将“查询路径”上的节点进行排序,如按各自分割超平面(称为Bin)与查询点距离排序。回溯检查总是从优先级最高的(Best Bin)的树节点开始。为了以后无人机位置解算的需要,这里对上述5幅图像前后两两分别匹配,如图6所示。

图6中左列为原SIFT算法特征点匹配后的效果图,由上到下依次分别为P1与P2(A组)、P2与P3(B组)、P3与P4(C组)、P4与P5(D组)匹配。可以看出,匹配的特征点集中在了图片中央的目标部分但有很明显的误匹配点。右列为改进后的算法特征点匹配后的效果图。可以看出,基本上消除了误匹配点,而且匹配点的数量依然能满足后续无人机位置解算的要求。定量的匹配时间与匹配精度的对比如表1所示。由表中的数据可得,改进的SIFT算法无论从每幅图像的特征点数量、特征点的匹配时间还是匹配精度上都达到了满意的效果。

2 无人机三维位置坐标计算

无人机三维位置解算由无人机与地面目标的坐标变换得到。这种坐标变换关系基于安装在无人机上的摄像头。将摄像头安装于无人机质心位置,可认为摄像头三维坐标即无人机三维坐标。摄像头坐标系与地面坐标系存在旋转和平移关系,再依据图像坐标系与摄像头坐标系之间的对应关系(上述两个坐标系对应关系文献中均有论述,这里不再重复),可以得出地面坐标系与图像坐标系之间的关系[14],如下所示:

式中,(u0,v0)是图像中心(光轴与图像平面的交点)坐标;fx=f·sx、fy=f·sy其中f为焦距;为单位长度的像素个数;这些均与摄像头内部的参数有关,为已知量。(u,v)为图像像素点坐标,rij为旋转矩阵中的元素,由无人机偏航、俯仰、滚转三个方向角决定,(xw,yw,zw)为像素点地面坐标,(tx,ty,tz)为摄像头相对于目标的平移量,它与目标地面坐标的和即为无人机三维位置坐标值。

2.1 无人机飞行过程中的定位算法

上述坐标变换求解无人机三维坐标是针对于定点定位,即无人机拍摄实时图像,与基准图像匹配,利用匹配得到的特征点像素坐标和实际地面坐标计算无人机位置。这种方法要用到基准图像,即事先在运行轨迹上拍摄得到,前面提到,在实际应用上有局限性。这里,提出一种改进的、不基于基准图的无人机定位算法,算法思想如下:

1)在无人机飞行过程中每隔一定距离d采集一幅图像Pi,无人机采集图像的位置设为Ci(xi,yi,zi);

2)对连续的三幅图像,前后两幅图像分别用改进的SIFT算法进行匹配,得到匹配点的像素坐标;

3)由于无人机的飞行轨迹很可能是未知的,所以图像中目标的地面坐标也是未知。则要已知无人机在两个不同位置采集同一幅图像[15],首先计算出目标匹配点的地面坐标。这里,设C1和C2为已知,以此作为迭代的初始值,计算出P1和P2中包含共有目标的地面坐标;

4)由步骤3)中计算出的目标地面坐标,利用式(2)计算出下一个采图的无人机三维坐标位置(即C3)。该位置和其上一个位置(即C3和C2)再作为下一次迭代的起点。这里应保证,在C3采集的图像P3中应该包含P1和P2中共有的目标,即前后3幅图中应包含有相同的目标;

5)重复步骤2)、3)、4),计算出整个飞行过程中的无人机三维位置坐标。

该算法思想可如图7所示。

由图7可见,无人机采集的前3幅图像中均含有目标1,同样,从第2幅开始的后3幅图像均应含有目标2,后面的图像依此类推。由已知的C1和C2坐标,计算出P1和P2匹配出的特征点地面坐标,则P2和P3匹配出的特征点目标1部分的地面坐标变为已知,再由式(2)求得C3。至此,C2和C3变为已知,匹配出的目标2特征点用于计算下一个无人机位置,依此迭代下去。

2.2 由无人机位置计算出特征点地面坐标

上述无人机飞行过程中的定位算法步骤3)中提到了计算目标地面坐标,这个步骤实际是在为步骤4)做准备。因为式2)中为了求取无人机位置,首先要知道像素点地面坐标(xw,yw,zw),这里实际为目标上匹配出的特征点的地面坐标。要求得此地面坐标,需要知道在两个不同位置采集到的同一个目标的图像,如图7中的P1和P2。对这两幅图像匹配,得到同一目标(如目标1)的特征点像素坐标,再通过对式(3)的计算求得目标特征点的地面坐标。

式中fx、fy、(u0,v0)的含义与式(2)相同,rij为C1点处的旋转矩阵中元素;r'ij为C2点处的旋转矩阵中元素;(u1qi,v1qi)和(u2qi,v2qi)分别为匹配出的特征点qi在两幅图像中的像素坐标;(xqi,yqi,zqi)为待求的特征点地面坐标。

3 仿真实验

对上述无人机飞行过程中的定位算法进行实验验证。实验在室内进行,实验过程如图7所示。

3.1 实验设备

由前面的论述可得,摄像头安装在无人机质心部分,摄像头三维位置坐标认为是无人机位置,所以仿真实验只用摄像头来进行,选用的是A.K.E A520CCD-i高清微型摄像头。主机选用PC104+CPU模块AT-5010并配有MPEG-4图像压缩卡(为以后机载实验打下基础)。三维姿态角测量采用荷兰Xsens Technologies B.V.公司的MTi小型惯性测量单元(IMU),角度分辨率为0.05°RMS。主机装有XP系统,摄像头接在主机上,采集到的视频流经过图像压缩卡变为单帧图像并保存在主机文件夹中。

3.2 算法实现软件设计

整个飞行过程中图像采集、图像匹配、位置解算均由C++来实现。其定位部分算法流程如图8所示。

图8中,至少要有两个匹配点地面坐标存入数组,因为式(2)中要求无人机位置,至少需要两个匹配点。在上述算法描述中,求无人机实时位置,需要在此位置采集到的图像,以及它前面两幅图像,共3幅图像中关于同一目标的信息。以求C3为例,需要P3和P1、P2中关于目标1的信息。A组和B组的匹配如图6所示,从图中可得A组中关于目标1有4个匹配点,B组中有2个匹配点。B组中这2个匹配点即是求C3的点,如何让算法自动找个这两个点(从图6中可以看出B组的匹配点不止目标1,目标2和目标3均有多个匹配点)成为难点。

这里,解决的办法是在P2这幅图上(对于后续的迭代是指3幅图像中处于中间位置的图像),因为P2前后匹配两次,两次匹配后的特征点中,与P1匹配的点中必然对应P1中关于目标1的特征点,与P3匹配的点中必然也对应P3中关于目标1的特征点,所以对P2前后匹配两次的点用欧式距离进行相同点查询,查找到的相同点作为计算无人机位置的特征点。从图6中可以看出,P2与P3匹配目标1的特征点、P3与P4匹配目标2的特征点、P4与P5匹配目标3的特征点均至少有2个,满足计算无人机三维位置坐标的要求,且这些点均由算法自动识别出来,使算法整个过程中脱离了人工选点的干预,能自动运行,为后续的机载实验打下基础。为监视方便,算法由MFC做成界面,如图9所示。

图9中,上半部分为IMU角度采集界面,下半部分为视频监视窗口以及对视频的一些控制选项和图像匹配与位置解算按钮。

3.3 实验结果及分析

为便于计算出的无人机位置与真实值比较,实验过程中飞行轨迹定为室内的一条直线,如图7所示。摄像头采集图像之间的距离定为d=425 mm,摄像头高度为h=985 mm。整个过程中采集10幅图像,前5幅图像的匹配效果如图6所示,计算出的无人机位置与实际位置对比如图10所示。

图10是无人机在10个位置点X-Y-Z轴位置坐标的计算值和真实值的对比图,虚线折线上的点代表位置坐标的计算值,实线上的点代表位置坐标的真实值。无人机实时位置中X方向和Z方向的误差较小,Y方向的误差稍大些。但绝对误差在50 mm之内,在整个的实验环境中,认为这个误差可以接受。由于Y方向真实值始终为0 mm,所以无法计算相对误差,X和Z方向的相对误差如图11所示。

图11中横轴为无人机位置Ci(i=1,2,…,10)的下标,其中C1和C2已知,没有在图像中标出,所以位置由C3开始,即下标从i=3开始。从图中可得,X方向和Z方向的相对误差均不超过4%,能满足定位要求。相对误差稍微有增长的趋势,原因可能为迭代过程中每次计算无人机位置时的误差累积。为进一步提高定位精度,需要解决这一问题,这将在以后的研究中涉及。

4 结语

本文采用改进的SIFT算法对无人机采集的图像进行匹配,关键点描述符降维和聚类算法的应用在满足需要的前提下减少匹配特征点的数量,从而减少了匹配时间并增大了匹配精度,满足了无人机飞行过程中对实时性的要求。采用迭代的方法对无人机飞行过程进行定位,计算出的实时位置相对误差不超过4%,如何降低累积误差进一步提高精度值得进一步的研究。定位算法的实现阶段解决了大量匹配点中自动找出所需匹配点的问题,使算法在PC104上能自动运行,为以后的机载实验打下了基础。

摘要:针对在GPS(全球定位系统)失效的环境中无人旋翼直升机定位问题,提出基于视觉的迭代定位算法。采用改进的SIFT(尺度不变特征转换)图像匹配算法得到匹配点坐标,再经过坐标变换解算得到无人机三维坐标信息。改进SIFT算法中的关键点特征描述符由128维降低到64维,K-means聚类算法的应用减少了关键点的数目,从而减少了匹配时间而且去除了不必要的点,提高了匹配精度。算法实现阶段匹配点的选择利用了一幅图像匹配两次的思想,前后两次匹配结果中找到相同的特征点用于下一步的位置解算,使得算法能自动从大量特征点中找到所需要的点。仿真实验计算出无人机位置相对误差不超过4%,验证了定位算法的有效性和可靠性。

上一篇:乡镇党委换届督查情况汇报下一篇:关于土石方工程承包合同