颜色特征匹配

2024-07-14

颜色特征匹配(精选七篇)

颜色特征匹配 篇1

关键词:镜头分割,视频匹配,主颜色,纹理特征

随着视频处理技术的日益成熟,越来越多的视频匹配技术,充分应用于在医学、电视广播系统等领域,极大改善了数据库中多媒体视频的大量重复现象,为网络数据库的绿色化提供了技术支持[1]。由于视频数据量相当大,因此对匹配过程中的具体指标有相当严格的要求。

近年来,针对视频识别的算法层出不穷,但大致都是单纯基于运动特征或是单纯基于内容的识别方法。对于视频中存在的若干部分的非纹理帧的现象,参考文献[2]提出一个有效的视频帧登记策略,并设计修改了两帧强度的匹配算法。该算法具有良好的性能,可处理包含若干部分非纹理帧的视频。但是使用估计值造成运算结果中存在大量误差。对于视频处理的实时性,参考文献[3]提出一种方法,能快速匹配长视频流,或者在长视频流中快速找到一个相对较短的视频序列。该方法解决了视频匹配的实时性问题,但对于视频的配准率仍有所欠缺。参考文献[4]则把每幅图像预先划分成纹理和非纹理区域,这种方法针对不同纹理区域采取相应的措施,增加了整个过程的效率,提高整体性能,不足之处在于只能匹配内容相近的视频,无法确定是否为同一视频。

本文提出一种基于主颜色和纹理特征的TS(Telescopic Shot)模型匹配方法,该方法忠实于视频的内容,利用视频关键帧的主颜色和纹理特征来进行部分视频帧的图像匹配。采用TS改进模型描述各个镜头与视频处理算法的对应关系,提高了视频图像匹配的效率,同时也对相近视频和同一视频进行了分类处理。

1 颜色特征与纹理特征

颜色特征是图像匹配的基本依据,提取颜色特征的方法主要有主颜色的直方图、颜色矩、颜色集等。比较常用的是颜色的直方图方法,该方法主要针对全局颜色的数量特征进行统计,得到颜色的直方图,并反映出颜色的统计分布和基本色调。颜色直方图包含某种颜色的频率,抛弃了该色素所在的空间位置,因此计算量更少。

纹理特征是一个图像匹配很好的方法,它不依赖于图像的颜色和亮度。常见的纹理特征提取方法是灰度共生矩阵纹理特征提取以及基于小波变换的特征提取,灰度共生矩阵主要是把图像的灰度值通过计算转化成纹理特征。小波变化则是对时间以及频率进行局域性的变换,具有分析多分辨率的特点。

2 TS模型算法

TS模型适合镜头切换速度比较快、数量比较多的视频。算法采用依次的镜头匹配实现其可伸缩性的特点。对于已经完成的N个镜头匹配,判定是否有决定性匹配,若没有则对下一镜头进行匹配,直至完全匹配为止。其算法的计算量很小,目的就是判定目标视频与源视频是否为同一视频。

3 TS改进模型描述

对于网络数据库中的海量视频,算法复杂度是算法处理的难点。对于一些毫不相关的视频内容,可以采用一个简单的算法进行识别和过滤,避免浪费数据处理的时间。为此,针对TS模型算法,本文提出了改进算法,图1所示为对视频的关键帧进行粗、细匹配相结合的比对。

对视频所作的第一步处理是进行视频镜头分割,每一个镜头提取关键帧,对该关键帧和目标视频的首镜头关键帧进行图像匹配,然后依次对后继镜头进行关键帧匹配,如图2所示。

4 TS改进模型的匹配算法实现

4.1 镜头分割

镜头检测算法在镜头分割技术中的地位很重要,对于传统的镜头算法,最难以描述的就是视频镜头切换较快而且无规律,如NBA中的比赛录像,前后镜头内容变化量很大。对于这种视频,采用参考文献[5]提出的镜头边界检测算法进行分割。

通过对视频中各帧图像的灰度强度的熵信息进行运算分析,找到信息变化量巨大的帧,选取为镜头的边界帧。设X是一个离散的随机变量,Ax表示一系列事件{y1,y2,…,yn},Px表示相关概率。

图3所示为通过镜头检测处理得到的各帧的熵变化。实验证明,采用此方法得到切割镜头的查准率达到97.8%,查全率达到99.3%。

4.2 关键帧的选取

关键帧的选取有多种算法,通常将镜头首帧作为关键帧及将变化量大的帧作为镜头的关键帧等。本实验采用二者相结合的方法来确定关键帧,既在处理过程中减少了视频内容的冗余量,也为后面的粗匹配做良好的准备。

4.3 特征提取

提取颜色特征首先将RGB空间转化为HIS空间(Hue、Saturation、Intensity),其中H代表色调,S代表色饱和度,I代表亮度。将3个颜色分量表示成一维矢量,再计算其直方图作为颜色特征,然后返回颜色直方图特征向量。

纹理特征提取方法是基于灰度共生矩阵纹理特征提取,所用图像灰度级均为256。将各颜色分量转化为灰度,为了减少计算量,对原始图像灰度级压缩,将Gray量化成16级,计算4个共生矩阵P,取距离为1,角度分别为0°、45°、90°、135°。对于每个固定的值,Markov随机场都可以简化为一阶的马尔可夫过程,即马尔可夫链。

如果{Xt|t=1,2,…}是马尔可夫链,则随机变量Xt满足马尔可夫性质:

最后对共生矩阵归一化,对共生矩阵计算能量、熵、惯性矩及相关4个纹理参数,求出能量、熵、惯性矩及相关的均值和标准差作为最终的八维纹理特征[6]。

4.4 视频粗匹配

(1)提取压缩视频的关键帧(此时关键帧选取为镜头第一帧),对数据源目标视频首帧进行图像匹配,对关键帧的相似度进行比对。

(2)若相似度>80%,则认为该视频和源视频处于同一视频情景内,继续进行操作,转接到细匹配。

(3)若相似度<80%,则继续对后继镜头头帧进行匹配,转到步骤(2)。

(4)匹配结束,返回失败提示。

4.5 视频细匹配

运用TS模型进行视频的细匹配。将首镜头的关键帧所提取的内容信息(即主颜色以及纹理特征)进行匹配,若相似度>80%,则认为该镜头匹配,继续将第二个镜头所得到的关键帧进行图像匹配,以此类推,直至达到镜头数量的阈值为止,此阈值为自适应阈值。根据经验值,在镜头总数>200时,一般在总镜头数量的二分之一为宜,然后通过比对剩余镜头数量即可得到细匹配的效果。若镜头数很小,则自动执行至终镜头。在得到源视频和目标视频匹配的同时,可以将匹配的帧数放宽到源视频帧数的90%,最后得到的视频即为源视频的相近视频,并对匹配视频和相近视频做统一分类。通过这样的顺序匹配,配合TS模型的自动伸缩性阈值,既可以减少视频的运算量,又可以保证基于内容匹配的精确度。

5 实验结果与分析

本实验选用360个完全不同类型的长短视频进行多次匹配,包括大量的、变化巨大的广告视频以及NBA比赛视频等,镜头数量在160~2 500不等。

通过实验证明,基于主颜色和纹理特征的图像匹配应用到视频匹配中,提高了视频匹配的查准率和查全率。相对于基于运动特征的视频匹配,提高了约20%,如图4所示。其中曲线y1表示结合主颜色和纹理特征的TS模型匹配算法,曲线y2表示单纯主颜色的视频匹配,曲线y3表示单纯纹理特征的算法,曲线y4表示传统的基于运动特征的视频匹配。从实验结果可以看出,本文算法得到的查全率明显优于传统的基于运动特征的算法,比基于单一特征的算法更为精确。另外,由于应用TS模型算法大大降低了计算量,从计算复杂度方面衡量,本文算法比其他三种算法降低约45%。

本文提出一种基于主颜色和纹理特征的视频匹配方法,不但将基于内容的图像匹配应用到视频中来,提高了视频内容的查全率和查准率,而且应用TS模型改进算法,更有效地降低了视频处理的计算量。本文算法较传统的基于运动特征的视频匹配算法精确率明显提高;较基于内容的视频匹配算法,精确度更高,计算量也降低高达45%,通过大量的实验验证,具有一定的通用性。

参考文献

[1]陈秀新,贾克斌,邓智玭.融合时序特征和关键帧的视频检索方法[J].电视技术,2011,35(03):21-24.

[2]JIANCHAO Y.Alignment of non-texture video frames us-ing kalman filter[C].IET Computer Vision,Jan,2011:77-85.

[3]PRIBULA O,POHANKA J,et al.Real-time video sequ-ences matching using the spatiotemporal fingerprint[C].IEEEMediter-ranean Electrotechnical Conference,2010.

[4]ABDOLLAHIAN G,BIRINCI M,et al.A region-depen-dent image matching method for image and video annota-tion[C].IEEE International Workshop on Content-BasedMultimedia Indexing,2011.

[5]BABER J,AFZULPURKAR N,et al.Shot boundary dete-ction from videos using entropy and local descriptor[C].IEEE International Conference on Digital Signal Processing,2011.

颜色特征匹配 篇2

在数字图像检索方面, 基于内容的图像检索CBIR (Content-Based Image Retrieval) 已成为图像检索的热门技术。该方法通过提取图像的底层特征, 如色彩、纹理和形状等, 并以此作为图像内容的表达和相似性判别要素, 从而实现图像的高效索引和检索。该文给出一种基于区域颜色特征的图像相似性匹配算法, 并利用C#语言实现。

1 基于颜色特征的图像检索

色彩是图像内容组成的基本要素之一, 也是人们识别图像的主要感知特征。相对于其他特征而言, 图像的颜色表现出相当强的鲁棒性, 其对大小、方向都不敏感。基于颜色特征进行图像检索需解决的主要问题为:颜色模型的选取、颜色特征的提取和相似性匹配计算。

颜色模型又称颜色空间, 是指颜色的表示方法。这里的研究采用RGB颜色模型, 即红、绿、蓝 (RGB) 三基 (原) 色模型。描述图像颜色特征的一种常用方法为图像的颜色直方图 (ColorHistogram) 。假设一幅图像P的颜色由M级组成, 每一种颜色值用Ci (i=1, 2, …, M) 表示, 在整幅图像中, 具有Ci颜色值的像素数为ni, 则这一组像素统计值n1, n2, …, nM便构成该图像的特征值——颜色直方图, 可用向量组N (n1, n2, …, nM) 表示。示例图像和对应的颜色直方图分别如图1和图2所示。

颜色直方图是通过统计图像中每种颜色的像素数目而获得的。例如, 对24位的RGB图像来说, 其颜色空间 (即不同的颜色数目) 是224=256×256×256 =16 777 216。为了提高效率, 可将颜色空间进行适当的量化, 然后再统计每组中对应的像素数目, 从而较为简便地获取图像的颜色直方图。

在基于内容的图像查询中, 若仅采用上述方式对图像进行索引和检索。因颜色直方图只反映了图像像素的颜色统计分布, 并未体现图像的颜色空间分布特征, 由此可能导致两张颜色统计分布相同的图像。其空间分布可能差别很大, 所以直接将此特征作为图像检索的依据, 得到的检索结果将是很粗略的。为了提高检索的准确度, 可将整个图像分为多个区域, 通过提取各个区域的颜色特征 (直方图) , 并对两张图像分区进行相应的比对, 由此判断其相似性, 将会显著提高检索的效果。

2 图像区域颜色特征值的提取算法

在基于图像区域颜色特征的相似性匹配算法中, 需将每幅图像分成多个区域 (区域的数目影响匹配精度和检索速度, 下面以划分4个区域为例来讨论) , 如图3所示。分别提取每个分区的颜色特征, 得到各个区域的颜色直方图, 如图4所示。然后进行对应分区的相似匹配, 根据各区域的相似程度, 再综合判断整个图像之间的相似性。

假设有图像1和图像2, 颜色空间量化为16 000, 则两幅图像第j个区域 (j=1, 2, 3, 4) 的颜色直方图特征向量可分别表示为:

本文中图像区域颜色特征 (直方图) 的提取及匹配算法等代码和运行界面全部用C#语言实现。

3 图像相似性匹配的算法

在图像的相似性度量计算中采用欧氏距离法。假设查询用例图像的分区直方图用Gj (g1, g2, …, g16 000) 表示;数据库中目标图像的分区直方图用Sj (s1, s2, …, s16 000) 表示;j的取值范围为分区的个数 (本例为1~4) , 可以将这两个图像的各分区直方图特征向量看作欧氏空间的两个点, 利用欧氏距离来描述相对应区域的相似性, 即:

Edj (G, S) =i=1Ν (gi-si) 2

式中:Edj (G, S) 的值越接近0, 则两幅图像的相应区域越相似。如果两幅图像相应区域的颜色特征完全一致, 则Edj (G, S) =0。经过以上分区比对, 若大部分区域的相似程度符合要求 (预先设定合适的阈值) , 则可判定两幅图像为相似图像。

4 图像相似性匹配的实例

利用以上算法, 可以对任意两幅图像进行基于区域颜色特征的相似性匹配。本实例中将图像 (24位*.bmp) 尺寸统一为163×122像素 (大小约为60 KB) , 将RGB颜色空间 (16 777 216种颜色) 量化为16 000组, 落在每组的颜色以该组中间值表示, 相似性的匹配阈值设为0.07 (该值越小查询的精准度越高) 。所使用的电脑, CPU为Pentium双核2.8 GHz, 硬盘串口80 GB, 内存512 MB, 网卡10 M/100 M自适应。提取一幅图像的分区直方图花费时间约为130 ms。图5显示了两张花卉图片的读取、分区像素颜色的提取和统计、分区直方图的绘制和比对, 以及分区图像相似性匹配的计算和度量, 经过综合判断 (本例设定相似的条件为相似区域达到或超过半数) , 最终给出两幅图像相似性的结论。

5 结 语

该文提出一种基于区域颜色特征的图像相似性匹配算法, 并用C#语言加以实现。该算法在提取图像颜色统计特征的同时, 还考虑了其空间分布, 与单纯的考虑颜色特征的图像匹配算法相比, 在查准率方面有明显的提高, 对改善图像的检索效果有积极的借鉴意义和较强的实用性。

视频检测的颜色直方图目标匹配算法 篇3

目前, 交通问题已成为公路交通的主要制约因素之一。现阶段国内外对ITS (Intelligent Transportation System) 已经有了较深入的研究和实践。国内外近20年的研究表明:实行ITS, 可以使道路的通行能力提高二至三倍, 将产生巨大的经济效益和社会效益。在ITS这个综合系统中, 交通数据采集设备占据重要位置, 实时准确地获得各种交通信息数据 (包括车流量、车速度、车辆密度、车型等) 是非常重要的。获取交通信息数据的方式目前市场上主要有两类, 一是基于环形线圈传感器、超声波或红外线的车辆检测器;另一种是基于图像分析的视频检测技术。视频车辆检测方式不需要破坏路面, 易于维护, 使用寿命长, 且检测的准确率高, 实时性强。因此, 本课题采用此技术来获取交通信息数据。作为一个交通检测系统, 对交通量 (车辆计数、车速) 的检测是最基本的要求。而要获取这些信息量的关键, 就是要有建立一个有效的运动目标跟踪算法。本文正是在此大前提下提出基于颜色直方图的目标跟踪算法, 建立了运动目标匹配的模型, 实验表明, 该算法是有效的, 可以给交通流量检测提供有效的信息。

1 常用方法简介

颜色作为物体的一种重要特征, 是人们认识物体的重要信息来源, 因此颜色信息成为图像处理的一种关键依据。基于颜色特征分析图像的方法有颜色直方图 (Color Histogram) [1]、颜色矩 (Color Moments) [2]、颜色聚合矢量CCV (Color Coherence Vector) [3]、颜色相关图 (Color Correlograms) [4]等多种方法, 在本文中主要是基于颜色直方图进行研究。颜色直方图是一种非常流行的颜色特征, 它具有旋转不变性、尺度不变性和很高的鲁棒性, 能够大大减少图像色彩匹配中的计算量[2]。1991年, Swain开创了基于颜色特征的图像检索的先河。他指出, 在自然界里物体的类别与颜色之间往往有相关性, 因此颜色可以作为识别物体的有效特征。他和Ballad提出了基于直方图相交 (histogram intersection) 的色彩索引 (color indexing) 算法, 成为这一方面的奠基性工作[1]。用颜色直方图进行目标匹配的基本思想是将图像间的不同, 归结为颜色直方图的差别, 从而将图像的匹配转换为颜色直方图距离的相似度衡量。

2 彩色图像的颜色表示空间

对于彩色图像, 常用的颜色表示方法有RGB, HSV等。以红、绿、蓝为三基色的RGB颜色模型是最常用的一种颜色表示模式, 它是一种非均匀的颜色空间, 与人眼的感觉并不相符。HSV颜色模型把颜色分为色度、亮度和饱和度。这种模型在视觉上是均匀的, 与人的颜色视觉有很好的一致性。通过一定的换算关系可以把RGB颜色模型上的向量 (r, g, b) 转化为HSV颜色模型上的向量 (h, s, v) 。数字图像的颜色是离散的, 每个像素占三个字节, 以红、绿、蓝三种颜色数值组成的矩阵形式存储。虽然HSV颜色空间在彩色图像的处理中占有优势, 但是由于图像本身是以RGB颜色模型存储的, 将图像从RGB颜色模型转换到HSV颜色模型是要花费很长时间的, 因此对实时性要求较高的视频监控系统, 采用RGB颜色模型更为方便。

3 图像的颜色直方图统计

相对于几何特征而言, 颜色直方图是一种概率统计的方法, 具有旋转不变性和缩放不变性等特点, 在图像处理中得到广泛应用。颜色直方图定义为图像中三个颜色通道的联合概率密度函数

式 (1) 中, N0是图像的所有像素数, P表示概率密度函数, h是直方图函数, 表示图像中具有颜色 (R=r, G=g, B=b) 的像素数。在实际应用中, 更具有普遍意义的是联合概率密度函数, 又称为归一化的直方图[5]。

式 (2) 中, N (r, g, b) 是颜色为 (r, g, b) 的所有像素数。

4 颜色直方图的量化

在RGB颜色模型中, 一共有256×256×256=16777216种颜色, 这个颜色空间称为真彩色空间。如果再考虑直方图上的相关运算, 运算量将会很大, 处理速度往往无法满足系统的要求。因此, 一般的解决方法是对直方图进行量化来减小其所包含的向量个数。一个合适的量化级要求能够在性能和计算量上取得平衡:既要所选的量化级必须保证差别较大的颜色不能被分在同一个量化级, 从而要求量化级不能过大;也要保证颜色直方图的容量不能太大, 否则会给后续的处理带来繁重的计算负担[6]。直方图的量化根据基于模糊关系的最大隶属度原则进行颜色空间的压缩[7]。

5 颜色直方图相似度的计算方法

在视频监控中, 为了能够反映两幅图像之间的相似程度, 必须有一个表示图像之间相似性的客观度量。对于基于直方图的图像匹配来说, 经常利用直方图之间的距离公式来表示相似性, 显然, 直方图距离和相似性成反比, 距离越小, 相似性越大。表示直方图之间相似性的距离公式有很多, 目前存在的直方图距离主要有Euler距离、交集距离、二次方距离以及EMD (Earth Mover’s Distance) 距离等。

在基于RGB颜色空间的颜色直方图中, EMD距离有着较好的性能, 但是EMD距离的求解相对比较复杂。Euler距离与交集距离的性能比EMD稍差, 但是在计算量上, 即使EMD距离采用了快速算法, Euler距离和交集距离仍然占有优势。最后一种距离二次方距离, 其计算相似矩阵需要相当大的计算量, 但是算法的性能却并没有很大的改善[6]。

因此, 在本文中, 基于实时性和其它一些因素的考虑, 采用Euler距离进行目标图像的跟踪匹配。

5.1 Euler距离

设f和h分别表示连续两帧图像中运动目标图像的颜色直方图, 则f和h之间的Euler距离表示为:

式 (3) 中, R、G、B分别表示RGB颜色模型的三个颜色分量的量化级。Euler距离的特点是在两个直方图中的同一个量化级间进行比较, 所有量化级的直方图分量在整个距离公式中有相等的贡献。要用Euler距离公式进行直方图匹配, 需要进行R*G*B次运算, 由于直接计算的话, 运算量比较大, 因此需要对直方图进行量化。而本文对Euler距离进行改进, 采用对三个颜色分量分别计算直方图, 用Euler距离公式进行匹配, 这样避免了对直方图进行量化的过程, 减少了计算量;同时由于对三个颜色分量分别计算其颜色直方图, 使得计算时能更加准确, 提高了运动目标匹配的准确度。

5.2 改进的Euler距离

由于RGB颜色模型之间三个颜色分量之间有相关性, 如想改变图像色调, 就必须同时改变RGB三个颜色分量的值。也就是说三个颜色分量的值不同, 所组成的图像颜色信息也不同。因此, 就可以分别利用三个颜色分量的颜色特性对运动目标进行匹配。具有颜色相似性的运动目标, 必然颜色直方图有相似性。在本文中对两个目标图像的R、G、B三个分量计算各自的直方图, 然后用Euler距离公式进行各个分量的计算。这样做即保持了原有算法的性能, 同时避免了颜色直方图的量化, 并且也减小了Euler距离的计算量, 简化了算法的复杂度, 实验证明该改进算法是有效的。各个颜色分量的Euler距离计算公式如下:

式 (4) 中f (i) 和h (i) 是前后两帧目标区域对应分量的直方图。它们分别除以S1、S2, 是对分量直方图进行归一化。S1、S2分别表示连续两帧目标图像的总像素数。d2越小表示两帧目标图像的相似度越高。

分别计算三个颜色分量的Euler距离, 如果三个分量的距离d2小于等于给定的阈值T, 则认为目标图像匹配成功, 否则认为是不同的两个目标图像。即:

若三个分量的Euler距离 就认为目标匹配成功。

若前一帧图像中有多个目标与下一帧中的目标都满足上面条件, 则选取两帧中Euler距离最小的那个目标作为匹配上的目标。

在我们开发的高速公路视频监控系统实际应用中, 阈值T一般取0.01。

6 算法的实现及实验结果

在Visual C++环境下, 用C语言编程, 实现了该算法。测试视频的帧速为10帧/秒, 分辨率为320×240。图1为测试过程中对一个目标进行图像分割, 提取出连续两帧图像中的同一运动车辆。这两帧目标车辆的三个颜色分量的直方图如图2所示。从直方图中分析, 连续两帧图像中, 相同的运动车辆目标的RGB三个颜色分量的对应直方图有很强的相似性。通过改进的Euler距离公式, 通过程序计算出d2=0.001352, 小于T, 即连续两帧目标匹配成功, 因此认为是同一目标。

a-前一帧图像截图;b-后一帧图像截图c-目标在前一帧;d-目标在后一帧

a-前一帧的R分量;b-前一帧的G分量;c-前一帧的B分量;d-后一帧的R分量;e-后一帧的G分量;f-后一帧的B分量;

采用本文的算法和传统Euler距离对同一段视频的1 000幅图像 (大约2分钟视频) 进行了对比测试, 结果如表1所示。通过测试可以看出, 改进的算法, 处理匹配的时间由30毫秒减少为10毫秒左右, 大大提高了视频监控的实时性, 并且在匹配准确度上也有一定的提高。

7 结论

针对高速公路视频监控系统, 本文提出了一种利用颜色直方图来进行目标的匹配的算法, 在运动目标提取完整的前提下, 用改进的基于Euler距离的匹配算法进行目标跟踪和交通量的检测, 实验测试结果表明, 该算法简单、有效, 具有很强的鲁棒性, 能满足实时性要求。但在运动目标提取不完整的前提下, 由于目标区域的颜色特征改变, 会出现误匹配, 这一点有待于下一步的研究。

参考文献

[1]Swain M J, Ballard D H.Color indexing.In International Journal of Computer Vision, 1991, 7 (1) :11-32.

[2]陈纯.计算机图像处理技术与算法[M].北京:清华大学出版社, 2003, 105-120.

[3]Niblack W, Barber R, et al.The QBIC project:Querying images by content using color, texture and shape.Research Report, No.9203, IBM Research Division, Almaden Research Center 1993.

[4]J huang, S R Kumar, MMitra et al.Image indexing using color correlo-grams.Proc IEEE conf on Computer Vision and Pattern Recognition, 1997.762-768.

[5]张便利, 常胜江, 等.基于彩色直方图分析的智能视频监控系统[J].物理学报, 2006, 55 (12) :6399-6404.

[6]窦建军, 文俊, 刘重庆.基于颜色直方图的图像检索技术[J].红外与激光工程, 2005, 34 (1) :84-88.

颜色特征匹配 篇4

随着车辆的增多,道路交通安全问题日趋严峻,从而促进了智能交通系统(Intelligent Transportation System,简称ITS)的发展。ITS是指运用信息技术、数据通讯传输技术、电子传感技术、控制技术、计算机技术等对道路交通进行实时、准确、高效的监管和处理。交通标志是管理交通、指示行车方向、保证道路畅通与行车安全的必要设施,因此大力开发交通标志识别系统已然成为了一个重要的发展方向,其中交通标志的检测是交通标志识别系统的重要基础。

本文对交通标志检测现状进行了分析,并在颜色分割的基础上利用模板匹配的方法实现了交通标志的检测。

1 研究现状

自上世纪八十年代开始,国外就有科研工作者开展交通标志检测技术的研究。Akatsuka等人釆用在RGB颜色空间图像下对图像进行阈值分割的方式检测交通标志,并通过模板匹配的方法对限速标志设计分类[1]。Broggi等人提出了一种RGB模型改进法来保证分割效果,通过类似于线性gamma矫正的彩色均衡处理来保证RGB模型对光源的独立性[2]。大阪大学开发了利用摄像机拍摄远处的场景图像,经过颜色、强度和形状等信息处理和判断得到可能的交通标志区域,再采用模板匹配法识别此区域的系统。Green等人在归一化的RGB空间中选取R和B通道的最大值以及结合RGB图像提取MSER区域并利用SVM进行交通标志判断[3]。Miura等人通过一个内建函数来计算标准模板图像与候选交通标志图像之间的归一化相关性,相比直接使用归一化相关性的模板匹配算法,该算法具有较快的处理速度[4]。

我国在智能交通领域的研发进展比国外稍晚。2004年杭州大学蒋刚毅通过利用数学形态学方法提取交通标志的特征,再利用模板匹配算法来进行检测[5]。许少秋等人也釆用基于模板匹配的算法来对交通标志提供检测识别,再通过HSI颜色空间对图像进行分割。张静等人[6]将图像从RGB颜色空间转换到HSI颜色空间来优势提取颜色分割,同时进一步结合了对RGB颜色空间下的非彩色分割。沙莎等人[7]首先将图像转换到HSI颜色空间,对其饱和度定制实现阈值分割,再结合RGB通道的颜色特征进行颜色聚类,从而将交通标志从背景图像中分离出来。

2 交通标志检测算法

2.1 颜色空间处理

2.1.1 RGB颜色空间

RGB空间是目前具有最大可见广泛应用范围的功能系统。具体分为红(Red)、绿(Green)、蓝(Blue)3个颜色通道,通过3个通道值的变化及叠加,产生各种各样几乎可以囊括人类所能感知到的全部颜色。建立在笛卡尔坐标系统中的RGB颜色模型空间,是一个正方体,如图1所示。一般应用时,将其归一化为单位立方体,使得所有的R、G、B值均可定位在区间[0,l]之中,成为一个规格化的RGB彩色空间。

基于RGB颜色空间模型的标志图像检测算法主要原理为:首先按照交通标志的颜色特点,设定分割像素点的RGB阈值,然后对图像中的像素点选取逐行扫描模式,判断图像中的该像素点是否属于预先设定的RGB阈值范围内,如果属于,则将该像素点保留下来,反之则设为零,该像素点为背景。

若k1为图像中的交通标志,k2为图像的背景,fr、fg、fb分别为图像中各像素点的R、G、B通道值,运用(1)(2)两式对图像进行处理。具体如下:

对RGB空间的处理,首先获取图像的R、G、B的像素值,之后通过实验来确定交通标志图像中的红、黄、蓝三种颜色的R-B、B-R、R-G、G-R、B-G和G-B的分割阈值的范围,再将符合分割阈值范围的区域进行保留,不满足的区域则将其设为白色,最后合成RGB颜色像素,分割后的图像如图2所示。

2.1.2 HSV颜色空间

HSV(Hue,Saturation,Value)颜色空间模型中包含的3个独立属性是:亮度、色调和饱和度,其中,H是图像的色度也称色调,V是色彩的亮度,S是色彩的饱和度。HSV颜色空间的模型对应于圆柱坐标系中的一个圆锥形。如图3所示。圆锥的顶面对应V=l。色彩H由绕V轴的旋转角决定。每一种颜色和其补色之间相差180°。红色对应角度0°,绿色对应角度120°,蓝色对应角度240°。

HSV颜色模型是建立在柱坐标系中的。将RGB颜色空间转化为HSV颜色空间的算法为:利用方程式展开将RGB空间转换为HSV空间,即把笛卡尔坐标系中的RGB值映射至柱坐标系。转换后对图像中的像素点选取逐行扫描模式,判断图像中的该像素点是否属于预先设定的HSV阈值范围内,如果属于,则将该像素点保留下来。算法中涉及处理的公式如下:

H通道:

S通道:

V通道:

对于HSV空间的处理,首先获取图像的R、G、B的像素值,再将图像的RGB颜色转化为HSV的颜色值,之后通过实验来确定交通标志图像中的红、黄、蓝3种颜色H、S、V的分割阈值范围,对于符合分割阈值范围的区域进行保留,不满足的区域则将其设为白色,最后将HSV颜色转换成RGB颜色,合成像素后,显示分割后的图像,如图4所示。

2.2 模板匹配

模板匹配就是在一幅较大图像中搜索目标,已知图中含有要寻找的目标,而且该目标与模板有着相同的方向、尺寸。运行算法可以在图像中寻找到目标,确定目标的坐标位置。通过比较模板与子图的相似性,可以完成模板匹配的过程。

在此,给出模板匹配公式如下:

将模板T(m×n个像素)叠放在被搜索图S(W×H个像素)上下平移,模板覆盖搜索图的相应区域块称作子图Sij。i和j是子图Sij左上角在搜索图S上的坐标。如图5所示,通过比较T与Sij的相似性,可以完成模板匹配的过程。

当模板和子图完全一样时,相关系数R(i,j)=1。在被搜索图S中完成全部搜索后,找出R的最大值Rmax(im,jm),其对应的子图Simjm即为匹配目标。研究可得,误差公式如下:

E(i,j)为最小值处即为匹配目标。

为提高计算速度,取一个误差阈值E0,当E(i,j)>E0时就停止该点的计算,继续下一点计算,从而得到想要的结果。

3 实验结果

3.1 数据库

在我国迄今仍未推出公开的数据库用于提供给学者们展开相关的研究。本文通过车载相机拍摄的方式创建了一个含有交通标志图像的数据库。测试时,仅针对数据库中的150张禁止标志进行仿真实验。图6是数据库中含有禁止标志的一部分图像。

3.2 仿真实验

在RGB和HSV颜色空间的基础上,利用相似性公式对已经准备好的模板图像和分割后的图像进行匹配运算,计算出Rmax,从而找到最相似的ROI,完成交通标志的检测。对数据库中的150张禁止标志图像进行仿真实验,检测结果如图7所示。

实验结果表明,本系统能够取得较好的检测效果,检测准确率为96.67%。

4 结束语

本文对交通标志检测与识别系统中的交通标志颜色粗分割算法、候选交通标志图像块提取、交通标志模板匹配分类方法给出了相关研究,并展示了仿真实验过程及结果。本文的主要工作及结论如下:

1)本文介绍并分析了以RGB颜色模型及其确定阈值的粗分割算法和HSV颜色模型及其固定阈值的粗分割算法。

2)基于模板匹配方法的交通标志检测系统目前可以检测大量的禁止标志,对数据库中的150张禁止标志图像进行检测,检测成功率为96.67%。

本文只采用了固定大小的模板进行匹配,当交通标志出现较大变形及缩放等情况时,文中方法的检测效果较差,将在下一步工作中研究变形模板匹配。

参考文献

[1]余进程.车载辅助系统中禁令交通标志的识别研究[D].广州:广东工业大学,2014.

[2]匡麒旭.城市交通存在的问题及解决方法[D].武汉:武汉理工大学,2014.

[3]YE Yibin,SQUARTIN S,PIAZZA F.ELM based time variant neural networks with incremental number of output basis functions[J].Lecture Notes in Computer Science,2011,6675:403-410.

[4]NASCIMENTO J C,ABRANTES A J,MARQUES J S.Using middle level features for robust shape tracking[J].Pattern Recognition Letters,2003,24(1/3):295-307.

[5]陈荣波.智能交通系统理论的研究与实现[D].长春:吉林大学,2004.

[6]张静,何明一,戴玉超,等.多特征融合的圆形交通标志检测[J].模式识别与人工智能,2011,24(2):226-232.

颜色特征匹配 篇5

图是一种通用的数据结构,能描述复杂的结构化或半结构化数据,如: XML、社会关系网络、化合物集合、蛋白质与基因网络、计算机视觉( 形状与场景分析) 、文档处理、以及万维网等[1]。随着图在各领域内的成功应用,图数据开始迅速累积, 如何对大量积累的图数据进行高效查询以便获得有价值的信息已成为众多领域关注的问题,这带来了对图查询及图模式识别的基础算法—高效图匹配算法的应用需求。

图匹配问题具有自身的难点—算法复杂度高,因而图匹配的研究极具挑战性。图匹配算法分为精确匹配和非精确匹配算法。由于精确匹配大都是NP难问题,尤其是子图同构问题已被证明是NP完全问题,导致精确匹配实用性较低,此外精确匹配在许多应用场合下不仅是不必要的,反而还降低了对结构误差的容忍性,因此近年来对非精确图匹配算法的研究越来越受到重视[2]。虽然目前针对非精确图匹配问题开展了许多研究, 但因为现有算法的计算复杂度、有效性及准确率方面还不能满足要求[3]。

从图模式识别的最新发展趋势可以看出: 虽然图模式是一个经典的结构模式,但其识别方法的最新发展是在结构识别和统计识别两种方法的互相桥接[4]中推进的。一方面在传统的统计识别问题中出现了模式的图描述,增加了模式的表现能力; 另一方面通过图嵌入[1,3 - 10]、图核[6,11]等方法将图的结构识别问题转换成统计识别问题,利用统计识别领域已经积累起来的丰富算法加以解决。

图嵌入的核心问题是构造显式映射 φ:G→Rn,将图从图空间G嵌入到向量空间Rn,并且在图空间中所包含的结构信息能够在向量空间中继续得以保持。基于图谱[7,8]的嵌入方法是图嵌入中的一类重要方法,在图匹配中一直是研究的关注点,文献[8]利用Ihara系数来表达一个图的拓扑特征。除图谱方法以外,有代表性的工作是H. Bunke等的基于相异度的Lipschitz图嵌入方法[1,9,10],为具有节点及边属性的图( 即有属性图) 的非精确匹配问题提供了很好的解决思路。文献[3 - 6]通过构造多种图聚类算法提取若干原型图,利用图编辑距离计算待检测图与原型图之间的相异度,进而构造图特征向量或构造图核函数实现非精确图匹配,取得了较好的匹配效果,但存在的问题是,都没有考虑到在节点属性中应当具有反映拓扑特征的属性。 虽然这些方法在匹配过程中试图通过某种编辑距离计算来体现图的拓扑性质,但编辑距离的计算复杂度是指数级的,因此都采用了编辑距离的近似计算方法-Munkres算法。而该算法的求解是由节点属性所构造的指派代价矩阵为导向的,因此如果在节点属性中没有反映图拓扑结构的成分,则得到的匹配结果将对图的拓扑结构相似性反映不足。此外,许多现有图匹配方法中, 往往把节点特征看作是应用领域的特征,对于反映图本身拓扑结构的节点特征重视不够,虽有学者开展了相关研究[12,13],但在该领域仍有许多问题有待进一步解决。

本文借鉴建筑学与城市规划学科中空间关系理论-空间句法[14]和图嵌入方法的思路对图中的每个节点构造描述图拓扑特征的量化描述,并融合节点和边的领域属性等非拓扑特征,利用统计的方法构造分布于图节点上的特征向量,并以此为桥梁将结构识别问题转化为统计识别问题,进而利用支持向量机研究一般图的非精确匹配问题。

1特征提取

1. 1拓扑特征提取

利用空间句法理论的思想,产生图节点的局部和全局图拓扑属性,并基于此构造适合于非精确图匹配的图拓扑特征向量。 本文采用的空间句法变量有连接值、控制值、平均深度值、集成度和智能度等,其定义与建筑空间关系的意义分别描述如下。

1连接值Ci定义为:

其中: A是图的邻接矩阵,n是图的节点数。连接值Ci表示与第i个节点相连的其它节点的个数。在实际空间关系中,空间i的连接值越高,表示该空间的可达性或渗透性越好。

2控制值CTRLi定义为:

其中: Ci是节点i的连接值,ind( i,t) 表示与节点i相连接的第t个节点的序号,显然,1≤ind( i,t) ≤n且ind( i,t) ≠i。CTRLi反映了节点之间相互制约的力度。在空间系统中,反映了一个空间对其周围空间的影响程度。

3平均深度值MDi定义为:

其中: dij是连接图上节点i和节点j的最短距离,表示区域内总深度,n是图中节点的个数。MDi表示某一节点距离其它所有节点的平均距离。

4集成度Ii定义为:

其中: n是图中节点的个数,MDi是节点i的平均深度值。集成度反映一个单元空间与系统中所有其他空间的集散程度。当一个空间系统是集成时,该系统中所有单元空间相距较近,彼此之间很少有障碍物影响它们的关系。反之,则系统中单元空间相距较远,彼此之间有较多障碍物影响它们的联系。

令G = ( V,E) ,记V = ( v1,v2,…,vn) ,从上述构造的节点拓扑属性可以看出,对于图G中的每个节点vi,都有对应的连接值Ci、控制值CTRLi、平均深度值MDi和集成度Ii,因此可利用这些值构造图G的拓扑属性数据集合D( G) ,如式( 5) 所示:

对于给定的训练图集合,提取|个图中所有节点的拓扑属性数据,接着利用K均值聚类产生P个拓扑属性集合,如式( 6 ) 所示:

对于TS() 中的每一行数据TSi,剔除其中的相同元素,按照由小到大的顺序排序,形成的数据集合记为:

对于D( G) 中的每一行的拓扑属性数据Di= { di,j| i = 1,2, 3,4∧j = 1,2,…,n} ,记H( Di,TS'i) 为数据集合Di的直方图描述,其中di,j∈[tsi,0,tsi,m],其中i = 1,2,3,4; j = 1,2,…,m,TS'i为直方图参数向量,则H( Di,TS'i) 定义为:

式中,hj为集合Di的数据元素落入区间[tsi,j - 1,tsi,j]的个数。可以看出,上述定义的直方图是一种概率分布。

利用上述直方图的数据描述可得图G的拓扑特征直方图H( D ( G ) ,如式( 10 ) 所示:

除此之外,本文还构造了智能度R、拓扑属性的中值、单个拓扑属性的统计值和联合拓扑属性的统计值等辅助拓扑特征, 分别描述如下。

1图G的智能度R,定义如下:

其中为所有单元空间连接值的均值,I为所有单元空间全局集成度的均值。智能度表述了局部空间与整个系统的相互关系。 如果局部范围内连接值较高的空间,在整体上集成度也较高,那么这个空间系统是清晰的、容易理解的,从而也是智能的。智能意味着从局部感受整体,而非智能就很难有整体的概念。

2拓扑属性的中值SMED定义如下:

SMED = ( med( D1) ,med( D2) ,med( D3) ,med( D4) )( 12) 其中: med表示中值函数; D1、D2、D3、D4分别表示图G的连接值、控制值、平均深度值和集成度构成的数据集合。

3单个拓扑属性的统计值CSS定义如下:

其中: | D1| 、| D2| 、| D3| 、| D4| 分别表示图G中包含的不同的连接值、控制值、平均深度值和集成度的数目。

4联合拓扑属性的统计值CST定义如下:

其中: CST2、CST3、CST4分别表示拓扑属性中有2、3、4个量不同时相同的节点个数,其定义分别如式( 15) 、式( 16) 和式( 17) 所示:

综上所述,提取图G的拓扑属性,通过函数 φt将其映射到拓扑特征向量空间的定义如式( 18) 所示:

1. 2领域特征提取

图可以表示为一个四元组G = ( V,E,μ,γ) ,其中: V是一个非空的节点集合,表示边的集合,μ: V→LV表示节点领域属性映射函数,γ: E→LE表示边领域属性映射函数,LV和LE分别表示节点和边上的领域属性集合。

假定训练图集合包含的节点领域属性集合,边领域属性集合针对节点和边的领域属性构造的领域统计特征描述如下:

1节点领域属性统计特征映射函数定义为:

其中: CLVi表示图G中领域属性为tvi的节点数,即

2边领域属性统计特征映射函数定义为:

其中: CLEj表示图G中属性为tej的边数,即

综上所述,提取图G的领域属性,通过函数 φp将其映射到领域特征向量空间的定义如式( 21) 所示:

2图匹配算法

构造的非精确图匹配算法流程如图1所示,其中流程1为匹配算法的训练过程,流程2为匹配算法的测试过程。

依据不同的特征向量空间,本文实现了三种图匹配算法。 基于拓扑特征的非精确图匹配算法( TA) ,基于领域特征的非精确图匹配算法( PA) 和融合拓扑和领域特征的非精确图匹配算法( TPA) ,特征向量空间的构造流程如图2所示。

3实验结果

为了检验所设计非精确图匹配算法的实际分类效果,选取IAM数据库中的GREC、AIDS、Mutagenicity和Web数据集[15]进行训练与测试。各个数据集包含的类别数cl_num、平均节点数av( V) 、平均边数av( E) 、用于训练的样本数tr_num和用于测试的样本数te_num如表1所示。

实现上述三种非精确图匹配算法( TA、PA和TPA) ,利用线性核函数在支持向量机中的进行训练和测试,分类识别率如表2所示。

从表2可以看出,TA算法和PA算法在各个数据集上的分类识别率各有高低,究其原因,是因为拓扑特征和领域特征影响各个数据集分类识别率的程度略有不同。另外,TPA算法相对于TA和PA算法在各个数据集上的分类识别率均有提高。对比文献[3 - 6]在各个数据集上的分类识别率如表3所示。由于文献[3 - 6]中的图匹配过程中涉及到多种数据预处理算法, 并且这些算法在所有数据集上的识别率各有优劣,为对比本文算法的实验效果,这里给出了每篇文献的分类识别率范围。

从表3可以看出,所设计的非精确图匹配算法在AIDS数据集上的分类识别率最高,优于文献[3 - 6]中的最高识别率; 在Mutagenicity和Web数据集上的分类识别率优于文献[3 - 5]中的最高识别率,低于文献[6]中的部分识别率; 在GREC数据集上的分类准确率高于文献[5,6]中的部分识别率; 除AIDS数据集外,文献[6]中的最高识别率相对较高,主要是因为在得到相异度图特征向量后,又构造了更为复杂的图核函数,因此取得了更优的识别率,但线性核函数的运算速度明显优于自定义图核函数,因此本文算法的运算速度优于文献[6]。

4结语

本文提出的融合拓扑特征和领域特征的非精确图匹配算法具有以下特点:

( 1) 构造的量化的图拓扑特征能够较好的描述图的局部和全局拓扑特征,这种特征也能够描述一般图的拓扑结构,并且这种描述具有直观性。

( 2) 能够较好地与图的节点和边的领域属性等非拓扑特征相结合,通用性较好; 构造的图特征向量能较好地描述图的特征,可分性较好。

通过实验证明了算法的有效性,但有待改进的地方在于利用支持向量机进行训练和测试时,采用的是最简单的线性核函数,虽然运行速度较快,但没有考虑特征向量之间是否存在一定的非线性关系。因此,下一步的工作将对这些特征进行优化,构造相适应的图核函数,进一步提高匹配识别的准确率。

摘要:针对结构模式识别领域中现有图匹配算法对反映图本身拓扑结构的节点特征挖掘不够充分的问题,提出融合拓扑特征和领域特征的非精确图匹配算法。利用建筑学与城市规划学科中的空间句法理论构造图拓扑特征的量化描述,并将其与节点属性和边属性等其他领域的非拓扑特征相结合,构造描述图特征的特征向量,以此为桥梁将结构模式识别问题转化为统计模式识别问题,进而借助支持向量机实现非精确图匹配。不同于其他的图匹配算法,该算法对图的拓扑表达能力强,并且可融合图的领域方面的非拓扑特征,通用性较好。实验结果表明,提出的图匹配算法在不同的图数据集上均具有较高的分类识别率。

基于特征区域的模板匹配改进算法 篇6

在复杂背景环境下的提取运动目标是计算机视觉和图像处理领域的经典研究课题之一,也是视觉信息处理领域的难点,同时还是图像应用系统可靠性和实用性制约因素,研究复杂背景条件下提取运动目标具有较大的意义。图像提取效果将直接影响到机器视觉系统对客观世界的理解,结合到来未数字化战场目标的实际,装甲车辆数字化的要求,须建立摄像机运动与图像运动的关系模型又能为研究抗噪声提供良好的平台。

近年来,专家学者们提出了各种各样的方法来提取目标,现在常用的方法主要有:基于运动区域检测的目标提取方法,基于模板匹配的目标提取方法,基于纹理分割的提取方法。图像模板匹配算法,基于小波变换的多分辨率模板匹配方法越来越多地受到关注,这种算法计算比较复杂,目前在工程上难以实时实现。国内外比较实用的相关目标提取算法还是基于灰度的多点相关[1],但是算法缺乏行之有效的置信度函数,在应用中受到一定的限制。英国空军研究所最近率先提出了一种区域模板相关匹配算法,这种算法不仅匹配参考模板与搜索区图像的灰度特征,匹配信息中包含了目标位置和面积特征,而且在连续帧间算法具有较好的置信度函数,能够实现模板的智能更新和失锁检测。

因此本文着眼于特征区域来研究复杂场景下的目标提取技术。按照建立运动目标模型,并解决当目标经过可能区域提取之后,如果有多个区域满足了提取条件,做进一步的搜索,对模板进行适时更新。

2 复杂场景下车载图像干扰噪声规律及模型

图像的运动可以看成为旋转和抖动的组合。是由摄像机载体的运动与摄像机相对运动载体的运动共同引起的。图像的运动取决于摄像机运动载体坐标系和地面坐标系之间的相对运动。为了直观表示摄像机坐标系、图像平面坐标和景物点之间的关系,定义摄像机坐标系为:以摄像机中心O'为坐标原点,沿摄像头主轴为Y轴,摄像头垂直于像平面为Z轴,x轴和y轴分别平行于X轴和Y轴,如图所示(这里将CCD摄像机成像假设成为针孔成像即针孔摄像机模型),空间点P像点P1和摄像机中心O'在一条直线上)。假设图像运动只是由摄像机相对于被摄目标运动的线速度v:(vx,vy,vz)和角速度Ω:(Ωx,Ωy,Ωz)引起的(这里将炮载摄像机的运动线速度和角速度沿摄像机空间坐标系分解成三个矢量)。P:(x,y,z)T表示地面景物点,P1:(x,y)T表示景物点p于t1时刻在摄像机像平面坐标系xoy上投影点的坐标(即点的图像坐标)。由于炮载摄像机的运动,经过时间Δt后,点p在摄像机像平面内投影点的坐标发生变化,此时点p在图中的坐标位置为P2(x2,y2)T。

运动线速度和角速度沿摄像机空间坐标系分解成三个矢量。P:(x,y,z)T表示地面景物点,P1:(x,y)T表示景物点p于t1时刻在摄像机像平面坐标系xoy上投影点的坐标(即点的图像坐标)。由于炮载摄像机的运动,经过时间Δt后,点p在摄像机像平面内投影点的坐标发生变化,此时点p在图中的坐标位置为P2:(x2,y2)T。

由上图,摄像机中心在t1,t2两个时刻的坐标位置之间的关系可以表达为:

其中,θ是摄像机的旋转角,是摄像机的位移量,根据透视投影原理,景物点在二维图像上,投影点的坐标公式为:

在上式中,S为变焦系数,θ是t2时刻相对于t1时刻图像的旋转量,是t2时刻相对于t1时刻图像的平移量。

2.2 图像的运动模型

由于图像的运动方式各不相同,可采用不同的运动模型表示,常用的三种图像运动数学模型为:Trnaslation,simliaity和Affine模型。在战场监视系统中,由于的摄像机焦距比较远,变焦系数较小,故可以将图像的运动模型简化为只包含旋转和平移量两种,对simliariy模型做适当的简化,只保留旋转分量和平移分量。即:

3 模板匹配

模板匹配是基于图像相似性度量,在现场获取的实时图像中寻找最接近目标模板图像区域的一种目标提取方式。它无需对图像进行分割和特征提取处理,只在原始图像数据上进行运算,从而保留了图像一的全部信息,在许多复杂环境场景中这是一种切实可行的提取方法。然而,跟踪是一个动态过程。随着目标与传感器在距离、高度、方位、姿态、环境条件等因素的变化,目标图像的尺寸、位置,方向和形态也会发生变化,场景中每次获取的图像都只是随机过程中的一个样本函数,因此,踉踪过程中对两幅有变化的图像去求相似度是一个复杂的间题。

3.1 特征区域提取算法流程

经过目标可能区域提取之后,如果有多个区域满足了提取条件。则需要做进一步的搜索,采用了一种基于特征区域的模板匹配方法,其算法流程如下:

1)提取目标模板中的特征区域;

2)通过下面给出的相关算子,找出自标可能区域中与模板特征区域匹配的最佳位置;

3)根据模板中特征区域所处位置和第二步获得的最佳匹配位置,提取出目标图像;

4)将提取的目标,依据模板更新的策略对目标模板进行更新。

3.2 特征区域提取

由于目标模板所在的矩形区域中,并非所有的像素点都属于目标区域,如果直接使用目标模板进行相关匹配运算,在模板中的非目标区域会影响模板匹配的效果,甚至导致误匹配。因此,考虑在目标内部,找出一个尽可能包含目标特征最多的区域作为目标特征区域,进行相关匹配运算。这样既抑制了背景变化对相关运算的干扰,又能够减少相关运算的运算量。下面介绍本文采用的特征区域提取方法。

在目标模板中,以模板中心点位置为基准,在其邻域内搜索特征区域,并采用各向同性Sobel(Isotropic Sobel)算子的方法对此做出判决。各向同性Sobel算子和普通Sobel算子相比,它的位置加权系数更为准确,在检测不同方向的边沿时梯度的幅度一致。算子的定义为:

对目标模板中心附近的点(i,j)分别进行X、Y方向的梯度检测,得到它的综合梯度值:

其中A为检测点的3×3邻域。

设定特征区域的大小什良据目标的大小灵活设置),统计区域内所有像素点的综合梯度值,并将其作为该区域的表征量,在目标模板的轮廓内取得该表征量最大的区域作为目标模板的特征区域。

4 改过的模板匹配算法

4.1 MMD(Minimum Mismatch Distance)距离相关算法

文献[4]定义一种图像间的相似性度量,这种度量为MCD(最多邻近点),假设模板图像A大小为M×N,那么它和任一同样大小的图像B的MCD距离为:

其中:

Ai,j,Bi,j分别为图像A,B中坐标位置(i,j)像素点的灰度。也就是说,首先比较待匹配的两幅图像对应点的灰度绝对差,如果这个绝对差小于某个确定的门限(这个门限是经过实验观察得出来的,经验表明,这个值取仍,那么就可以认为这两点近似,然后统计整幅图像区域中对应点像素绝对差小于这个门限的数目,就可以确定这两幅图像的相似程了。把这个数目定义为MCD距离,它越大说明两幅图像越相似。

该算法可以避免传统相关匹配算法中噪声点引起的相关曲面不突出的缺点,但是相关运算耗时的缺点确没有克服,因此,借鉴SSDA)Sequential Similarity Detection Algorithm)算法思想,对MCD度量进行改进,提出了一种新的相似性度量,这种度量为MMD撮少失配点)。对每一个匹配位置,计算失配累积误差MMD,计算公式和式(5)相同,其中:

其它统计每个位置处的图像与模板图像的MMD距离,得到整个图像的一个相关曲面,寻找这个相关曲面的谷点即可确定最佳匹配位置。

在运算过程中,设置一个固定阈值εn,对每一个匹配位置,计算失配累积误差,如果累计误差超过εn,即可判断该位置失配。采用固定的阈值法匹配精度随阈值εn的增大而增大,但同时也增加了每个位置需要比较的次数。为了克服这一缺点,可采用单调增加序列代替固定阈值,即阈值随比较次数n逐渐增加,如图2中εn所示。此时对大多数非匹配点(曲线B,C)比较次数显著降低,而对有希望的匹配点(曲线A)比较次数增加,提高了匹配精度。这样,使用新的MMD距离,既保证了精度,又减少了算法的运算量。

4.2 模板更新策略

在对目标进行跟踪的过程中,目标模板维系了整个跟踪的动态过程,由于目标在不断的变化,实际的图像序列必然存在变形、噪声、遮挡等变化,因此对模板进行合理的更新是可靠跟踪的关键。

实践证明,在进行序列图像跟踪过程中,如果单纯利用由当前最佳匹配位置得到的新模板进行下一帧图像的匹配,跟踪结果很容易由于某一帧发生突变而偏离正确位置。因此,采用自适应模板更新策略对匹配跟踪过程进行指导,所谓自适应模板更新是指根据旧模板和当前图像的最佳匹配度来制定合适的新模板,以达到比较好的跟踪效果。

模板的更新步骤如下:

1)用模板的特征区域进行相关匹配,获得一个最佳匹配位置;

2)由当前最佳匹配位置获得目标图像;

3)根据一定帧间隔范围内的提取的目标图像来更新当前模板,更新的模板取自前帧中匹配误差最小时的目标图像,即:

其中,M+是更新后的模板,而M*是前m帧中匹配误差最小时的目标图像。这里的ai为第i帧匹配位置的最终MMD度量,在实际系统中m=6。

4)利用更新后的模板进行特征区域提取,并在下一帧图像中目标可能区域内的进行相关匹配,获得新的当前最佳匹配位置,然后从第二步重复执行。

5 仿真分析

为了验证本文提出相关匹配方法的有效性及抗噪能力,进行了如下的仿真实验,实验结果如图3所示。

图a是目标模板,其中的白色方框部分为提取出的特征区域,图b,c,d分别是待匹配的原始图像,加入高斯噪声的图像和加入焦盐噪声的图像,图e,f,g分别为各自匹配的相关曲面,图h,i,j分别为它们的匹配结果,图中的白色部分为特征区域的最佳匹配。可以看出,该算法对噪声干扰有很强的抑制能力。而且其运算时间比MCD算法要少3/4。

6 小结

复杂场景下的目标提取是图像跟踪识别中一个研究热点,本文综合利用模板匹配方法的知识,提出了MMD距离的目标提取方法。该方法有以下几个创新点;一是根据战场目标图像特点,提出了战场目标运动模型,并将其应用到模板轮廓提取;二是定义了一种新的最小失配距离(MMD)相似性度量;三是创建了模板更新策略。

参考文献

[1]朱仲杰,蒋刚毅,郁梅,等.一种基于时空信息的运动目标提取新算法[J].中国图象图形学报,2003,8(4):422-426.

[2]刘永,戴礼荣,宋彦.一种静态背景下的运动自标提取算法[J].中国图象图形学报,2003,8(7):759-763.

[3]Parry H S,Marshall A D,MarkhamI G.Tracking Targets in FLIR Images b Region Template Correlation[J].SPIE Vo1,3066

[4]任仙怡,廖云涛.新的相关跟踪方法的研究[J].中国图象图形学报,2002,7(5):553-557.

基于峰值特征匹配的运动补偿算法 篇7

步进频率雷达是一种具有广泛应用基础和前景的宽带雷达。然而,由于步进频率信号数据率较低,成像周期长,此时目标运动可能影响雷达的成像,使得其具有多普勒敏感性[1,2],因此需要对回波进行运动补偿。就此问题,目前主要的方法有:最小熵法[3,4,5]、频域相关法[6]和时域相关法[7,8,9]等。最小熵法抗噪性能不佳,运算量较大。频域互相关法无模糊速度范围小,难以实用;时域相关法当回波中出现很强的尖峰或虚假散射点时,该方法易失效,且进行包络的位置对准较粗糙,影响成像质量。针对上述问题,提出了一种基于峰值特征匹配的运动补偿算法,并进行仿真实验。实验表明,相比时域相关法,该方法运算量小,速度估计精度高,具有较好的抗噪性能,尤其是通过匹配得到真实散射中心,所成的像可以尽量避免杂波尖峰和虚假散射中心的出现,为后续的目标识别奠定了基础。

1基于峰值特征匹配的运动补偿算法

步进频信号具有多普勒敏感性,通过对多普勒进行分析[1]可以发现,只要目标速度已知,距离像的运动补偿问题则可通过在回波相位中相应减去多普勒相移即可。此时,如何估计目标运动速度则是运动补偿的关键。目前在一维距离像中进行运动目标估计较为常用的方法是时域相关法[8],该方法是通过2帧距离像包络互相关,来计算两距离像间“走动”的距离单元数,从而估计目标速度。该方法具有较好的抗噪能力,但对于虚假散射中心或杂波尖峰的干扰,则难以达到较好的速度估计效果,且运算量相对较大。

由于在雷达探测短时间内,目标视角改变不大,可认为目标上的散射中心在一维距离像上分布近似不变。此时,速度补偿问题实际上即目标在不同距离像上成像匹配的问题。只要能准确地匹配目标在实际距离像之间的位置,则可计算出目标距离像游走的距离单元数,最终估计得到目标速度。由于基于包络相关的方法存在抗干扰能力差、运算量大的问题,因此采用特征的方式进行距离像之间的匹配则不失为一种较好的选择。对于一幅包含目标的距离像来说,目标在距离像中最主要的特征是散射中心,因此,通过提取距离像中散射中心特征进行匹配则是本文运用匹配方法进行运动补偿的基本出发点。

1.1距离像峰值特征提取及直方图描述

一维距离像散射中心提取(峰值提取)是匹配运动补偿的基础。本文采用常用的Relax方法,对距离像中目标所有可能的散射中心进行提取。此时,对于某一幅包含目标O的距离像RP,可分别得到其中散射中心的位置与峰值,分别用集合P={p1,p2,…,pm}和A={a1,a2,…,am}表示(其中对于∀ii个散射中心在距离像中的位置与峰值分别为piai)。

为给后续匹配算法带来便利,希望同一目标距离散射中心特征在不同的距离像中具有一定的不变性,即距离游走以及虚假散射中心等对真实散射中心产生影响不大。显然,采用上述PA来对散射中心特征进行描述难以满足这一要求。为此,需进一步对散射中心特征进行描述。由于在雷达探测短时间内目标视角改变不大,则目标的散射中心在一维距离像上分布是近似不变的。利用这一假设和基本性质可对散射中心特征进行不变性描述。

对于距离像中任意第i个散射中心,用直方图形式对其进行描述。把距离像RP以第i个散射中心分为2k个相等的距离区间,并计算落入每一距离区间bin中的散射中心的数目,如图1所示。

由此得到,第i个散射中心的不变描述向量为:

Bini(k)={bini(1),bini(-1),,bini(-k),bini(k)}。 (1)

式中,

bini(j)=t=1,timSignj(pt), (2)

Signj(pt)为符号函数,表示为:

Signj(pt)={1,pt((j-1)×u,j×u]0,

。 (3)

u为距离区间间隔;Bini(2k)的图形化表示如图1(c)所示(颜色深浅表示数目大小)。由此,对于距离像RP,通过特征提取与描述得到如下特征描述向量集:

BΙΝ={Bin1,Bin2,,Binm}

1.2直方图特征匹配

假设待速度估计的2幅距离像RPvRPw,通过上述对散射中心特征的提取与描述,可得到2个散射中心特征描述向量集:

BΙΝv={Bin1v,Bin2v,,Binmv}BΙΝw={Bin1w,Bin2w,,Binnw}

(4)

为进行目标速度估计,此时的工作是如何对BINvBINw特征向量集进行匹配,从而计算得到2幅距离像中目标的“走动”距离。此时,2幅距离像中散射中心之间的匹配,参考文献[11]采用χ2统计检验作为其相似性匹配测度,则对于任意特征Biniv,Binjw,它们之间的相似度量表示为:

S(Biniv,Binjw)=t=-kk[biniv(t)-binjw(t)]2biniv(t)+binjw(t)。 (5)

此时把散射中心峰值考虑到匹配过程中,使式(5)变为:

S(Biniv,Binjw)=exp[-δ(aiv-ajw)]t=-kk[biniv(t)-binjw(t)]2biniv(t)+binjw(t)。 (6)

通过遍历,可得到一个相似度概率矩阵M,对矩阵中行列都取唯一最大值,则可得到最终的匹配结果,此时的匹配散射中心集则是目标真实的散射中心。而目标在距离像中的“走动”距离,则可通过计算匹配散射中心之间的平均差值得到。

通过上述描述,给出算法的基本步骤如下:

① 初始化算法;

② 获取2幅距离像RPvRPw的散射中心位置及其峰值,Pv,PwAv,Aw;

③ 计算得到散射中心的直方图描述特征向量集BINvBINw;

④ 根据式(6)获得距离像之间的相似度概率矩阵M;

⑤ 计算得到目标散射中心匹配关系,获取真实的目标散射中心集;

⑥ 通过计算匹配散射中心集之间的平均差值得到目标“走动”距离;

⑦ 根据文献[1]中的公式计算目标径向速度,进行运动补偿。

2实验

为验证本文算法,通过仿真实验分别对算法的测速精度、抗噪及抗杂波和虚假散射中心的能力进行测试,为做比较,同时运用时域相关法对相应数据进行对比实验。

2.1测速精度和抗噪性能的统计分析

本组实验主要对算法的抗噪性能进行测试,实验中分别在有无噪声情况下测试算法的测速精确度。

在无噪精度测试实验中,仿真数据产生过程目标速度从10~60 m/s区间内发生变化,分别运用本文算法与相关法对仿真数据进行运动补偿,总共进行实验120次,统计结果如图2所示。从图中可以看出,2种算法在无噪声情况下都有较高的测速精度,但总体来说本文算法略优于相关法。

在抗噪实验中,仿真数据产生过程目标以20 m/s的速度运动,此时加入不同强度的噪声,使信噪比在100~4 dB发生变化。对仿真获取数据分别运用本文算法与相关法进行运动补偿,总共进行实验100次,最终得到实验的统计结果如图3所示。

由实验结果可以看出,2种算法随着噪声的增大、信噪比的减小,测速精度都有不同程度的降低,但在相同条件下,相比相关法本文算法都有较好表现。分析原因主要本文算法利用的是距离像散射中心特征进行目标速度估计,而这种采样方式在一定程度上减小了整体噪声的影响。

2.2抗干扰实验及分析

抗干扰实验主要测试算法对杂波尖峰和虚假散射中心的抗干扰性能。仿真数据产生过程目标以20 m/s的速度运动,同时加入部分的杂波尖峰与虚假散射中心(其在2帧距离像中位置分别位于140.5 m、146.6 m、149.6 m和154.6 m、159 m、165.2 m处),以及一定比例噪声使信噪比保持10 dB。运用本文算法和相关法对目标进行测速,一组仿真实验结果如图4、图5和图6所示。

图4为目标运动速度v=20 m/s时的距离像。图中可以看出速度使单帧距离像发生了“距离走动”和变形。图4 (a)和图4 (b)的对比表明,速度还令距离像存在明显的帧间“距离走动”。该实验结果验证了上述分析的速度对距离像的影响。

图5给出了相关法运动补偿后的距离像,经过补偿后的各距离像的“距离走动”现象消失,但仍然存在杂波尖峰和虚假散射点。图6给出了本文算法运动补偿后的距离像,与图5比较发现,补偿后的距离像不再显示。图5中的杂波尖峰和虚假散射点,只具有目标的真实散射中心。这说明本文算法较好地消除杂波尖峰和虚假散射点的影响,只保留目标的真实散射中心。主要原因是由于本文散射中心特征匹配本质上是一个识别过程,通过匹配可以较好地识别得到目标真实散射中心,从而到达较好的补偿效果。

3结束语

上述分析了步进频率工作模式下,目标运动对一维距离像的影响,为了进行运动补偿,提出了基于峰值特征匹配的运动补偿算法,通过提取散射中心位置与幅度,构造直方图不变描述特征,在此基础上进行距离像间的匹配,最后由目标在两距离像间的走动距离对速度进行估计。仿真实验验证了本文方法的有效性。 

参考文献

[1]龙腾.频率步进雷达信号的多普勒性能分析[J].现代雷达,1996,18(2):31-37.

[2]郭鹏程,蔡兴雨,陈矛.步进频率雷达中多普勒效应的影响及其补偿[J].火控雷达技术,2008,37(3):56-58.

[3]王根原,保铮.逆合成孔径雷达运动补偿中包络对齐的新方法[J].电子学报,1998,26(6):5-8.

[4]WANG J,LIU X,ZHOU Z.Minimum-entropy phaseadjustment for ISAR[J].IEE Proc-Radar SonarNavigation,2004,151(4):203-209.

[5]罗贤全,尚朝轩,何强,等.频率步进雷达ISAR成像包络对齐新方法[J].数据采集与处理,2008,23(3):259-264.

[6]蒋楠稚,王毛路,李少洪,等.频率步进脉冲距离高分辨一维成像速度补偿分析[J].电子科学学刊,1999,21(5):665-670.

[7]王桂丽,李兴国.频率步进和脉冲多普勒复合测速研究[J].红外与毫米波学报,2008,27(3):190-192.

[8]包云霞,毛二可,何佩琨.基于一维高分辨距离像的相关测速补偿算法[J].北京理工大学学报,2008,28(2):160-163.

[9]保铮,邢孟道.雷达成像技术[M].北京:电子工业出版社,2005.

上一篇:教学模式创生下一篇:实效性小学德育