多传感器多目标跟踪

2024-05-12

多传感器多目标跟踪(精选九篇)

多传感器多目标跟踪 篇1

目前已有的目标跟踪融合估计算法都是基于Kalman滤波的, 而卡尔曼滤波估计算法要求系统过程噪声和量测噪声均为白色噪声。文献[1—3]指出:在实际的跟踪系统中, 量测噪声通常是有色的。所以, 对有色量测噪声情况下的多传感器目标跟踪融合算法的研究就具有更加广泛的应用价值。

为了解决量测噪声为有色噪声的目标跟踪融合算法, 文献[2]给出了状态扩增的方法, 而经状态扩增后, 会导致新的系统的量测噪声方差为零, 这使得目标跟踪融合算法中增益阵非奇异, 无法进行目标跟踪融合算法。文献[3]中Chui和Chen提出了线性加权两个连续量测的伪量测法。但这两种方法有定义性的限制, 要求系统误差模型维数必须等于量测矢量维数, 由于此局限性, 跟踪滤波的伪量测法仅限于仅有位置量测的情况, 并且位置误差是指数相关的;不能解决有位置误差、速度误差等多维甚至是较高序列的量测模型。本文利用线性组合当前量测与下一时刻量测的量测扩增法, 研究了量测维数不受约束的有色噪声情况下的多传感目标跟踪融合算法;并采用蒙特卡洛仿真法, 对新算法与已有的假设过程噪声和量测噪声均为白噪声的目标融合跟踪算法的融合性能做了比较。

1 有色噪声条件下的局部节点目标跟踪融合估计

1.1 问题的描述

设离散系统方程和量测方程:

式 (1) 中:Φ (k+1, k) 是状态转移矩阵, x (k) 是被估计的状态向量, ω (k) 为零均值白噪声, 方差为Q (k) 。

定义两个集合:

其中:M是局部节点个数, Nj是局部节点传感器数目, 局部节点j的第i个传感器的测量方程可表示为

式 (2) 中, zij (k+1) 是量测向量, Ηij (k+1) 是量测矩阵, vij (k+1) 为白噪声驱动的有色噪声, 且满足:

且Ε[ξji (k) ]=0, var[ξji (k) ]=Rji (k) , ξji (k) ω (k) 与不相关。

量测噪声为有色噪声, 不能采用Kalman进行估计。

1.2 量测扩增法

为了将有色量测噪声vij (k+1) 白化, 定义一个新的量测矢量zij* (k) , 它是局部节点j的第i个传感器当前量测与下一时刻量测的线性组合:

即令:

将式 (1) , 式 (2) 代入式 (4) 得

再将式 (3) 代入上式得

则式 (5) 可化为:

式 (6) 中:

局部节点j的第i个传感器的量测噪声方差阵为

显然, 经量测扩增后, 式 (1) , 式 (6) 组成的局部节点j的第i个传感器的新白色噪声系统方程, 其过程噪声ω (k) 与量测噪声vij* (k+1) 相关:

1.3 有色量测噪声条件下的单传感器目标跟踪融合算法

式 (1) 和式 (6) 组成的白噪声条件下的系统方程符合卡尔曼滤波方程的要求, 采用标准卡尔曼滤波算法, 得出有色噪声条件下的局部节点j的第i个传感器下一步的滤波估计方程为:

局部节点j的第i个传感器的状态更新方程为

滤波增益阵为

局部节点j的第i个传感器Pij* (k+1) 与Pij* (k+1/k) 的关系为

2 有色噪声条件下的多传感器目标跟踪融合算法

2.1 集中式多传感器目标跟踪融合算法

构造局部广义矢量

于是局部广义测量方程为

式 (14) 中:

现在把离散Kalman滤波理论应用于式 (1) 和式 (6) 构成的线性系统, 则局部节点j的集中式目标跟踪估计为

把式 (13) 、式 (15) 和式 (21) 代入式 (19) 有

2.2 分布式多传感器目标跟踪融合算法

由式 (19) 得

由式 (9) 得

由式 (8) 可推出

由文献[4]中式 (2.21) 推得

为了用传感器级的目标跟踪估计表示局部节点j的目标跟踪估计, 由式 (27) 得

将式 (26) 和式 (28) 以及式 (29) 代入式 (25) 得多传感器分布式目标跟踪融合算法:

3 仿真分析

考虑如下的动态系统, 位置和速度同构成二维量测向量, x (k+1) =[x (k) , v (k) ]T。

其中:qv为量测噪声的谱密度, β=0.99。

采样周期T=50 s, 取1 000个采样数据对本文提出的集中式、分布式多传感器目标跟踪融合算法进行性能评估, 评价的指标为均方根误差:Ek2。

式中:为l时刻的状态估计, k为采样次数。

在位置量测和速度量测同时进行观测时, 对白色噪声情况下的单传感器和多传感器目标跟踪融合算法、有色噪声情况下的单传感器和本文提出的多传感器目标跟踪融合算法进行仿真分析。仿真比较的结果, 图表法列表如表1, 表2所示。

从表1中不难发现:多传感器目标跟踪的融合误差小于单传感器的滤波跟踪误差。传统的Kalman滤波对实际跟踪系统的滤波精度较低, 带有色量测噪声的目标跟踪融合算法精度明显优于传统Kalman滤波的精度。而本文提出的有色噪声的多传感器目标跟踪融合算法其精度明显高于前两者。充分说明了所设计的新算法能有效地解决带有色噪声的目标跟踪融合算法。

从表2中可以看出:集中式多传感器目标跟踪融合误差小于分布式多传感器系统的跟踪融合误差。从而说明了集中式多传感器系统的目标跟踪融合精度高于分布式多传感器系统的目标跟踪融合精度。

4 结论

传统的Kalman滤波具有较高的目标跟踪融合精度, 但必须假设系统的过程噪声和量测噪声均为白色噪声;在实际的工程应用中, 量测噪声通常为非高斯的, 如果仍然使用传统的Kalman滤波跟踪, 其跟踪精度下降甚至导致滤波发散。对此, 本文基于线性组合当前量测和下一时刻量测作为新量测的滤波跟踪融合算法, 研究了有色噪声条件下的集中式、分布式多传感器目标跟踪融合算法。仿真分析表明:新算法能有效抑制实际跟踪系统中使用Kalman滤波精度下降、甚至发散的缺点。提高了实际目标跟踪系统的融合精度。而且仿真发现:新算法中的集中式多传感目标跟踪系统有较低的跟踪误差, 具有较高的融合估计精度。

参考文献

[1] Bar-Shalom Y, Li X R.Estimation and tracking:principles, techniques and software, Boston, MA:Artech House, 1993

[2] Bryson A E, Henrikson L J.Estimation using sampled data containing sequentially correlated noise.Journal of Spacecraft, 1968; (5, 6) :662—665

[3] Wu Wenrang, Chang Dahchung.Maneuvering target tracking with colored noise.IEEE, 1987;AES-23 (4) :592—594

[4] Gazit R.Digital tracking filters with high order correlated measurement noise.IEEE, 1997;AES-33 (4) :171—177

[5] ChaoS Y, Kim B D.Adaptive IIR/FIR fusion filter and its application to the INS/GPS integrated system.Automatica, 2008;44 (8) :2040—2047

无线传感器网络多目标跟踪的介绍 篇2

无线传感器网络目标跟踪一直作为研究的热点,之前的研究多是单目标的跟踪,通过传感器网络的多个或全部节点协作跟踪同一个目标。

Mechitov K 等利用二元检测 ( binary-detect 协作跟踪的思想,通过目标是否处于传感器侦测距离之内或者之外,根据多个传感器的协作确定目标的位置,这种方法需要节点间的时钟同步,并要求节点知道自身的位置信息; Zhao F 等利用信息驱动 ( information-driven 协作跟踪的思想,利用传感器节点侦测到信息和接收的其他节点的侦测信息判断目标可能的运动轨迹,唤醒合适的传感器节点在下一时刻参与跟踪活动,由于有合适的预测机制,可有效的减少节点间的通讯,从而节省节点有限的能量资源和通讯资源; Zhang W S 等在解决无线传感器网络单目标跟踪时提出了传送树 ( convei tree 跟踪算法,这种算法是一种分布式算法,而之前的大多数跟踪算法为集中式的传送树是一种由移动目标附近的节点组成的动态树型结构,并且会随着目标的移动动态地添加或者删除一些节点,保证对目标进行高效跟踪的同时减少节点间的通信开销。

当前的目标跟踪算法主要是针对不同环境下的单目标跟踪,如何以较低的能量代价高效地融合有效的信息,增大丈量精度和延长网络生存期,并解决多目标跟踪,成为目前研究无线传感器网络目标跟踪的热点。研究无线传感器网络多目标跟踪时需要考虑能量有限;跟踪算法的分布式以延长网络寿命;传感器的量测可能是多个目标的合成量测,这些给传统的多目标跟踪算法带来了挑战。

Jaewon Shin 采用分布式的多尺度框架,用转移矩阵的思想,优化解决多目标识别的计算量问题,该算法通过局部节点信息更新给出全局的目标信息,该算法框架在解决无线传感器网络多目标跟踪时有一定的可行性; Lei Chen 等也提出了采用分布式数据关联的算法解决无线传感器网络多目标跟踪; Mauric Chu 采用贝叶斯估计的方法,解决多目标跟踪的数据关联问题,并采用分布式的算法实现了无线传感器网络多目标跟踪,

无线传感器网络多目标跟踪

线传感器网络跟踪是传感器网络的主要用途之一,也是一个难点和关键问题,同时具有很多商业和军事应用的基本要素,如交通监控、机构平安和战场状况获取等。利用无线传感器网络中的节点协同跟踪,无线传感器网络技术应用的一个很重要的方面。

最早的无线传感器网络系统跟踪实验是美国 DA RPA Defens Advanc Research Project Agenci SensIT 项目中一些跟踪方法实现。现在许多跟踪应用方案依然处于研究阶段。由于传感器节点存在很多硬件资源的限制,还经常遭受外界环境的影响,无线链路易受到干扰,网络拓扑结构动态变化,而传感器网络的活动目标跟踪应用具有很强的实时性要求,因此,许多传统的跟踪算法并不适用于传感器网络。活动目标跟踪在雷达领域研究多年,效果很多经典的活动目标跟踪是单传感器跟踪系统,发展了如最近邻法 ( NN 集合论描述法、广义相关法、经典分配法、多假设法、概率数据关联 ( PDA 法、联合数据互联 ( JPDA 法、交互多模型 ( IMM 法等数据互联算法。

多传感器多目标跟踪 篇3

关键词 数据融合 D-S规则 目标识别 矩阵分析

中图分类号:TP212.9 文献标识码:A

0引言

当各传感器对它们各自的判决并不能百分之百确信时,可以采用一种基于统计方法的数据融合分类算法,即Dempster-Shafer算法。该算法能捕捉、融合来自多传感器的信息,这些信息在模式分类中具有能确定某些因素的能力。使用D-S规则来融合各传感器事件(也称之为命题)的知识,最后找到各命题的交集及与之对应的概率分配值。

1算法概述

每个传感器都能接收一类观察量,这些可观察量都体现了目标及它们所在环境的某些信息。各传感器对这些可观察量再利用各分类算法(传感器级融合)进行分类。这里对每个传感器k(k=1,…,n)赋予一个0-1之间的概率分配值m,这个概率分配值反映了对该判决的确信程度。概率分配值越接近1,说明该判决越有明确的证据支持,从而对物体类型的不确定程度就越低。然后各传感器的各概率分配值通过D-S规则融合,从而再选出某种假设,使该假设能被在各传感器上已经得到的绝大多数证据所支持。

假设n个互斥且穷尽的原始子命题存在,比如目标的类型是a1或a2…或an。这个命题集组成了整个假设事件的空间,我们称之为识别框架 。对该命题集里的每个子命题都可以赋予一个概率分配值m(ai)。如果碰到不是所有的概率分配值都能直接赋给各子命题或他们的并时,可以把剩下的概率分配值全部分配给u(它代表了由不知道所引起的不确定,以后该概率分配值可以进一步的细化)

如果遇到交命题是空集的情况,那么该交命题所对应的概率分配值应设为0,其他非空的交命题所对应的概率分配值应同乘以一个因子K,使得所有概率分配值的和为1,即如果交命题c的概率分配值是这种形式时:

这里定义为空集,如果K为1,则说明mA和 mB是完全矛盾的,此时用D-S规则来融合两个得到完全矛盾信息的传感器是不可能的。

当有三个或更多的传感器信息需要融合时,可以再一次使用D-S规则,方法是把前两个传感器融合后的交命题及对应的概率分配值作为一组新的概率分配值,然后用前面讨论的类似方法将第三个传感器的命题及对应的概率分配值与其相融合。

2基于矩阵分析的D-S规则数据融合

将n个待识别目标以及框架u的m组后验可信度分配构成矩阵:

式(3)表示各传感器被支持的综合程度,被支持的综合程度越高,则在数据融合中的重要程度也越高。根据各传感器数据的重要程度对数据进行融合,得到式(7),从而得到最后的融合结果。

3识别实例与分析

下面用一个三目标双传感器的例子来说明如何运用该法则进行融合。假设存在三个目标 :a1=轻型汽车,a2 =重型汽车,a3 =履带车;

这里的u表示传感器A、B探测目标由于不知道所引起的不确定性。

D-S融合规则时,首先形成一个矩阵,矩阵中的每个元素是相应命题的概率分配值

这两批数据的不一致因子K为:

运用D-S规则对传感器A、B获取的各目标类型概率分配值进行融合:

传感器A、B以及融合后的基本概率值如表1所示,可以看出,通过D-S规则数据融合,探测到类型轻型汽车的基本概率值明显提高,不确定性值大大下降,所得到的结果确实较各传感器分别决策的结果要好,这说明了该方法应用于数据融合目标识别中应用具有良好的有效性和容错性。

4结语

多传感器多目标跟踪 篇4

关键词:无线视觉传感器网络,积分卡尔曼滤波,一致性算法,多目标跟踪

0 引言

目标跟踪是人们运用各种观测和计算手段, 实现主体对被关注运动客体的状态建模、估计、跟踪的过程, 它广泛应用于各种网络。无线视觉传感器网络 (Wireless Visual Sensor Networks, 简称WVSN) 由几个分布式数码相机组成, 通过中央服务器, 它能够处理和分析当地检索到的数据[1]。目标状态的分布式估计一直是WVSN在目标跟踪领域深入研究的课题, WVSN是没有外界中心处理单元具有空间的分布式智能网络。在目标状态中, 摄相机之间协同工作交换信息。第一步, 每个摄相机在视觉场对特殊目标做跟踪。第二步, 摄相机之间进行交换预处理数据, 对于视觉场中出现多个目标, 摄相机通过一致性算法[2]把当地的估计状态汇总到一个联合状态。文献[3]整合一致性算法到一个分布式卡尔曼滤波器, 产生卡尔曼一致性滤波器。但是卡尔曼滤波器在文献[3]中为了跟踪目标, 假设了一个线性状态模板。但是真实目标的运动有些是非线性行为, 不敏卡尔曼滤波 (Unscented Kalman Filter, 简称UKF) [4]基于目标跟踪中被用。UKF的缺点是很难对实现一个概率密度函数的非线性变换, 在那种情况下, 扩展卡尔曼滤波 (Extended Kalman Filter, 简称EKF) [5]用于目标跟踪中。EKF缺点是有限的精确度, 由于固有的线性误差, 更多有效的非线性滤波器比如粒子滤波 (Particle Filter, 简称PF) [6]算法, 它是采用随机采样的方法获取粒子, 然后用大量粒子来近似状态变量的后验分布。该算法在强非性系统中能够取得较好的滤波结果, 被用于分布式目标跟踪, 但是它和卡尔曼滤波、不敏卡尔曼相比最大的问题是具有相当高的计算复杂度。最近积分卡尔曼[7]对于非线性状态估计在计算方面有非常好的成效。

本文目的是在重叠的视觉场中提出基于WVSN的积分卡尔曼滤波目标跟踪算法。因为校准好的每个数码相机在视觉场中能够删除也能跟踪目标, 它能够衡量在图像平面中的目标位置坐标。在监控的视觉场中, 数码相机用积分卡尔曼滤波状态估计来计算本地目标的位置状态, 然后数码相机之间交换在当地所估计的目标状态, 参与的监控数码相机应用一致性算法把接收到的状态值汇总到中央处理器, 最后通过中央处理器共享数据。所以在无线视觉传感器网络中, 所有的监控数码相机都可以了解到网络中所有目标运动产生的线性或者非线性的全局状态。在非直线运动的状态下, 积分卡尔曼滤波器算法在均方误差方面表现出比EKF算法更高的跟踪精度。虽然PF算法比积分卡尔曼滤波算法表现出更好的性能, 但是PF算法计算非常复杂。

1 系统模型与一致性算法

1.1 系统分布式结构

无线视觉传感器网络的分布结构如图一所示。

在系统任务中, 可把无线视觉传感器网络看作是一组固定校准好的摄相头si, i=1, 2, …, 图一说明了重叠视觉场中, 一部分小区中, 单个摄相头自身就有能力分析和处理检索到的当地数据[8], 当地数据经过中央服务器的处理共享到各个数码相机中。单个摄相头可以完全观察到在当地的目标运动期间的轨迹, 无线视觉传感网络的任务是监控当地所提供的环境并跟踪想要跟踪的目标Tj, j=1, 2, …。这是在网络中的每个摄相头si在执行分布式跟踪算法实现的。因为那些摄相头是已经校准好了的, 在任何一个摄相头中的目标重新识别是分布式跟踪的典型特例。在重叠的视觉场中, 它们各自在地面上完成重新识别任务, 在跟踪过程中互相交换信息, 尤其是外观特征值。因此, 我们可以重新识别目标Tj的状态, 包括其位置和速率。所以, t时刻状态可以描述为xtiλ=[x y vxvy], 目标T, 摄相头S。运动模型如下:

式 (1) 中, ax, ay分别是目标加速度, 它们的方向由独立同分布的高斯白噪声协方差Φtiλ的向量模型决定。l是两个量测值的时间间隔, viλXt-1是目标x在t-1时刻的状态向量, viλYt-1是目标y在t-1时刻的量测值。因此, 目标状态的估计值是从一组每个时间步长t所取的量测值。这系统量测值等式为:

式 (2) 中, 协方差为Ωtiλ, 是独立同分布协方差的量测噪声向量, 协方差为Rtiλ, 量测函数Btiλ是非线性的, 每个摄相机都具有其独特的定义和功能。该功能能够把地面的图像转变成目标的坐标。

1.2 一致性算法

一致性算法描述了一个状态xtiλ的协议, 在视觉场中, 摄相机里面有同样的目标, 形成重叠的视觉场图, 用Mi定义:

式 (3) 中, V描述了动态图G= (V, E) 的顶点和边。Adjacency={weight}表示G的邻接矩阵。它描述了一个事实:摄相机Si和摄相机Sj能映射共同的一些目标, 摄相机之间有重叠的视觉场, 每个摄相机Si相邻数量是由G决定的, 而且di=|Ni|。

要形成一致性算法, 那就必须减少单个摄相机Si跟踪时候输出的偏移量, 而且那些偏移量可能产生不同的效果, 比如距离、摄相机对准目标的方向, 还有可能受到静态或者动态障碍物的遮挡。应用一致性算法, 目标Tλ全局状态在时间t, 每个摄相机Si被更新, 即:

式 (4) 中, weights∈{0, 1}代表通信链路的权重, 在定义的方法权重和邻接矩阵adjacency是一致的。理论上定义:

但是实际上, 它最多只能达到迭代的给定数目内的预定阀值, 最终联合状态和个别状态进行比较, 联合状态是更接近真实目标状态, 而且在那种情况下性能更优化。

2 有序的非线性贝叶斯估计

从时间1到t, 贝叶斯最小均方误差方法估计状态向量xtiλ为后验概率密度函数p (xtiλ/x1tiλ) 提供所有的量测值[9]。在此条件下, 贝叶斯估计在每个时间事例t中有两个主要步骤:

(1) 状态预测

在t-1时刻, 预测t时刻的后验概率:

(2) 预测更新

接受到量测值后对预测状态更新:

根据线性假设和加性高斯噪声, (6) 和 (7) 的积分可以详细解决卡尔曼滤波的结果。但是如果系统模型是非线性的, 比如摄相机在移动动态跟踪的情况下, 那么这些积分是很难求解的。非线性状态估计粒子滤波和积分卡尔曼滤波是用来最大化积分求解的。

在图一中, 每个数码相机 (s1, s2, …, si) 之间构成一个无线视觉传感器网络, 把每个数码相机看成无线视觉传感器网络的节点, 数码相机报告跟踪结果和各个目标的状态, 把结果传达到中央处理器节点。摄相机具备有限的扫射监控的区域即存在重叠的视觉场, 图一列举了7个数码相机的所管辖的区域, 多目标 (T1, T2, …, Tj) 的状态包括其各自的位置以及地面上的速率, 它们在监控区域内做线性或者非线性的运动。

3 分布式多目标跟踪算法

3.1 积分卡尔曼滤波器思想

几个非线性状态估计方法, 比如EKF、PF是通过估计目标状态来提高跟踪进程。要做到完成一个更好的非线性状态估计, 就状态精确度和复杂度方面, 我们提出在视觉场中的分布式目标跟踪的整合卡尔曼滤波器。由于摄相机有些是相反摄相的效果, 用一致性算法增加目标状态的可靠性。然后, 基于CKF估计每个目标Tj的状态, 摄相头si先观察到目标Tj后, 交换当地摄相头之间的估计值, 然后用一致性算法汇总当地状态到全局状态, 在视觉场里, 摄相头获取目标信息, 由中央处理器处理数据共享信息, 达成一致的信息。

3.2 CKF算法步骤

CKF提供了一个近似的贝叶斯滤波器, 在贝叶斯的条件下, 进程和衡量值等式是非线性加性高斯噪声。将 (6) 和 (7) 的积分变成多维高斯加权积分:

积分的形式没有封闭形式的解决方案, 一方面, 存在几个数值逼近方法, 比如蒙特卡罗逼近、网格和基于网络的方法, 还有无迹交换都可以解决这些问题。非线性滤波器有效性大大依赖于所有逼近方法的有效性。CKF用三维数值积分规则来近似形式积分 (8) , 这个规则使用球半径改造的变量从直角坐标系转换到径向和球面坐标系:x=rz, zTz=1, xTx=r2, r∈[∝) , 经过变换后, 式 (8) 变成:

式 (9) 中, τn是n维单位球面, dσ (z) 是单位球面的量测值。积分形式在数值上接近于球状积分规则, 正如:

式 (10) 中, n是向量x的维数;ψi是位于该n维单位球和其轴表面交点的第i个数值上的积分点。这规则可应用于解决预测值和后验概率:

简化改进的CKF算法通过以下的步骤实现 (为减少书写符号带来的复杂度, 用xk代替xtiλ) :

由 (1) 得p (xt/xt-1) 解。用CKF预测状态值, 均方根误差协方差 (RMSC) 可以通过下面的公式计算:

每个数码相机节点i (i=1, 2, …, N) 用CKF估计交换它们各自要监控的特殊目标的状态值, 数码相机通过一致性算法把预测到的状态值汇总, 把数据传给中央处理器实时监控当地状态, 共享数据到各个数码相机节点中。

4 实验仿真

与EKF, UKF, PF[10]基于分布式目标跟踪的比较, 其中参与粒子滤波数为1000, Monte Carlo仿真50次, 计算不同时刻的均方根误差 (RMS) , 其中位置分量的RMS计算公式为:

式 (12) 中, 表示第i次Monte Carlo仿真过程k时刻目标位置估计值, 表示相应时刻目标位置真实值, N表示Monte Carlo仿真次数。我们重点研究CKF基于分布式目标跟踪的有效性和复杂度。而所提出的分布式目标跟踪整体有效性依赖于算法的有效性。整体仿真把视觉场看作是7个摄相机, 它们有重叠的视觉场, 所有摄相机可以观察到x∈[0, 500], y∈[0, 500]平面。用恒定的高斯分布加速度速率做建模表示目标的运动, 实时的对目标不确定性运动建模, 在仿真中考虑到进程噪音协方差, 每个摄相机有其各自功能处理函数。由于假设摄相机固定, 摄相机自身的功能函数不会随时间和目标改变, 对不确定各个数码相机的功能函数建模成加高斯噪声方差。

4.1 位置分量的均方根误差和时间复杂度评价准则

位置均方根误差 (RMSE) 是指目标真实的和估计的x, y方向位置的均方根误差。该值是个标量, , 其中N是滤波过程中采样次数, x, y分别表示目标位置的方向分量。

算法的时间复杂度是指执行算法所需要的计算工作量。为比较多种算法时间复杂度高低可以采用算法在执行过程中所需要的基本运算次数来衡量[6]。在实际应用中, 考虑时间复杂度计算中基本运算次数分析困难, 通常把计算机仿真过程中算法运行的平均时间作为度量标准。计算公式为, 其中Tistart表示算法进行第i次仿真时的开始时间, Tiend表示算法进行第i次仿真时的结束时间, N表示算法进行蒙特卡罗仿真总次数。

4.2 实验结果

图二比较说明了四种算法的整体有效性, 用均方根误差来体现。图中清楚的显示了分布式目标跟踪的PF比CKF、EKF、UKF更优越, 同时CKF比EKF、UKF更优越, 但是PF计算复杂度太高。

表一比较了四种算法的平均均方根误差和复杂度, CKF平均均方根误差最低。复杂度用执行时间来说明, 粒子滤波数目用1000, PF比CKF复杂50倍, EKF、UKF没有CKF复杂, 但是CKF特征点精确度更高。

表二比较了单个数码相机基于四种算法目标跟踪的均方根误差, CKF误差较小且较稳定, EKF、UKF误差较大, PF虽然误差最小, 但是它计算量太大。表二也说明了多个数码相机对目标预测的真实状态值要比单个数码相机预测值更精确。当单个数码相机跟踪目标时, 因为精度和复杂度是目标跟踪的两个主要因素, 视觉场也包括了嵌入式平台, CKF基于分布式目标跟踪在EKF、UKF和PF算法之间应该是个比较好的选择。

5 结束语

本文采用基于积分卡尔曼滤波器的分布式目标跟踪算法, 用于已校准好的数码相机对视觉场中的目标进行跟踪。把无线视觉传感器网络中的每个数码相机看成节点, 他们分析处理数据后, 通过一致性算法交换他们当地的估计状态, 估计状态值最后通过中央处理器把当地状态汇总到局部状态, 从而达到实时共享数据资源的目的。因此当算法结束时, 所有的数码相机就都了解到了在网络中产生的所有目标的全局状态。一致性算法也提高了跟踪的有效性。通过减少由于相反摄相机跟踪对象拍摄产生的效果, 比如快速运动产生的。而且我们比较了CKF、EKF、UKF、PF仿真分析的有效性。结果显示, CKF比UKF、EKF有效性高, PF比CKF、EKF和UKF有效性高, 正如UKF可以被认为是一个推广的EKF, 粒子滤波器也可以被认为是一个推广的UKF, 给定足够多的粒子, PF总是表现得比CKF、EKF、UKF要好, 但是PF计算复杂。因为在视觉场中的目标跟踪中包括了嵌入式平台, 其复杂度和精确度相当重要。

参考文献

[1]2008 Second ACM/IEEE International Conference on Distributed Smart Cameras, Stanford, CA, USA, September 7-11, 2008 ICDSC 2008.

[2]Lewis Tseng, Nitin H.Vaidya:Byzantine Convex Consensus:An Optimal Algorithm.Co RR abs/1307.1332 (2013) .

[3]Junbin Liu, Tim Wark, Steven Martin, et al.Distributed object tracking with robot and disjoint camera networks[J].Per Com Workshops, 2011.

[4]熊伟, 张晶炜, 何友.分布式不敏卡尔曼滤波状态估计技术[J].吉首大学学报 (自然科学版) , 2005, 26 (04) :15-20.

[5]Haitao Zhang, Shaojie Tang, Xiang-Yang Li, et al.Tracking and identifying burglar using collaborative sensor-camera networks[J].INFOCOM, 2012.

[6]陈金广.目标跟踪系统中的滤波方法[M].西安:西安电子科技大学出版社, 2013.

[7]Huimin Chen.Adaptive cubature Kalman filter for nonlinear state and parameter estimation[J].FUSION, 2012.

[8]Honggab Kim, Marilyn Wolf.Distributed tracking in a large-scale network of smart cameras[J].ICDSC, 2010.

[9]Edoardo M.Airoldi, Thiago B.Costa, Stanley H.Chan.Stochastic blockmodel approximation of a graphon:Theory and consistent estimation.Co RR abs/1311.1731, 2013.

多红外传感器观测系统跟踪精度分析 篇5

关键词:被动观测,集中式融合,扩展卡尔曼滤波,克拉美-劳下限,跟踪精度几何分布

1 引言

随着科学技术的发展,电子战已成为争夺现代战争主动权的核心内容之一。红外等被动多传感器观测系统具有抗电子干扰、抗隐身航空兵器、抗反辐射导弹、抗低空突防的能力,作为雷达的补充战时可发挥巨大作用,有利于争夺电子战的主动权。开展多红外传感器跟踪技术的研究,对提高区域防御系统的生存能力,有效反击能力及在战争中争夺制空权具有极其重要的军事意义和实用价值[1,2,3]。

红外传感器仅能得到目标的方位/俯仰信息,属于不完全观测,在直角坐标系下系统的测量方程是非线性的,是一个弱可观测非线性系统[4]。针对红外观测的非线性,经典算法是扩展卡尔曼滤波(EKF,Extended Kalman Filter),它通过对非线性测量函数的泰勒展开式作一阶线性化阶段,将非线性问题转化为线性问题处理。对于红外观测的不完全性,解决途径有两种:一是采用移动单红外传感器进行连续观测(如机载或舰载红外传感器),这种方法要求载机/舰的运动阶数要高于目标,且载机/舰与目标运动不能在同一直线上;另一种方法是采用地面多静止红外传感器同步观测,通过数据融合得到目标位置估值。其中,多传感器融合跟踪以其搜索范围大,作用距离远和可靠性高的特点,越来越受到人们重视[5,6]。多传感器融合主要有分布式(航迹融合)和集中式(量测融合)两种结构。其中,集中式融合跟踪由于其跟踪精度高,实时性强等特点被广泛使用。本文采用EKF与集中式融合相结合的红外被动目标跟踪算法,给出了算法的克拉美-劳下限(CRLB,Cramér-Rao Lower Bound),并提出多红外传感器观测系统的跟踪精度几何分布(GDTE,Geometrical Dilution Tracking Error)概念,通过分析系统参数对GDTE的影响,给出了提高系统性能的措施。

2 跟踪过程的CRLB

CRLB是对跟踪问题的有意义的评价,它表示任一无偏估计的误差下限或精度上限。通过CRLB可以评估系统的性能。我们首先给出观测系统的CRLB概念,然后介绍多红外传感器观测系统的CRLB。

对于观测系统,通过k次观测获得的测量集为zk={zj|j=1,…K},用它对x∈Pxn估计的似然函数为

估计的CRLB为

其中记号E[⋅]是统计均值[5]。

下面讨论多红外传感器观测系统的CRLB。

图1给出了第j次观测红外传感器Si(i=1,…n)与目标的几何关系,观测站数目为ns,第j次观测时测站Si测得的目标的方位角为βj,i,俯仰角为εj,i,可得:

则系统的测量方程为

其中:为观测向量,为传感器iS的位置,为第j次观测时的目标位置,为测量噪声,其协方差为

3 基于EKF的集中式融合跟踪

设目标作匀速直线运动,系统的状态方程和观测方程如下:

其中:为目标状态矢量,A为目标状态转移矩阵,I为单位矩阵,T为系统采样周期。Hj为经EKF算法线性化量测矩阵,在滤波预测值处线性化,展开成泰勒级数,略去二次项后得

基于EKF的集中式红外被动目标跟踪算法如下[6]

给定滤波初始值,状态一步预测:

状态估计误差协方差阵的一步预测:

集中融合的状态估值误差的协方差逆阵:

得Kalman滤波增益阵:

事实上,对于系统噪声wj=0的EKF来看,其状态估计的协方差Pj|j的形式和式(15)相同。但在式(15)中Hj(xj)是在真实点xj处计算的,故可以看出,BCRLB(j)是EKF跟踪误差的下限,它可以通过EKF的公式通过递推计算出来。即:

运用CRLB的表达式及其递推形式,可以分析目标航迹中任一时刻的状态估计精度上限。对于一些几何对称航迹,有可能获得精度上限的解析表达式。以下就对多红外传感器观测系统的定位跟踪滤波器的性能作进一步分析。

4 目标跟踪精度分布

通过上述分析,我们知道对于某一特定航迹,可以通过递推的CRLB公式推算跟踪过程的精度,当要全面分析比较整个区域内对不同航迹的跟踪性能时,仅仅依靠绘制许多曲线来进行比较,不便于得到一个完整印象。为此引出跟踪误差的几何分布(GDTE,Geometrical Dilution Tracking Error)的概念,定义防区内任意目标x的跟踪误差指第j时刻对该目标xj的跟踪误差的CRLB,GDTE即为系统防区的CRLB分布。

5 仿真结果分析

本文采用多静止红外传感器测向,定义基线长度为各地面传感器间的距离,取空中真实目标以0.3km/s的速度从x轴负向水平向x正向做匀速直线运动,传感器的探测距离为20km。图2~图6给出了不同系统参数下的仿真结果。x轴及y轴分别表示二维平面的水平及竖直两个方向,单位千米,三角表示地面静止红外传感器,曲线给出了目标跟踪的GDTE,单位米,图2~5中CRLB值由内至外取值为3、5、8、10、30、50、500,图6的取值为8、10、30、50、500;可以看出系统参数相同的情况下目标与传感器距离越近,CRLB越小,精度越高;最外围曲线表示目标未进入传感器探测范围,CRLB为无穷大(>500m)。

通过比较图2~6我们得出以下有意义的结论:

1)如图2所示,采用两传感器进行跟踪时,当目标在基线及其延长线附近运动时,跟踪误差迅速增大,即两红外传感器跟踪存在盲区。如图3所示,采用三传感器进行跟踪,可以避免出现跟踪盲区的出现,且增大了高精度区域面积,随着传感器数量的增加,高精度区域将逐渐增大,但同时增加了系统费用;

2)比较图3与图4可得,随着基线长度的增加,高精度跟踪区域会增大,但同时导致了整体跟踪区域减小,因此,在进行传感器配置时,应充分考虑基线长度与作用距离之间的相互关系,使系统达到最佳的性能;

3)比较图3与图5可得:随着测角精度的提高,跟踪精度和高精度区域面积都将增大;

4)比较图3与图6可得:随着目标高度的增加,跟踪精度和高精度区域面积都将减小。

基于以上分析,多红外传感器观测系统可以考虑从以下几方面提高性能:

1)增加传感器数目,使融合信息增多,可以有效消除观测盲区,提高跟踪精度及扩大高精度区域面积,但这样会增加系统花费,在系统配置时应综合考虑系统花费与跟踪精度的要求,通常以在满足跟踪性能的前提下花费最小为准则;2)采用高测量精度传感器进行观测;3)由图4与图5比较结果可知,通过多传感器优化布站,即在考虑传感器作用距离的前提下合理调整基线长度,可以有效提高系统性能。

结束语

本文将集中式融合与EKF跟踪算法相结合进行红外被动目标跟踪,给出了多红外传感器观测系统的GDTE,分析了影响系统性能的主要因素,并根据实验结果提出了提高系统性能的方法,对于建设防空告警系统有理论指导意义。

参考文献

[1]Blackman S,Popoli R.Design and Analysis of Modern Tracking System[M].Norwood MA:Artech House,1999.

[2]CHEN Fei,JING Zhong-liang,LI Feng.Analysis and simulation of passive target tracking algorithm under polar coordinates[C].Intelligent Control and Automation,2002.Proceedings of the4th World Congress.Shanghai,China:IEEE,2002,4:2682-2686.

[3]Koteswara Rao S,A Recursive Multistage Estimator for Bearings-Only Passive Target Tracking[C]//Intelligent Sensing and Information Processing,2005.Third International Conference.[S.l.]:IEEE,2005:207-212.

[4]Eli Fogel,Motti Gavish.Nth-Order Dynamics Target Observability From Angle Measurements[J].IEEE Transactions on Aerospace and Electronic Systems,1988,24(3):305-308.

[5]孙仲康,周一宇,何黎星.单多基地有源无源定位技术[M].北京:国防工业出版社,1996.SUN Zhong-kang,ZHOU Yi-yu,HE Li-xing.The Active and Passive Orientation Techniques of Single-Multi base[M].Beijing:National Defence Industry Press,1996.

多区域采样目标跟踪算法 篇6

近年来,基于蒙特卡罗思想的粒子滤波器(Particle Filter,PF)完全突破了卡尔曼滤波器(Kalman Filter,KF)的理论限制[1,2,3],成为研究非线性、非高斯系统最优估计问题的热点和主流方法,在数字通信、计算机视觉、机器学习及自动化控制等领域有着广泛的应用前景[4,5,6,7,8]。自20世纪50年代提出并推广粒子滤波方法以来,粒子退化现象始终是未能避免的最大缺陷,严重地制约着粒子滤波器的性能[1,9]。围绕这一制约点,国内外学者展开了大量的研究工作,掀起了一股研究热潮,先后有许多改进算法被相继提出。1993年,Gordon等[9,10]将重采样思想引入到粒子滤波递推过程中,在一定程度上缓解了退化问题,但重采样又带了新问题,大权值粒子多次复制的同时小权值粒子被剔除,从而出现样本枯竭现象,粒子集的多样性变差,难以有效描述目标后验概率密度,滤波精度下降,目标跟踪算法失效。

往往应用于视觉跟踪中的粒子滤波算法是基于单区域采样的,单区域采样容易出现粒子退化现象,经过若干次重采样后所有采样粒子的目标模板特征趋于单一性,最糟糕的情形就是采样样本集中的所有新粒子的目标模板实际上就是一个较大粒子的后代,以致使新样本集出现粒子枯竭问题,丧失样本粒子的多样性,视觉跟踪精度逐步降低,多次迭代下去,必然会引起跟踪性能下降,甚至目标跟踪整体失败。本文从单区域采样的不足出发,采用多区域采样[11,12,13]来改善粒子退化现象,并且较好地保持粒子多样性。多区域采样的特点是每次迭代过程中的粒子采样来自于不同的目标区域,不同区域的目标模板在视频中每一帧描述目标的能力是不相同的,互补的粒子样本空间能够更加有效地表征目标状态,比单一性的单区域更能适应跟踪场景的变化,尤其是采样区域取自目标的不同位置,在目标扭曲、光照变化及遮挡等复杂条件下识别能力更强,系统跟踪性能更优。实验结果表明本文所提出算法的有效性和优越性,比单区域目标跟踪方法有更好的跟踪鲁棒性和场景适应能力。

1粒子滤波算法原理

目标跟踪系统的状态转移模型和观测模型分别为 其中Xk表示k时刻目标状态值;Zk表示k时刻目标状态观测值;Uk-1和Vk为独立同分布的零均值过程噪声和观测噪声。

粒子滤波是一个贝叶斯递归滤波过程,能有效解决非线性和非高斯系统问题,其主要思想就是利用一组具有权值的随机粒子逼近目标状态的后验概率分布,当采样点数量趋近于无穷大时,粒子滤波就是最优贝叶斯估计。假设在k时刻采样粒子和权重分别为: 那么后验概率密度函数可以近似地表示为其中δ(·) 为Dirac-delta函数,在序列重要采样(Sequential importance sampling, SIS)算法框架中使用重要性密度函数π(· ),则权值的递推计算式为

根据蒙特卡罗原理可以得到在k时刻目标状态可以近似为

2系统状态转移模型

系统状态转移是粒子滤波算法中的粒子传播过程,主要是指跟踪中目标状态的时间更新过程。根据贝叶斯理论,采用这个状态转移模型可以预测系统状态在k时刻的后验概率密度函数。但是,一般来讲视频目标跟踪中不太容易获得精确的目标运动特性,以使系统状态转移模型难以建立和推测,较好的状态转移模型可以为目标跟踪带来有效的帮助。本文由于主要体现多区域采样的性能和优势,因此选择最简单的随机运动模型,可以表示: 其中:Xpre、Xk-1分别为k时刻的预测状态向量和k-1时刻的系统状态向量,而 X={x,y,w,h },( xy), 表示目标模板的中心点位置,( wh), 表示目标模板的高度和宽度;Uk-1为零均值高斯白噪声,Rk是粒子传播半径,它的大小正比于前t个时刻目标平均状态变化,可以描述为其中C是比例常数。

3多区域采样跟踪算法

为了能较好地提高目标状态空间质量,采用多区域粒子采样方式来代替单区域方式,把采样空间根据目标模板特性进行多区域划分,利用每个子区域特征在目标跟踪过程中具有阶段高区别性的优势及相互之间的互补性来提高采样粒子的有效性,提高目标跟踪系统的性能。下面就常规采用的单区域方式特性及其缺陷进行分析,以引出可以较有效地解决跟踪中粒子退化和贫化问题的多区域方式。

3.1单区域采样方式及其缺陷

在基于粒子滤波算法的视频目标跟踪中,首先需要在跟踪算法迭代前提取目标模板,用于描述跟踪目标特征及粒子相似度权重计算,对于粒子收敛性和目标跟踪精度是至关重要的,一旦目标模板描述能力弱或计算误差均会引起粒子退化现象及跟踪失败。在常规跟踪算法中常采用单区域采样方法,这种方法所采用的单一模板贯穿于整个目标跟踪迭代过程中,系统的鲁棒性及稳定性完全取决于目标模板质量及采样区域的受干扰程度。单区域采样方法的最大特征是单一性,所谓单一性主要表现在:

1) 目标模板的单一性:在迭代跟踪前首先生成由单点提取的目标模板特征,后续跟踪中可以采用相关方法更新目标模型,但目前为止还没有非常有效的更新策略,容易更新过度或不足,均将影响到系统跟踪质量。而且不管如何更新,匹配模板只有一个。

2) 候选模板的单一性:在跟踪算法的各个迭代步骤中也是单点获取候选模板特征,用于和目标模板比较计算粒子的权值。各个粒子经过系统状态转移方程迭代计算后虽然是一个样本集,是一批围绕在状态中心周围的粒子,但所描述的候选目标是单一的,即使多模板组合形式最终融合计算后也是呈单一性,只是代表目标的权重大小不同而已。

3) 状态空间的单一性:状态空间中的粒子样本所描述的粒子是采样自单点及周围重要性采样区域,所描述的目标特征也是单一的,拥有不同权重存在于状态空间中,共同描述目标的当前状态。单一特征及描述的单一性,使整个状态空间也呈单一性,目标描述能力及跟踪场景的复杂性将会影响状态空间的质量。

图1(a)为单区域采样情况,粒子迭代过程中使用单一目标模板,各个采样粒子围绕着目标中心状态,经过多次迭代计算,不可避免地产生粒子退化现象,利用重采样可以改善退化问题,但容易引起粒贫化,如图1(b)为退化现象情形,而且是采用了重采样方式后的一种糟糕情形,具体可能表现为除了少量对跟踪支持很小的小权值粒子,其他粒子都是从一个大权值粒子所派生,这种过度的重采样造成了粒子贫化现象,使样本空间中所有粒子不但不能很好地描述目标状态后验概率密度,而且浪费计算资源。

3.2多区域采样方式

从上面分析看来,单区采样方法状态描述能力更集中,但单一性是整个系统性能的瓶颈,单一模板的好坏及状态空间的质量将决定目标跟踪的精度和效果。本文所提出的多区域采样方法就是从提升目标状态空间质量及复杂环境适应能力出发,把目标状态空间利用多点采样划分成多个采样区域,每一个采样区域对应一个目标模板,模板大小和位置可以采用重叠划分机制。这种选取方式在粒子采样中具有较好的优势:

1) 重叠划分机制可以使目标模板有效性更强,不受到划分数量和目标大小影响,可以包含更多的像素信息,粒子有效性得到保证就能较好地抑制粒子退化现象。

2) 重叠划分可以使各个子块子间的联系性更强,多个区域能够有效地融合起来,使跟踪中目标不丧失整体性,可以较好地避免局部误差,比相互独立的均匀划分更具有优势。

3) 阶段高区别性,各个阶段所划分的子区域特征与场景中其它部分特征区别性更强,未经划分的整体模板容易受到相似像素干扰,影响匹配精度,但有效划分后的子区域特征比模板整体特征更鲜明,更容易得到模板的匹配峰值。阶段性更体现在某一时刻这个子区域具有很高的区别性,另一时刻另一个子区域具有很高区别性,整个过程的任何一时刻总有一个及一个以上的子区域具有高区别性,对目标识别支持度很高。

4) 随着目标跟踪的进行,各个子区域在不同场景中是互补的,区别性较高的子区域能修补同背景相似或受干扰子区域带来的误差。

5) 利用不同子区域之间存在的天然联系可以提高目标跟踪定位精度,修正模板匹配误差,提高跟踪系统的鲁棒性。

图1(c)为人脸跟踪中的一种粒子多区域划分方式,在划分时选取目标中有特色子块,如头发,眼睛、衣服等,各个特色子块选取原则是:唯一性和互补性。唯一性是某一时刻子块在整个视频场景中具有较高的区别能力,最好是唯一区别性,在某一跟踪阶段其本身特征鲜明,和背景元素及其它运动对象相互区别。互补性是指各个子块在粒子传播过程中某一个作用降低时,另外的支持程度保持较高,以使整体跟踪能适应遮挡、光照变化及场景更换等复杂情况。图1(d)为图1(c)的多区域采样示意图,把样本区域按不同子块进行划分,利用区域间的唯一性和互补性来提高目标状态空间质量,总体上提高目标跟踪算法的性能。

3.3目标状态估计

采用多区域粒子采样经过状态转移后,目标可以由多个区域内粒子联合表示,但每个区域对于目标最终状态估计的贡献度都是不相同的,各个区域在粒子传播过程中受到目标形变、光照变化、遮挡及场景复杂性等条件影响,本文采用区域置信度来描述每一个区域对于目标最终状态的作用。区域置信度计算时采用简单直观的Bhattacharyya相似度系数来度量,如下式所示:其中:iq是第i个子区域目标模板特征向量,ip是第i个子区域采样粒子特征向量。b是模板特征向量的柱条数量。那么最终目标状态可以这样估计:其中:i是由每个子采样区域所估算的子状态, m为划分的采样区域数量。

4本文算法详细步骤

在粒子滤波框架下,提出多区域采样方法,利用每个区域的特性估算目标状态,能够较好地改善粒子退化现象,并解决粒子多样性问题,以便实现最佳粒子滤波,提高目标跟踪系统的性能,适应各种复杂情况的变化。其算法的具体实现步骤可以描述为

Step 1初始化阶段

根据目标情况和特性构造m个子区域,并提取各个子区域的目标模板特征{qn}mi=1,从所有子区域中抽样出N个粒子,那么每个子区域的粒子可以初始化为 是对应粒子权值,且wio=m/N 。

Step 2过程状态转移

根据式(6)预测下一帧视频中的目标运动状态。

Step 3多区域粒子采样

根据重叠划分区域进行多区域采样粒子及相应权值更新。

Step 4计算子域状态

根据子域内的采样粒子及其各自权值计算各个子区域的目标子状态。

Step 5计算子区域置信度

根据式(8)计算各个采样子区域的置信度。

Step 6目标状态估计

根据式(9)估计目标当前状态。

Step 7对退化子区域进行重采样,返回步骤Step 2。

5实验结果与分析

为了验证本文算法的有效性,选用相关视频序列构造粒子多采样区域并实现视觉目标跟踪,在Pentium Dual E2140 CPU,1G内存的PC机上,用Matlab 7.0编程实现跟踪并比较运行结果,分析算法性能。下面采用三组实验来验证本文所提算法的有效性和优越性。第一组和第二组主要测试多区域目标跟踪方法的性能,并和单区域目标跟踪方法进行比较,以说明本文算法所具有的优势,第一组实验为复杂场景中人脸跟踪,第二组实验为运动人体跟踪。第三组实验主要测试本文所提出算法对于跟踪中遮挡情况的适应性和收敛性。

第一组实验视频序列采用人脸视频序列(128×96),对复杂背景中的运动人脸目标进行跟踪。这组实验测试中采用4个子区域粒子采样方式,目标模板的重叠子块划分方式如图2(a),模板的各个子块分别采用区别性较大的元素来划分,如头发、皮肤、颈部及上衣,以获得更好的阶段性区别优势。图2(b)为人脸跟踪中前100帧视频序列的区域置信度曲线比较,从图中的曲线变化情况可以看出各个子区域的置信度在粒子传播过程中是互补的,一个区域的置信度受到影响而降低,而另几个区域保持了较高置信度以保持每次采样粒子质量,置信度高的子区域必然对最终目标状态估计支持更高,从而来提高目标定位精度。

图3中为人脸视频的单区域目标跟踪方法和多区域目标跟踪方法的实验结果比较,从图中可以看出本文所提出的多区域采样方法跟踪效果更好,目标定位更加精准。人脸在视频变化中由于运动旋转而导致目标像素信息发生变化,采用单区域采样方法,模板的局部受到目标及场景变化而影响,从而给目标整体模板计算带来了干扰,以致使最终匹配精度下降,如第98帧背景中的箱子颜色和皮肤相似导致跟踪错误,第248帧的轮椅与头发颜色相似也引起匹配错误。而采用多区域采样跟踪方法由于采用的重叠区域划分方法,子区域的互补性提高了粒子整体质量,高置信度的粒子精度更高,对目标支持程度更强,从总体上提高了目标跟踪系统整体性能。当箱子的颜色与皮肤相似时,可以利用头发子区域、上衣子区域来提高目标跟踪整体的精确度。所以本文所提算法在目标旋转变化等复杂情况比单区域方法跟踪效果更好。

表1中给出的是500帧人脸序列跟踪中目标中心坐标(X、Y)的均方根误差(Root mean square error,RMSE),表中数据通过20次实验所计算而得到的平均值,单位为像素。从表中可以看出,本文所提出的多区域目标跟踪算法的RMSE值明显要优于单区域目标跟踪算法,由于在跟踪中单区域计算存在弱点,在中间过程由于相似误匹配或背景影响而导致目标丢失,从而引起所计算的RMSE值严重偏大,本文算法明显收敛性更好,精度更高。

第二组实验视频序列使用网球运动员比赛视频(352×240),对视频中运动员人体进行跟踪。这组实验采用5区域划分方式,如图4(a)所示。由于在比赛中运动员需要跑动及身体各个部位的摆动,所以目标在整个跟踪过程中是不断发生变化的,外观和场景的变化速度较快,而且目标模板中极易融入各种背景信息,所以对目标相似度匹配计算影响较大。此实验中重叠子区域划分分别按头部、运动员上衣、运动员手臂及运动员双腿来划分子块,把阶段优势更好地体现出来,每一个跟踪时间段总有一个区别性更高的子模板存在。图4(b)为前100帧跟踪过程中5个子区域的置信度比较,各个子区域由于自身的特性也呈现出互补优势,良好的互补性可以通过区域置信度融合子区域状态以获取目标最终状态。

图5为两种采样方法对于网球运动员比赛视频中人体跟踪结果的比较。单区域目标跟踪方法由于受到目标形变太剧烈而跟踪质量较低,而且由于目标模板中融入了部分背景信息将会较大地影响跟踪算法中的相似度计算,降低总体匹配质量,所以在开始时期尚能勉强跟踪,但算法目标定位精度较差,随着各帧误差积累,从而造成后面跟踪中丢失目标,最终算法失效。但采用多区域目标跟踪方法其算法运行效果明显好,每一帧定位较精确,由于采用了多区域粒子采样方法,人体发生形变时仍然有子区域保持着较高的匹配质量,那么此子区域的采样粒子对目标状态估计支持程度更高,跟踪系统的整体性能必然将有效地提高。

( 从左至右,从上至下依次为第 45, 91, 104, 108, 138, 209, 221 和 234 帧 )

表2中给出的是280帧运动员序列跟踪中目标中心坐标(X、Y)的均方根误差(RMSE),表中数据通过20次实验所计算而得到的平均值,单位为像素。从表中可以看出,本文所提出的多区域目标跟踪算法由于分区域采样,当目标发生扭曲或自遮挡时,定位精度更好,从而使跟踪整个过程中不丢失目标,所计算的RMSE值要小于单区域目标跟踪算法。

第三组实验视频序列针对发生遮挡的视频目标时进行跟踪,以测试本文所提算法对目标遮挡的适应性及收敛性。从图6中的跟踪结果中可以看出本文算法在目标局部遮挡及短暂整体遮挡具有较好的跟踪精度。由于采用了多区域采样方法,当跟踪目标被场景中其它物体遮挡时,将会丢失部分像素信息,整体匹配受局部影响而精度下降。而采用多区域划分目标模板,则必然有子区域的像素没有被遮挡或已部分恢复,这些子区域采样的粒子必然有效性较强,对目标位置的精确定位支持程度较高,从而可以确保在目标被遮挡时仍然保持着鲁棒的跟踪效果。

( 从左至右,从上至下依次为第 82, 83, 84, 86, 423, 440, 443 和 461 帧 )

结束语

随着计算能力的快速度提高和硬件成本的下降,粒子滤波算法在非线性、非高斯系统的精确跟踪优势越来越受到多方面的关注,应用更加广泛,但粒子退化现象和样本贫化是该算法始终没有很好解决的一大缺陷。本文试图通过细化采样空间,通过多区域采样方法更保持每一时刻的粒子有效性和多样性,采样粒子的目标状态描述能力的提高必定会改善目标跟踪算法的精确度和鲁棒性。各个采样子区域的粒子有效性会随着粒子传播过程而变化,无效粒子的计算不但起不到对跟踪系统的支持,而且会浪费计算资源。根据区域置信度可以来调节不同子区域的粒子数量,高置信度区域粒子数量增加,低置信度区域粒子数量降低,将能改善跟踪质量及算法的实时性。然而通过区域置信度来直接估算粒子自适应性有时容易出现“滚雪球”现象,高置信度区域粒子数量越来越多,低置信度区域粒子越来越少,使跟踪简化成单区域采样目标跟踪方法。在今后的研究中,有效调节子区域的粒子数量,提高系统性能,并且能够防止出现“滚雪球”现象是本文算法继续研究的方向。

摘要:针对传统粒子滤波算法中容易发生的退化现象和粒子贫化问题,提出多区域采样目标跟踪方法。该算法将目标模板用多个重叠子区域划分,每个子区域对应一个采样窗口,根据采样子区域置信度能有效估计出跟踪目标的真实状态,子区域的互补性和阶段唯一性能很好地保证采样粒子有效性和状态空间质量,从而提高目标跟踪的精确度。实验结果表明,本文所提出算法能有效缓解目标跟踪中的粒子退化和贫化问题,提高粒子利用率,并且对目标形变、光照变化和部分遮挡等复杂情况具有较好的跟踪性能。

多传感器多目标跟踪 篇7

关键词:反直升机智能雷,多传感器,声源定位,图像雅克比,视觉伺服

随着现代武装直升机作战性能的不断提高,其高机动性、高灵活性、全天候作战和有效的攻击火力,使之成为现代武器系统和地空联合作战中越来越重要的突击力量。军事雷达很难探测到超低空飞行的武装直升机,且由于其向外辐射电磁波,易被敌方侦查并实施电子干扰。反直升机智能雷AHM(Anti-Helicopter Mine)正是在这种需求背景下提出来的武器系统概念,基本任务是自主探测、识别并攻击敌方超低空飞行的直升机,其布防灵活、安全隐蔽、全天候作战等特点,使之有效弥补了现有防空武器系统的不足[1]。

目前,反直升机智能雷常用的探测手段是复合式探测方法,其中被动声探测技术是主要探测手段。国内在距离探测方面精度还不高,存在难以对目标的位置、速度等信息进行准确估计等缺点。参考文献[2,3]提出基于被动声的直升机定位方法,通过对声传感器阵列的声信号进行处理估算出目标的位置角;参考文献[4,5]提出基于角跟踪方法的AHM跟踪系统,实现了智能雷最佳指向角的估计。以上方法都是基于单一被动声探测体制,而本文将基于图像传感器的电视跟踪系统引入AHM的设计,将被动声目标定位技术和视觉伺服理论有机结合,目标声源特征和图像特征有机结合,实现多传感器、多引导源的智能雷伺服跟踪系统。

1 多传感器AHM的系统结构设计

1.1 多传感器在AHM中的分布

图1是一种多传感器反直升机智能雷示意图,在一个专门设计的二自由度旋转台上,加入声传感器系统和图像传感器系统,其中将1个CCD摄像机安装于AHM弹药部平面中央(如图中黑色圆区域),使得图像传感器位于旋转机构末端,并且CCD靶面中心与战斗部火力中心重合。由5个声传感器组成的声传感阵列安装在AHM本体及四周展开的直支架腿末端,控制板和驱动电路均分层安装在本体内底座中。

1.2 多传感器AHM的系统组成

本文将基于多传感器的反直升机智能雷跟踪系统作为研究对象,构建了一个两旋转自由度的伺服跟踪系统(如图2),以图像传感器、声传感阵列和测距仪等作为目标探测装置,可作俯仰和旋转运动的跟踪转台作为伺服机构,共同组成一个空中目标的目标检测和伺服跟踪系统。

在传统反直升机被动声探测基础上,提出了一种基于图像信息、声音信息、距离信息等多信息综合跟踪算法,使得伺服机构能够在无人干预的情况下自动对准目标,通过对目标特征提取和运动轨迹预测,对空中运动的特定目标,如低空飞行的敌机、武装直升机等,进行精确跟踪。首先将声源定位技术用于低空目标探测和初始定位,当满足武装直升机等目标的声引信特征时,给出目标预警信号并启动视觉跟踪系统转动至该方位;然后进入视频跟踪阶段,进行目标图像处理和特征提取后,预测目标下一时刻的特征轨迹,最后通过推导基于图像信息的视觉伺服控制器,得出战斗部在两个自由度上的旋转角度,转至该位置后引爆战斗部,从而实现反直升机智能雷自主、智能防空作用。

2 被动声定位技术的目标探测

2.1 基于声压特征的低空目标预警

本系统应用中,多传感器AHM智能雷初始化时,只开启低功耗的被动声探测系统,实时检测并计算声传感器的声压强度,当武装直升机低空飞行接近防空区域时,声波大于设定阈值时,认为目标进入防空区域[7],发出预警信号并立刻开启视觉跟踪系统,结合目标声源特征和图像特征再次确认目标。这样既利于减小AHM智能雷系统的整体功耗,又能提高系统整体智能化程度,减少目标探测和后续图像识别跟踪的复杂度,防止AHM智能雷产生误动作。声压级特征定义为:

其中,Pn(t)为t时刻的声压级,单位dB,P为5个声传感器声压均值,P0为参考声压。设声压级阈值为PT,如果Pn(t)>PT,则认为可能有目标即武装直升机进入防空区域。

2.2 五元十字声源定位法求目标位置角

当系统产生预警信号后,需要通过进一步处理声阵列声信号,采用被动声定位算法估计出目标大致方位,并驱动伺服机构迅速转至该角度,使得目标大致出现在摄像机视野中央。对低空飞行的直升机在系统初始状态下进行迅速、准确的定位,是进行后续的运动目标视频检测和跟踪的前提。声源定位方法主要包括到达时延(TDOA)声源定位方法、定向波束形成法和高分辨率谱估计技术等。

由于摄像机一般具有一定范围的可视角,因此目标初始声源定位要求算法简单,实时性好,且易于数字信号处理器的硬件实现。考虑以上要求,采用到达时延法(TDOA)声源定位法,该算法计算量小,易于实时处理,并且实验表明可达到精度要求。

本文采用基于TDOA的五元十字声传感器阵列定位方法[8]。被测目标位于离声传感器较远的低空,可假设目标为点声源,位于远场。平面五元十字阵的阵形结构如图3所示,由五个无方向性的声波传感器0、1、2、3和4组成。其中1、3号传感器线阵和2、4传感器线阵正交,两线阵交点为声传感器0。每组传感器线阵的阵元距离为D。以0号传感器所处的位置为原点建立直角坐标系。目标声源入射波到达阵元1、2、3和4相对于到达阵元0的时间延迟分别记为τ1、τ2、τ3和τ4。目标方位角为φ,定义为目标入射方向在xoy平面的投影与x轴正向的夹角;俯仰角为θ,定义为目标入射方向与z轴正向的夹角,目标距声阵中心o的距离记为R,空气声速为C。由声阵和目标的几何关系并运用余弦定理可导出目标的定位方程如下:

其中式(4)为俯仰角满足最小二乘解的方程。考虑到目标位于远视场,满足R≫Cτi,于是可求得目标俯仰角和方位角:

由式(5)、式(6)求得的φ、θ即为目标位置角和高低角,结合激光测距仪所测得的目标深度信息,可实现目标的三维空间定位。计算出该目标位置角后向电机控制器发送信号,驱动伺服机构系统旋转至该角度后,即可保证敌机出现在摄像机成像中心附近。

3 运动目标的图像处理和特征提取

低空飞行的武装直升机等敌机在经过声源定位后,已处于图像传感器的视场内,通过采集和处理目标的序列图像对目标进行识别和跟踪。考虑空中图像背景相对简单,假设同一时刻图像中只有一个运动目标,并假设运动目标的运动速度要远大于在图像采样周期T内的背景像素的变化,图像处理目标为在目标处于视场中的较短时间内对目标进行锁定并跟踪。由于本文侧重多传感器在AHM系统中的设计和伺服跟踪,而简单背景条件下的目标视频快速跟踪算法在参考文献[9]中叙述较为详细,这里简要叙述如下:首先采用结合二次帧差和自适应背景消除法的综合算法[10]快速运动目标区域,实验证明该方法简单有效,实时性好,不仅能够快速准确地提取出目标,并且能较好地消除背景环境变化带来的影响。检测到运动目标的图像区域后,可以通过计算目标二值图像的图像矩m00、m10、m01,来表示目标图像的中心特征即像素坐标为(u,v):

在跟踪系统对目标跟踪的过程中,由于目标的空间位置、速度状态参量的时变性,伺服跟踪机构执行的滞后性,为了提高智能雷实时跟踪性能,确保目标进入弹药火力的弹目交汇区域,需要对目标下一时刻的形心特征进行特征预测和位置外推,使得伺服电机转角具有一定的超前量,然后以较大速度直至目标预测位置角,可以有效解决上面的问题。将参考文献[11]所述的线性平方综合特征轨迹预测器用于目标形心特征的预测,得到目标的图像预测位置作为期望的图像特征,即为下一时刻目标中心像素坐标,并以此特征作为后续伺服跟踪的图像特征。

4 基于图像特征的伺服跟踪

如前所述,进入视频跟踪状态的AHM系统,通过轨迹特征预测器得到目标下一时刻的图像中心特征,需要通过伺服控制器转换为瞄准直升机预测位置所需要的两个自由度的旋转角,使得目标中心特征坐标落在期望的图像坐标系原点,即可完成视觉跟踪任务。根据基于图像特征的视觉伺服控制理论,将目标期望图像特征与当前图像特征的特征误差转换为旋转机构的转角误差(这里取预测的目标图像中心特征作为当前特征),通过求取系统图像雅克比矩阵,即可将图像空间误差转换为笛卡尔坐标系下伺服机构的关节角运动,从而实现对目标的精确跟踪[12]。

4.1 伺服机构运动学建模

为简化叙述和坐标变换表示方便,将本AHM系统执行机构看作二旋转自由度关节型机器人手臂,摄像头安装在机构末端视作eye-in-hand视觉伺服结构,为系统建立各参考坐标系如图4,分析末端摄像头(即弹药部中心)与各自由度旋转的运动学模型。两个关节角θ1和θ2分别对应智能雷的方位角和俯仰角,空间中一点P对应于基坐标系O中的坐标为(X0,Y0,Z0),对应于摄像机坐标系S中的坐标为(XP,YP,ZP),两者转换关系如下:

坐标系S相对于坐标系O的变换为:

其中s,c表示正弦和余弦函数(以下公式中都采用此法表示),包含伺服机构结构参数l1、l2的变换矩阵0TS即可描述智能雷末端速度与旋转关节角速度的关系。

4.2 视觉伺服控制器推导

下面推导从图像特征空间到机构关节角运动空间的关系矩阵即整个系统的图像雅克比矩阵J,根据机构末端微分运动公式和固定的目标点P在基坐标系下的相对位置不变,得:

即:

假设图像平面中心坐标为(u0,v0),P点对应于图像平面的投影坐标为(uP,vP),根据小孔成像原理可推导出摄像机系统坐标转换关系:

其中kx=ky=k。设,与方程(11)联立,得:

该式将关节角速度与图像特征变化速度联系起来。其中:

为图像雅可比矩阵。

为了使被跟踪运动目标始终处于图像中心,由方程(13)得到基于图像信息的逆运动学控制器:

由目标尺寸的先验知识可知,Zc与图像中所识别出的目标外径成比例,因此在控制过程中不需要知道Zc,只需调整比例参数即可。

通过分析系统执行机构的结构参数和摄像头模型,推导出图像雅克比矩阵用于视觉反馈控制,在图像特征空间获得控制信号,可以获得比普通摄像头球坐标角度跟踪更好的控制精度和效果。另外,考虑伺服机构两个方向转动的电机传动减速比为[R1 R2]T,伺服周期内智能雷跟踪瞄准所需要的各电机旋转角度为:

5仿真和实验

将本文所述的目标多传感器的定位和跟踪算法应用于某新型反直升机智能雷样机中,分别进行声源定位和目标跟踪试验,多次检验均取得较好的效果。

(1)声源定位实验。

图5为40次声源定位实验目标定位结果,其中声源在声波阵列中心上方的由手动控制做近似圆周运动,声阵尺寸D为1 m,经声源定位得到方位角和俯仰角估计误差曲线,图中可以看到:方位角定位比较准确,误差在3°之内;俯仰角定位误差稍大为4°之内,这是由于声阵尺寸较小、声源距离不够远和周围地面、墙等声波反射的影响。跟踪系统经声源初次定位后,目标在图像中的坐标与图像坐标系中心的误差如图6。实验证明经过声传感器定位后,目标与图像中心

误差不超过50个像素,确保目标处于视场中央附近。

(2)目标跟踪实验。

图像处理和特征提取结果如图7所示,图7(a)、图7(b)分别为提取到的目标二值图像和中心特征(图中用“+”表示)。利用图像特征伺服跟踪算法,得到目标形心特征跟踪误差曲线(图8),可以看出除开始的几个跟踪周期和干扰物体接近目标时之外,误差仅在很小的范围内波动。

本文提出了一种用于反直升机智能雷(AHM)的多传感器智能跟踪算法,以实现对超低空飞行武装直升机的自动探测、预警和伺服跟踪。首先通过探测未知环境中声压特征变化进行目标预警,采用传统的被动声传感器定位方法,估算出目标初始位置角后,驱动末端装有摄像头的智能雷对准目标区域,使目标基本处于系统视场中央。然后进入视频跟踪阶段,实时采集处理目标图像,提取出目标运动区域及其中心特征后,以预测的下一时候的中心特征作为视觉伺服的图像特征。最后通过分析系统机构运动学模型和摄像机模型,推导整个系统的图像雅克比矩阵,把目标图像特征变化转化为智能雷两个旋转自由度的转角控制量,以实现对目标伺服跟踪和精确打击。本文提出的多传感器综合算法应用于某AHM跟踪系统中,算法简捷有效,满足对低空运动目标的实时跟踪,提高了系统自动作业能力和智能化水平,但是对如何结合多个传感器信息进行数据融合,以及利用多传感器进行多目标识别和跟踪等问题仍需进一步研究。

参考文献

[1]王勇.反直升机智能雷角跟踪研究及转向系统设计[D]. ??南京:南京理工大学,2005.

[2]贾云得,冷树林,裴洪安,等.一种简易被动声直升机定位系统[J].北京理工大学学报,2000,20(3):338-342.

[3]刘向东,程翔,张河.基于窄带声探测的反直升机雷系统[J].传感器技术,2005,24(1):35-37.

[4]CHAN Y T,REAT A.Passive tracking scheme for a single stationary observer[J].IEEE Transactions on Aerospace and Electronic Systems,2002,38(3):1046-1054.

[5]王勇,王晓鸣,李文彬.一种用于反直升机智能雷的目标跟踪方法[J].南京理工大学学报,2005,29(3):281-284.

[6]LO K W,FERGUSON B G,et al.Aircraft flight parameter estimation using acoustic multipath delays[J].IEEE Trans Aerosp.Electron.syst,2003,39(11 ):259-267.

[7]梁蕻.直升机目标信号建模与预警识别系统[D].北京:北京理工大学,2000.

[8]陈华伟,赵俊渭,郭业才.五元十字阵被动声定位算法及其性能研究[J].探测与控制学报,2003,25(4):11-16.

[9]程相权,郭治,余海,等.一种快速目标的图像跟踪综合算法[J].兵工学报,2001,22(4):496-499.

[10]朱明旱,罗大庸,曹倩霞.帧间差分与背景差分相融合的运动目标检测算法[J].计算机测量与控制,2005,13 (3):215-217.

[11]金芳,李军波,杨勇.基于模板匹配与运动预测的跟踪算法研究[J].微计算机信息,2007,19(7):313-315.

基于多信息融合的运动目标跟踪方法 篇8

关键词:DSmT,合并方法,目标跟踪,冲突信息

0 引言

随着光电侦察设备在现代军用系统中越来越广泛的使用, 图像跟踪技术已成为实现目标定位、目标跟踪和识别的关键技术[1], 而复杂环境下的多目标跟踪则是计算机视觉领域的研究热点之一, 特别是如何在证据高冲突下实现多源信息的有效融合是一个迫切需要解决的问题[2]。Dezert和Smarandache提出的DSm T (Dezert Smarandache Theory—DSm T) , 在辨识框架的基础上改进证据模型, 既能够处理多源信息的模糊性和不确定性也能处理高度冲突性, 现已成为智能系统中处理不确定信息的一种常用的方法[3,4]。研究发现DSm T增加了矛盾焦元, 导致推理过程的计算量大大增加, 针对这种情况国内外学者又提出了一些改进的方法, 有效减小了高冲突信息融合下的计算量问题[5,6,7]。目前, DSm T主要集中在目标识别的相关研究方面[8], 而在跟踪领域方面的研究国内外报道较少。本文拟在DSm T框架下给出一种改进的证据合并方法, 研究复杂环境下的多运动目标跟踪问题, 并进行相应的仿真实验, 探讨该方法的有效性和稳定性。

1 改进的证据合并方法

DSm T提出将证据冲突的焦元选项看作有用信息一律保留来进行融合, 这就从根本上解决了证据理论不能解决证据高冲突的问题。对于超幂集, 设Θ={θ1, ···, θn}是一个由n个完备假设组成的有限集称为广义辨识框架, 超幂集是由以下几个规则定义的集合[3]:

1) Φ, θ1, ···, θn∈DΘ;

2) 如果A, B∈DΘ, 那么A∩B∈DΘ且A∪B∈DΘ;

3) 除了用规则1) 和2) 得到的元素外, DΘ不包含其它的元素。令Θ为一个广义辨识框架, 如果函数m (·) :DΘ→[0, 1]满足如下条件:

则m (·) 称为广义基本信度分配函数, 而广义信度函数和广义似然函数可分别由如下定义给出:式中:Bel (A) 、Pls (A) 分别表示辨识框架Θ上的置信函数和似然函数。

由于超幂集DΘ是通过对辨识框架Θ中的元素进行并和交的运算产生的集合, 需要满足3个条件;而在集合中包含交的运算使得辨识框架中保留了矛盾的焦元。因为DSm T保留冲突焦元增加了冲突焦元的赋值, 所以在很多情况下主焦元的赋值函数难以快速收敛, 这就大大增加了目标跟踪的难度。

综上分析, 本文给出一种将局部冲突在局部进行分配而不是进行全局分配的改进的证据组合方法来实现。即基于文献[6-7]的思路, 将全局冲突细化为r个局部冲突, 如图1所示。在保留冲突焦元的基础上将r个局部冲突在产生冲突的焦元之间进行重新分配, 分配的依据是证据的基本信度指派值和证据的可信度;同时, 基于mass函数引入一个不一致性参数进行修正, 当该参数趋近1时表示证据间剧烈冲突, 冲突大部分分配给涉及冲突的焦元的并集;当该参数趋近0时表示证据间冲突较弱, 冲突大部分分配给涉及冲突的焦元。关于改进的证据合并方法的具体研究内容, 限于篇幅将另文讨论。

2 位置/颜色合并模型的建立

基于上述改进的合并方法, 下面以两个跟踪目标为例, 采用位置和颜色信息来建立多目标跟踪的合并模型。对于两个目标, Θ可被定义为如下形式:

式中:θ1表示第一个目标, θ2表示第二个目标, θ1∪θ2能够代表背景表示静止场景。实际上, 假定θ1∪θ2信息, 然而由于踪迹变化可能会改变, 所以θ1∪θ2作为一个假警告信息的参考。除此之外, 由于可能的隐蔽遮挡问题, 则θ1∩θ2≠φ以及θj∩θ1∪θ2=φ, j=1, 2。

在时刻t-1, 已知通过 (xt-1, 1, yt-1, 1) 和 (xt-1, 2, yt-1, 2) 给定目标位置, 在时刻t, 位于一个粒子的概率, 根据位置信息由下面的Gauss概率公式得到:

式中:σ表示带宽参数, 一个不属于θ1和θ2的给定粒子概率在粒子和两个目标之间总是与距离成反比。

由于Θ完整, 不属于θ1和θ2的粒子一定属于θ1∪θ2, 则可以定义一个新的概率分布函数该函数能够估计成员中一个粒子的虚警假设 (n=1, ···, N) , 可表示为下面的形式:

其中:dmax表示圆心位置在目标1、2中点的最大半径, 该半径包括所有在时刻t-1粒子的踪迹。

根据已知位置, 可得到粒子n的mass函数为下面的形式:

假定已知两个目标模型通过常态彩色直方图{qj (u) }mu=1能够得到, 其中u表示分离的颜色因子, m表示直方图层的数目, 在时刻t, 粒子ts (, nj) 的常态颜色直方图由{ht (, jn) (u) }mu=1给定。根据该颜色直方图, 粒子st (, jn) (j=1, 2) 的概率可由下面的高斯概率分部函数推导得到, 可表示为下面的形式:

定义{qFA (u) }mu=1为当时场景的直方图, 从中减去目标1和2的直方图, 可得到下面的公式:

ts (, nj) 属于虚警假设的概率可用下面公式表示:

基于相应的颜色信息, 由式 (6) 和式 (9) 可得到粒子n的mass函数为

基于上述分析, 通过本文提出的改进合并方法, 可定义出mass函数mt (n) (⋅) 分别为

其中:式 (11) 表示两信息将st (, nj) 和目标1、2关联的置信水平;式 (12) 表示目标1或2与st (, nj) 之间的冲突值以及两种信息满足虚警的粒子响应的置信度;式 (13) 则定量表示了目标和虚警假设之间的冲突水平。

对于目标j, 粒子ts (, nj) 的权重在p (Xt|Zt) 的后验分布区间通过信念函数 (或似然函数) 可计算得到:

基于上述分析, 对于n个目标, 可通过定义辨识框架Θ={θ1, , θn, θ1∪∪θn}来得到。

3 遮挡跟踪的算法设计与实现

3.1 算法设计

综上分析设计出多信息融合的运动目标跟踪算法, 用Visual studio 2005 C++.net环境和OPENCV1.0进行实现。整个跟踪过程主要由视频序列读取模块、视频图像预处理模块、实时运动目标检测模块和实时运动目标跟踪模块等构成。其中视频序列读取模块主要负责读取视频采集设备提供的视频数据, 为后续处理提供合适的数据格式;视频图像预处理模块主要抑制视频图像中的噪声和对视频图像进行预分割, 为实时运动目标检测模块的背景建模提供变量;实时运动目标检测模块主要检测视频序列中感兴趣的运动目标, 同时消除光照、阴影等干扰对运动目标提取的影响;实时运动目标跟踪模块主要对检测到的运动目标进行实时跟踪, 得到运动目标的速度、位置等相关数据, 其流程图和仿真系统界面如图2、3所示。

3.2 仿真实现

为了验证本方法处理高冲突证据的有效性和稳定性, 下面是对自然环境中的两个遮挡目标进行跟踪的仿真实验。实验所处理的图片序列是截取的两段电影视频, 在内存为4 GHz的PC机上进行实验。跟踪过程主要分为遮挡前、遮挡中和遮挡后3个阶段, 其中2阶段处于遮挡阶段, 所以该过程非常关键。首先对图4 (a) 自然环境中的两个遮挡运动目标进行跟踪, 来分析本文提出方法的有效性。从该视频中选定两个兴趣目标1和2, 为了便于区分, 左边的人被标记为目标1, 右边的人被标记为目标2, 如图4 (a) 所示。对每个目标使用20个粒子进行跟踪分析, 其关键帧的跟踪过程如图4 (b) ~ (e) 所示, 通过仿真实验得到的结果如图4 (f) 所示。其次对图5 (a) 复杂自然环境中的两个遮挡运动目标进行跟踪, 来分析本文方法的稳定性。同样选定两个兴趣目标1和2并进行标记, 如图5 (a) 所示。对每个目标使用30个粒子进行跟踪分析, 其关键帧的跟踪过程如图5 (b) ~ (e) 所示, 通过仿真实验得到的结果如图5 (f) 所示。从图4和图5的对比跟踪实验可以看出, 随着跟踪环境复杂性的增加, 其相应的粒子数目由20增加到30, 通过仿真都取得了稳定的跟踪效果。

为了反映粒子在不同的跟踪阶段对遮挡目标的置信水平变化情况, 以图4为例通过计算得到所有粒子在跟踪阶段置信水平平均值相应的变化关系如图6所示。其中图6 (a) ~ (c) 和图6 (d) ~ (f) 分别表示遮挡中和遮挡后的目标mavg (θ1) 、mavg (θ1∩θ2) 和Belavg (θ1) 平均值的变化曲线。

从图6 (a) ~ (c) 可知, 随着目标由部分遮挡到完全遮挡的变化, 对于冲突条件的影响逐渐增加, 跟踪粒子相应的置信水平的值也会发生变化;从图6 (d) 可知, 遮挡目标置信水平的平均值在1、3阶段很高而在2阶段较低, 这主要是因为在1、3阶段, 其合并模型的信息都满足目标特征要求, 但是在2阶段, 由于目标被遮挡, 由颜色信息提供的置信度值降低;从图6 (e) 可知, 位置的置信度依然很高, 这主要是因为增加了冲突水平;从图6 (f) 可知, 信念函数平均值的曲线有很高的置信度, 这主要是因为通过合并模型引入了冲突信息的结果, 所以尽管选定的目标被遮挡, 但仍能稳定、高效的跟踪到目标。

4 结论

本文针对高冲突下的信息融合问题给出了一种改进的合并方法, 并建立起目标位置/颜色的多信息融合模型, 仿真实验表明具有很好的鲁棒性。主要结论如下:

1) 通过对目标的位置和颜色信息进行融合并建立起合并模型, 粒子权值的融合比例由冲突水平决定, 增加了粒子的可靠度, 减少了噪声的影响, 此方法克服了单一信息模型在应用中的不足, 提高了可靠性;

2) 本方法不仅能够在正常情况下对复杂环境中的运动目标进行稳定的跟踪, 而且能够有效地对遮挡目标进行稳定跟踪, 具有一定的实用性;但在复杂环境下, 实际信息融合过程中常常有强冲突而带来较大的计算量问题, 如何解决仍需要深入研究。

参考文献

[1]王洪锋, 周磊, 单甘霖.国外军事信息融合理论与应用的研究进展[J].电光与控制, 2007, 14 (4) :13-18.WANG Hong-feng, ZHOU Lei, SHAN Gan-lin.Theory and application development of military information fusion[J].Electronics Optics and Control, 2007, 14 (4) :13-18.

[2]黄大羽, 彭冬亮, 薛安克, 等.不确定环境下一种多目标跟踪算法研究[J].光电工程, 2010, 37 (9) :39-43.HUANG Da-yu, PENG Dong-liang, XUE An-ke, et al.Multi-target tracking algorithm under uncertain environment[J].Opto-Electronic Engineering, 2010, 37 (9) :39-43.

[3]Dezert J, Smarandache F.Advances and Applications of DSmT for Information Fusion[M].Rehoboth:American Research Press, 2004:5-21.

[4]Tehamova A, Dezert J, Semerdjiev T, et al.Multi-target Tracking Applications of Dezert-Smarandache Theory[M].Albena, Bulgaria:NATO Advanced Study Institute, 2005:66-69.

[5]杨会成, 陈凯, 杨俊安.基于DSmT的通侦信息融合[J].计算机工程与应用, 2010, 46 (10) :129-132.YANG Hui-cheng, CHEN Kai, YANG Jun-an.Fusion of communication interception information based on DSmT[J].Computer Engineering and Applications, 2010, 46 (10) :129-132.

[6]谯骞苏.基于DSmT的改进合成方法[J].电子测量技术, 2010, 33 (2) :53-55.QIAO Qian-su.Modified combination rule based on DSmT[J].Electronic measurement technology, 2010, 33 (2) :53-55.

[7]胡丽芳, 关欣, 何友.一种新的基于DSmT的合成公式[J].火力与指挥控制, 2009, 34 (7) :9-11.HU Li-fang, GUAN Xin, HE You.A new combination rule based on DSmT[J].Fire Control&Command Control, 2009, 34 (7) :9-11.

实时视频中多目标遮挡跟踪方法研究 篇9

实时视频中运动目标的跟踪是智能视觉监控的重要课题, 是各种后续高级处理如目标分类、行为理解等的基础, 难点在于跟踪过程中物体运动不确定性及相互遮挡, 无法获得被遮挡目标的有效运动信息。已有的解决方法有:用多个摄像机构建系统来处理多个运动目标相互遮挡问题[1], 将被跟踪人体依据颜色信息建立跟踪[2], 以及基于区域的跟踪[3,4]、基于模型的跟踪[5,6]等。但是, 这些方法大都存在算法实时性低, 不能有效处理多目标相互遮挡的跟踪问题。本文针对摄像机静止的监控场景的实时视频分析, 采用了基于区域跟踪的思想, 引入目标区域模型。在目标暂时消失、相互遮挡等复杂情况下可“恢复”其运动信息, 并针对运动相互遮挡的情况, 提出了概率推理方法分析目标被遮挡程度和确定模型参数, 在遮挡目标分离后能正确跟踪。

1 建立目标模型

将目标用颜色、形状、运动三个特征分别建立模型来表示。

颜色特征采用HSV空间中的颜色直方图表示, 并在每一帧中更新:

由于实时视频中帧间时间极短, 目标运动近似可认为是匀速运动, 则运动特征是假设针对检测到的目标外接矩形框中心点建立匀速运动模型, 采用kalman滤波器估计目标在当前帧的位置、速度[7], 并在每帧得到跟踪结果后更新运动参数。

为提高算法实时性, 目标形状特征采用目标外接矩形框的长宽比, 并在每一帧中更新, 如长度值的更新:

式中 , 宽度值更新可按上式同理计算。

2 确定跟踪情况

跟踪即要确定视频中连续两帧帧间的目标匹配情况, 本文提出根据目标模型的匹配度建立“匹配矩阵”来判定。

设定匹配矩阵的行号i代表当前帧检测到的目标, 列号j代表上一帧检测的目标。将颜色模型相似度和运动模型匹配度的和值作为匹配矩阵元素值:

得到大致的目标匹配关系, 再据此计算对应目标形状模型是否突变, 如形状未发生突变, 则记录匹配结果。

对于得到的匹配矩阵, 需要针对表示当前帧目标的每行寻找代表上一帧目标的某列最佳匹配。首先要使匹配矩阵行、列数一致, 如不满足要求, 通过增加值为0的元素使其行、列数相同。再采用解决线性指派问题的匈牙利算法得到最佳匹配结果[8]。

通过匹配矩阵确定目标的跟踪状态:正常、遮挡、分离、消失、新目标出现[8]。当目标遮挡时:匹配矩阵第i行与所有列中多个元素匹配, 则i行所代表目标在当前帧发生遮挡。目标遮挡是实时视频跟踪的关键性难点问题, 本文将重点讨论分析多遮挡目标的跟踪。

3 遮挡目标定位

3.1 遮挡目标匹配

设目标j被遮挡, 由目标j产生的“虚目标i”表示为:

其中pji表示“虚目标”中心点, 满足高斯分布, 均值为第j个目标的预测位置 , 方差为Sj (k) , {hi1, hi2, …, hi72}是HSV空间一维颜色直方图的各位数。则颜色相似性可计算为:

式中, 表示目标j在当前帧中估计的象素点数目和。

将采样得到的“虚目标”位置作为当前帧目标的测量值, 由Mahalanobis距离针对原目标得到运动模型匹配度。运动模型匹配度仍可由下式计算:

δji是第i个“虚目标”pji位置到第j个目标的预测位置 的Mahalanobis距离, 则“虚目标”与未遮挡前目标的匹配度可表示为:

Tji归一化为0~1, 表示第i个“虚目标”与第j个目标的匹配度。

接下来根据匹配度确定与遮挡目标最佳匹配的“虚目标”, 即定位了遮挡目标, 但遮挡目标有可能被完全遮挡, 因此需要判定遮挡目标是否可见。

3.2 遮挡目标可见度

目标的颜色直方图代表了目标区域中每个像素值占总像素数的比例, 因此本文提出采用目标发生遮挡前的颜色直方图表示目标的像素值概率分布, 即P (x|i) 表示像素x在目标i中的概率值, 下一帧中的更新为:

式中的更新率0<β<1, Pt+1new (x|i) 即t+1时刻的更新概率。

设目标i与其他目标相互遮挡, 该遮挡区域中所有目标为目标组I, 则目标i遮挡前在目标组I中的概率为:

式中Ai为目标i未遮挡前的前景区域面积。

目标i发生遮挡, 和其他遮挡目标形成一个前景区域无法直接识别出目标i。由于目标的颜色特征具有稳定性, 并且实时视频的帧间隔时间极短 (1/25s) , 可近似认为帧间目标颜色特征不变, 则可通过遮挡前目标i的颜色分布概率P (x|i) , 估计其在遮挡目标组中I的颜色分布后验概率:

根据上式得到遮挡区域中像素x属于目标i的概率, 值越大则说明该像素x在遮挡区域中仍属于目标i的概率越大, 也即该像素的可见度越大, 概率值越低, 则说明该像素可能被遮挡而可见度低, 或者该像素应属于其他目标。

4 实验结果

实验中根据式 (11) 计算目标i在遮挡目标中的颜色分布后验概率, 如达到阈值Tp (取实验经验值为0.6) 的象素点数目超过阈值Tpresent (实验中设为目标i未被遮挡前面积的1/2) , 且其“虚目标”的匹配度大于更新阈值Tnew (实验中取为0.5) , 则将目标i的匹配“虚目标”信息更新当前目标i模型, 并据此记录目标位置。如在最佳“虚目标”区域内可见象素点数目小于Tlost (实验中设为目标i未被遮挡前面积的1/4) , 且其“虚目标”匹配度小于Tnew, 则将目标j视为被完全遮挡, 则仅用“虚目标”位置值更新遮挡目标i的位置值, 目标其余信息不更新。

如图1所示, 给出了部分实验结果。 (a) 第87帧只检测到一个目标, 通过匹配矩阵确定目标1、2、3发生遮挡, 需要在遮挡情况下建立跟踪, (b) 得到遮挡目标的各“虚目标”, (c) - (e) 是对各目标分析遮挡程度的结果, 灰度越大表示该部分越有可能被遮挡, 从 (f) 中可知, 目标3几乎被完全遮挡, 因此在 (f) 中没有标注目标3。

5 结语

本文针对固定监控场景的实时视频实现了一种多运动目标遮挡跟踪方法, 在多目标跟踪中, 通过颜色、形状、运动特征建立目标模型, 并通过匹配矩阵确定不同情况下的匹配方案实现跟踪, 当多目标相互遮挡时, 通过概率法计算遮挡目标最佳匹配实现定位及得到遮挡可见度。实验结果表明, 本文方法可靠、准确度高, 特别是在目标遮挡、暂时消失情况下能较好地实现多个运动目标跟踪。

参考文献

[1]S L DOCKSTADER, A M TEKALP.Multiple camera fusion for multi-object tracking[J].In Proc.IEEE Workshop on Multi-Object Tracking, 2001:95-102.

[2]L MARCENARO, M FERRARI, L MARCHESOTTI, et al.Multiple object tracking under heavy occlusions by using kalman filters based on shape matching[C]//International Conference on Image Processing, 2002.

[3]杨涛, 李静, 潘泉, 等.一种基于贪心搜索的实时多目标遮挡处理算法[J].自动化学报, 2010 (36) :375-384.

[4]刘晨光, 程丹松, 刘家锋, 等.一种基于交互式粒子滤波器的视频中多目标跟踪算法[J].电子学报, 2011 (39) 2:260-267.

[5]肖国强, 康勤, 江健民, 等.基于中心宏块的视频目标跟踪算法[J].计算机学报, 2011, 34 (9) :1712-1718.

[6]STEPHEN J MCKENNA, SUMER JABRI, ZORAN DURIC, et al.tracking groups of people[J], Comput.Vis.Image Understanding, 2000, 80 (1) :42-56.

[7]马颂德, 张正友.计算机视觉——计算理论与算法基础[M].北京:科学出版社, 2003:133-148.

上一篇:化学课程改革构想管理下一篇:娱乐特征