检测区域

2024-05-21

检测区域(精选九篇)

检测区域 篇1

1 基于马尔可夫模型的扩散机制算法

本文用一个有效的随机模型计算出图片的显著区域。第一:用马尔可夫链标记图片的左、上边界作为吸收状态的结点;第二:根据与马尔可夫相对应吸收状态矩阵得到图片的大致显著区域;第三:通过改变图片中目标区域边界相似结点得到一个好的结果;最后, 用优化技术扩散机制优化图像显著性。

首先, 用K均值聚类法将输入图像的所有结点放在K个簇里面, 接着, 每一个显著结点被插入同一簇里面。对于一个给定的节点ni, Uj={nj}jm=1表示剩下的结点在相同的簇里面, 被修改的显著结点ni是通过下面的公式得到的:

和σ1是在CIE Lab空间中每一个维度变化的总和, 公式 (1) 优化显著结点ni, 等号右边的S (fn) i和Sf (n) j代表原始结点ni和nj, 公式 (1) 里面的参数α设为0.5值为8个簇[4]。

2 随机模型实验分析

本实验在matlab7.0环境中运行, 所有实验图片均来自MSRA图库集。当原始图片目标区域之间间隙较大时, 检测效果不明显, 如图 (1) b所示。当原始图片目标区域相对集中时, 结果接近标记图像。如图 (2) b所示。

运行出图片显著区域后, 在matlab7.0环境中输入原始图像和本算法求出的结果图像。画出精确度曲线, 如图三所示, 本实验精确度达到了0.22, 就精确度和召回值而言, 本实验得到了一个准确的结果。

此外, 这个方法的特点是只依赖于颜色, 当目标与背景区域极为相似的时候, 显著检测的核心思想对比效果就不显著。以后, 我们会提出更多有复杂结构的对像解决上面的两个问题。

3 结论

本文提出了一个新奇的自底向上的模型, 基于图像显著检测与马尔科夫模型的关系, 本算法能大致把检测边界从周边环境中分离出来, 此外, 一系列的细化技术适用于基于区域的显著性检测, 最终的结果也印证本算法比现有的算法更有优势。

参考文献

[1]X.Hou and L.Zhang, “Saliency detection:A spectral residual approach, in Proc.IEEE Conf.Comput.Vis.Pattern Recognit., Jun.2007, pp.1╞8.

[2]R.Achanta, S.Hemami, F.Estrada, and S.Süsstrunk, “Frequency-tuned salient region detection, ”in Proc.IEEE Conf.Comput.Vis.Pattern Recognit., Jun.2009, pp.1597╞1604.

[3]F.Perazzi, P.Krahenbuhl, Y.Pritch, and A.Hornung, “Saliency filters:Contrast based filtering for salient region detection, ”in Proc.IEEE Conf.Comput.Vis.Pattern Recognit., Jun.2012, pp.733╞740.

检测区域 篇2

中国区域云特性分析及在FY-2云检测中的应用

云检测中所使用的云检测阈值正确与否是关系到云检测精度的.重要因素.该文利用1983年7月-6月ISCCP数据对覆盖我国及周边区域不同云类云顶温度的年、日变化特征进行分析,得到云顶温度的分布特征;对晴空下垫面与最暖云云顶温度差随纬度分布特征、不同区域晴空下垫面及云顶温度与晴空地表温度差日变化特征进行分析,这些特征及每3 h的晴空下垫面24年平均亮温作为云检测算法的背景场,用以判识实时动态提取云检测阈值的合理性.个例分析表明:利用多年平均晴空下垫面温度及最暖云云顶温度与晴空下垫面温度之差,可有效识别云检测阈值的合理性,合理的阈值有助于提高连续多日被云覆盖及冰雪下垫面条件下的云检测精度.

作 者:刘健 Liu Jian  作者单位:国家卫星气象中心,北京,100081 刊 名:应用气象学报  ISTIC PKU英文刊名:JOURNAL OF APPLIED METEOROLOGICAL SCIENCE 年,卷(期):2009 20(6) 分类号:P4 关键词:ISCCP晴空下垫面温度   云顶温度   云检测   ISCCP   clear temperature   cloud top temperature   cloud detection  

检测区域 篇3

关键词:显著区域检测,稀疏表示,视觉显著性,显著图

0 引言

随着信息技术的发展,图像已经成为人们获取信息的主要来源。如何高效准确地进行图像分析和处理成为人们研究的焦点。通过视觉注意机制,人类可以快速准确地检测出图像中的显著区域,优先注意到图像的重要部分,从而迅速地获取有用的信息。通过检测图像中的显著区域并优先分配计算资源,可以有效地提高图像处理的效率和准确度。因此,显著区域检测技术被广泛应用于目标检测[1]、目标识别[2]、图像分割[3]、图像压缩[4]以及图像检索[5]等应用领域。

检测图像中的显著区域,首先需要计算图像中各部分内容的视觉显著性。到目前为止,已经有很多学者提出了视觉显著性计算模型。生物视觉研究成果表明,显著性源于视觉信息的独特性、稀缺性以及奇异性,并由亮度、颜色、方向、边缘等图像特征所致[6]。因此,一些研究者通过计算图像区域相对于其周围邻域的特征对比度来得到视觉显著性。其中以Itti等提出的模型最具代表性[7],得到各国研究者的广泛关注。Itti等通过计算多个特征图像的多尺度下的中央-四周特征差异来生成视觉显著性。Ma等提出一种计算局部对比度并采用模糊增长的方法生成显著图[8]。基于局部对比度计算的方法容易在边缘部分产生较高的显著性值,而物体内部的显著性值反而较低,出现“显著性反转”的现象。一些研究者通过计算全局对比度来解决这个问题[6]。还有一些研究者基于信息论的观点,通过计算图像特征的稀少性来生成显著图[9,10]。为了提高计算效率,一些学者提出基于频域分析的视觉显著性计算方法,例如Hou等提出的基于谱残差的方法[11],Guo等提出的基于相位谱的方法[12],以及Hou等最近提出的利用DCT的“图像签名”算子的方法[13]等。这些方法计算速度快,适合实时监测。但是,通过实验我们发现这些方法虽然运算速度较快,检测的准确度却不是很高。因此,如何在保持计算速度的情况下,提高检测的准确度是需要解决的问题。

因此,基于以上的分析,本文提出一种利用稀疏表示的视觉显著性计算方法。首先,计算图像的稀疏编码表示。然后,利用图像的稀疏编码计算视觉显著性,提高计算效率。根据视觉显著性计算结果,提取显著区域。

1 显著区域检测算法

本文提出的利用稀疏编码的图像显著区域检测算法如图1所示,主要包括视觉显著性计算和显著区域检测两部分。

2 视觉显著性计算

2.1 稀疏表示

生物视觉系统的研究发现,当视觉神经系统接收到某幅自然图像时,大部分神经元对该图像的响应很弱甚至为0,只有很少的神经元有较强的响应。当接收的自然图像发生变化时,产生较强响应的神经元可能会改变,但这些神经元的个数仍然只占整体的少部分,这种特性叫作稀疏性[14]。为了模拟神经元响应的稀疏特性,人们提出了针对自然图像的有效编码方法,即稀疏编码。

在稀疏编码模型中,利用基函数的线性叠加表示输入图像,在最小均方差意义下使得线性叠加的结果尽可能地与原图像相似。同时表示的特征尽可能地稀疏化,即基函数的权值尽可能多地为0或接近0。图像的线性叠加可以表示为[15]:

式中,X表示输入图像,表示为多个基函数的线性组合,A为基函数组成的矩阵,S为线性组合时基函数的权值向量。从神经生物学的角度,式(1)表示的稀疏编码模型可以解释为,人的视觉感知系统将输入图像刺激X通过感受野A的特征提取,将其表示为视觉细胞的活动状态S。S即为输入图像的稀疏编码。

对于式(1)表示的稀疏编码模型,Olshausen提出的优化准则为:

式中,I(x,y)表示输入图像X中的像素值,Φi(x,y)为基函数矩阵A中的第i个列向量,ai为向量S的第i个响应值。式(2)中的第1项用原始图像与重构图像之间的误差平方和表示重构图像的信息保持度,第2项反映了编码的稀疏程度[15]。

根据式(1)表示的稀疏编码模型及式(2)的优化准则,本文从自然图像库中选取10 000个8×8的图像块进行训练得到字典A。则图像的稀疏编码可以通过式(3)求得:

式中,D=A-1。

2.2 生成显著图

通过上面的方法,我们得到了输入图像的图像块级别的稀疏编码。为了计算视觉显著性,我们需要像素级别的稀疏编码。为此,本文通过计算包含某像素的所有图像块的稀疏编码的均值来得到该像素的稀疏编码。

位于(x,y)的像素的稀疏编码记为PS(x,y)=[ps1(x,y),ps2(x,y),…],psk(x,y)表示该像素在第k个子码中的编码值。图像中所有像素在第k个子码中的编码值组成的矩阵Fk可以看作是对输入图像提取的第k个稀疏特征图。

研究表明,视觉显著性源于视觉信息的独特性和稀缺性。本文通过计算图像中各部分内容与其周围环境所包含的视觉信息的差异来计算视觉显著性。根据目前有效编码理论中广泛采用的贝叶斯决策理论,P(X)表示某数据集X的初始概率,即先验概率,反映了根据已有知识断定X是正确的可能程度;P(D|X)为似然函数,表示X为正确假设时,观察到D的概率;P(D)表示D的先验概率;P(X|D)是给定样本D时,X的后验概率。贝叶斯定理可以表示为:

由式(4)可以看出,如果新的样本数据D产生了信息差异,则先验概率和后验概率是不同的。为了衡量D引起的差异的程度,可以通过计算先验概率分布与后验概率分布之间的Kullback-Liebler(K-L)距离得到:

由此可知,将图像中某位置的周边环境划分为两个区域,即中央区域和周边区域,周边区域远大于中央区域。周边区域的信息分布看作是先验概率,中央区域的信息分布为后验概率。如果某位置引起了观察者的注意,则其中央区域和周边区域的信息分布是不同的,其差异程度即为其显著程度[16],可以通过式(6)得到:

式中,SMi(x,y)表示第i个稀疏特征图中像素(x,y)的视觉显著性,Pcx,y表示(x,y)的中央区域的信息分布,Psx,y表示(x,y)的周边区域的信息分布。综合显著图可以由式(7)计算得到:

3 显著区域检测

得到综合显著图之后,选择合适的阈值对显著图进行阈值分割,获得二值图像,其中白色区域对应位置即为图像中的显著区域。将二值图像和原始图像进行叠加,即可提取出显著区域。阈值可以通过式(8)计算得到:

式中,L为显著图中像素最大的灰度值,pi为灰度值i出现的概率。

4 实验设计及结果分析

为了客观地评估本文算法的正确性和有效性,我们在两个公开的测试图像库上进行了实验,并和目前比较流行的7种算法进行了实验对比。本文算法的运行环境为Matlab 7.0,硬件平台为个人计算机(Intel Core i3/双核2.53 GHz CPU,内存为2 GB)。

4.1 测试图像集

本文选取的第一个测试图像集为Bruce等人提供的人眼跟踪图像库。库中包含120幅测试图像以及通过人眼跟踪设备记录的20个测试者在测试图像上的人眼跟踪数据(Ground Truth)。该数据集可以从http://www-sop.inria.fr/members/Neil.Bruce获得。

第二个测试图像集为Achanta等人提供的公开图像测试集,该测试集包含有1000幅测试图像,以及由人工精确标注的显著性区域结果(Ground Truth)。该数据集可以从http://ivrgwww.epfl.ch/supplementary_material/RK_CVPR09/index.html获得。

4.2 实验结果及对比分析

限于篇幅,本文从测试图像集中选择4幅图像比较典型的图片,在图2中给出利用本文算法和目前大家关注度比较高的其他8种算法计算得到的显著图直观的实验对比结果。这8种算法分别为ITTI(Itti的引用最多的经典算法)、GBVS[17](Kouch等人的基于图论的视觉显著性计算方法,检测准确度较高)、AIM[18](第一个测试图像集的作者Bruce等人的基于信息最大化的算法)、FTSRD[19](第二个测试图像集的作者Achanta等人的算法)、SUN[20](利用图像统计信息的算法)以及SR(基于谱残差的方法)、IS(基于DCT的图像签名的方法)、ICL[21](基于增量编码长度的算法)这三种影响力比较大的基于频域分析的算法。这几种算法的作者都提供了源代码,方便我们进行实验比较。

图2中的前两幅图片来自Bruce提供的测试集,其Ground Truth是对人眼跟踪数据经过高斯模糊处理后的人眼关注图。后两幅图片来自Achanta提供的测试集,其Ground Truth是以二值图像表示的由人工精确标注的显著区域结果。从图2中可以看出,一些算法如FRSRD、SUN出现了显著性反转的情况,一些算法如ITTI、SR、ICL、IS计算出的显著性结果更强调边缘部分,而本文算法的结果与Ground Truth最接近。

为了客观地评价本文算法的效果,本文采用目前本领域常用的ROC曲线、AUROC值对本文算法以及其他算法进行定量比较分析。

为了分割显著区域并计算ROC曲线,本文参考文献[19],将各种方法得到的显著图中各像素的显著值调整到[0,1]。然后从0到1每隔0.05取一个阈值,分别将各算法的显著图进行二值化,进行显著区域和非显著区域的分类,并与Ground Truth进行比较,计算相应的TPR(True Positive Rate)和FPR(False Positive Rate),分别得到21组TPR和FPR的对应值,画出ROC曲线。图3是各种算法的ROC曲线图。表1为各种算法的AUROC值对比结果。从图3和表1可以看出,本文算法的ROC曲线是最高的,AUROC值是最大的。

4.3 时间复杂度评估

我们对本文算法和其他8种算法在两个测试图像集上单幅图像的平均运行时间进行了测试,对比结果如表2所示。

从表2中可以看出,ITTI、FTSRD、SR、IS等几种算法的平均运行时间比本文算法的运行时间要短,其余几种算法的平均运行时间高于本文算法。但是,本文算法的检测准确度要高于ITTI、FTSRD、SR、IS等几种算法。因此综合考虑,本文算法相对于其他算法仍然具有一定优势。

5 结语

本文针对图像中的显著区域检测问题进行了研究,提出一种利用稀疏编码的显著区域检测算法。该算法首先对原始图像提取稀疏特征,采用稀疏编码对图像进行表示,在此基础上通过计算图像中各部分内容之间的信息差异来得到视觉显著性结果。结合视觉显著性计算结果,提取显著区域。本文在两个国际上公开的测试图像集上进行了实验,并和8种目前大家关注度比较高的算法进行了对比,结果证明了本文算法的正确性和有效性。

检测区域 篇4

一、选择题

(2012·深圳二模)叠图分析是科学选址最常用的方法。结合下图,完成1~2题。

1.叠图分析最常用的地理信息技术是()A.RS

C.GIS

2.选定的区域适合建设()A.大型垃圾处理场

C.汽车加油站

B.大型仓储式超市 D.水源保护区 B.GPS D.数字地球

3.每天在中央电视台的天气预报中,会经常看到沙尘、台风、风暴等灾害性天气的形成过程,这些信息的获得主要得益于()A.遥感技术

C.地理信息系统

B.全球定位系统 D.数字地球

近几年,新疆建设兵团在中科院的帮助下成功地利用无人遥控直升机对所属农场的农作物病虫害进行了防治,大大提高了其准确度和工作效率。据此回答4~5题。

4.工程技术人员指挥无人遥控直升飞机运用的地理信息技术是()①RS ②GPS ③GIS ④数字地球 A.①②

C.②③

B.③④ D.①④

5.对农作物病虫害的监测,新疆采用了卫星遥感技术,是因为()①农作物遭受病虫害时,发射和反射的波谱会有一定变化 ②卫星遥感分辨率高,可拍摄到清晰的照片 ③卫星遥感探测的范围广,连续性强 ④卫星遥感智能化高,在治虫过程中无需人工参与

A.①②

C.①③

B.③④ D.②④

6.图1是“某城市规划部门运用GIS技术对城市用地进行功能分区后的局部规划图”。图2中四幅图城市用地局部图中规划后成为图1的是()

读“车载GPS导航监控原理示意图”,回答7~8题。

7.图中M表示()A.制作GPS接收机

C.生成电子地图

B.分析交通状况 D.计算三维坐标

8.车载GPS通过公共电信网络传给交通监控中心的信息是()A.车载GPS所在道路的拥堵状况 B.车载GPS所在地的地理坐标 C.车载GPS所在车辆的违章信息 D.车载GPS规划的导航路线

2012年2月25日,我国在西昌卫星发射中心用长征三号丙运载火箭,成功将第十一颗北斗导航卫星送入太空预定转移轨道。据此回答9~10题。

9.以下服务主要依赖于北斗卫星服务的是()A.为抗震救灾提供必要的位置信息 B.预测温室效应对我国沿海海岸影响 C.为110出警快速设计最佳路线 D.为监测太湖水污染提供信息

10.基于北斗卫星导航定位系统的“南沙渔船船位监测系统”,在渔业领域的应用取得了重大成果。关于该监测系统的作用,以下说法错误的是()A.为渔民预测捕鱼量、补偿损失 B.成为远洋渔船安全捕捞的“保护神” C.为捕捞渔船提供导航、航海通告 D.为渔民提供海况、渔讯等信息服务 读图,完成11~12题。

11.关于上图反映的“数字黄河”的叙述,不正确的是()A.可以用来查阅获取黄河的有关信息 B.可以用来指导黄河防汛和水量调度 C.对普通老百姓而言,距离较远,价值不大 D.“数字黄河”的建设需要不断完善和更新 12.有关“数字地球”的叙述,正确的是()A.就是指“3S”技术的应用 B.一个由数据和信息组成的地球

C.主要反映现实问题,不能应用于可持续发展

D.可以方便地获取信息,模拟人类活动对环境产生的影响,制定可持续发展的对策

二、综合题

13.阅读材料,回答下列问题。

材料1:从1985年开始对南极进行首次科考活动以来,我国已成功建立了四座科学考察站(南极3座,北极1座)。极地科学考察通过调查、试验、研究等活动掌握了大量的极地环境数据信息、取得了丰硕的科研成果。

材料2:目前全世界一共有四大全球卫星导航系统,除了美国已经在成熟商业化运行的GPS系统外,中国的北斗系统、欧洲的伽利略系统、俄罗斯的格洛纳斯系统还都在建设中。

(1)我国极地科学考察和研究持续开展了近30年,采集了大量极地科学数据,对这些数据的管理可利用地理信息技术中的,对这一技术的利用,叙述错误的是()A.方便查阅南极地区的三维地图及地图信息

B.可以对南极附近地区冰川、海岸线的变化进行观察分析 C.对防止极冰融化提供治理的技术 D.对地物相关信息的分析采用数字化处理

(2)利用“遥感卫星”进行农作物估产及防灾减灾主要利用了地理信息技术中的________。

(3)全球定位系统(GPS)除能够提供精确的定位技术外,还能够提供的服务有________、________、________。

(4)利用地理信息技术对地理环境进行研究,除了上述应用外,还有哪些用途?试举例说明。

14.阅读下列材料,回答问题。

材料1:中央气象台2012年8月22日10时发布台风蓝色预警:今年第14号强台风“天秤”于8月22日07时在我国台湾省以东的西北太平洋洋面上减弱为台风,10时其中心位于我国台湾省鹅銮鼻以东大约390公里的洋面上,就是北纬22.2度,东经124.6度,中心附近最大风力有13级(40米/秒)材料2:“台风路径概率预报图”。

(1)要获取台风“天秤”的图像信息,采用的地理信息技术是________。

(2)8月22日,渔民要想预估未来一天自己所处海域的风力状况,除了借助下图外,还需要采用的地理信息技术,若该渔船在遭受十级以上大风袭击后,渔民发出求救信号,广东海事局调度船只进行营救时需要运用的地理信息技术是________和________。

(3)要完成台风“天秤”未来48小时路径概率预报图的整个绘制需要采用的信息技术手段有

和。

(4)试举出(3)题所用两项地理信息技术综合应用的其他实例。

课时跟踪检测(二十九)1.C 2.D 第1题,叠图分析需要把多种平面图信息进行综合比较、分析,这正是地理信息系统(GIS)的主要内容。第2题,由远离交通线、植被保护好等要求并结合四个备选项就可判断,该选址是水源保护地的适宜地。大型仓储式超市和汽车加油站都需要接近主要道路,大型垃圾处理场一般不会建在植被条件好的区域。

3.选A 获得信息的技术主要是遥感技术,可以快速及时反映灾害性天气。4.A 5.C 第4题,遥控直升飞机的位置使用GPS,进行遥控作业需使用遥感技术。第5题,农作物遭受病虫害时,发射和反射的波谱会有一定变化;卫星遥感探测的范围广,连续性强。

6.选B 依据图例,可看出图2中B图的商业、居住、工业用地分布与图1一致。7.C 8.B 第7题,纸质地图信息数字化后录入地名坐标信息,即生成电子地图,将该电子地图输入车载GPS,则可进行路线规划和导航。第8题,车载GPS通过公共电信网络传给交通监控中心,反映其所在位置,即当地地理坐标。

9.A 10.A 第9题,北斗卫星主要功能为定位和导航。第10题,南沙渔船船位监测系统为渔船提供的服务有定位和导航、提供海况和渔讯信息,不能为渔民预测捕鱼量、补偿损失。

11.C 12.D 数字地球是在“3S”技术的基础上,把大量信息进行整合并进行立体、动态地显示,便于应用和研究。“数字黄河”是数字地球区域性的体现。

13.解析:本题主要考查地理信息技术的应用。第(1)题,对大量数据的管理,可利用GIS技术。第(2)题,对农作物估产及防灾减灾主要是利用遥感技术。第(3)题,全球定位系统(GPS)除进行精确的定位外,还能够提供测速、授时、导航等服务。第(4)题,可从“3S”技术的应用,结合生活实际进行分析。

答案:(1)GIS C(2)遥感技术(3)测速 授时 导航(4)进行资源的普查和城市环境管理等。

14.解析:利用遥感获取卫星云图,渔民想利用图判断风力,需知道自己所处的地理坐标,需用全球定位系统。海事局组织救助,要借助地理信息系统分析路线和救助方式,对台风未来的路径预测要在遥感获取的实时资料基础上借助地理信息系统进行分析。

答案:(1)遥感技术

(2)全球定位系统 地理信息系统(3)遥感技术 地理信息系统

检测区域 篇5

由于火灾突发的不可预测性,给检测带来了很大困难。人们采用了许多火灾早期检测方法,以降低损失,根据火灾探测器探测火灾参数的不同,主要有感温、感烟、感光、气体和复合式几种。对火灾发生现场环境的温度、湿度、气体烟雾以及火焰辐射的紫红外光进行检测来发出警报,受空间距离的限制、环境因素变化的影响以及传感器灵稳定性的影响,造成误报情况严重。为了克服上述缺点,国内外一些学者提出了基于图像处理技术的火灾检测,火焰识别的一般过程是先将疑似火焰区域从图像中分割出来,然后根据火焰的各类特征对疑似火焰区域进行匹配,以识别出真正的火焰,排除非火焰区域[1]。Yamagishi等研究了一种基于HSV空间和神经网络的彩色图像火焰检测算法。Noda等提出了一种隧道火灾图像检测技术。国内的周锦荣研究了基于图像型的火灾视频监控系统,许维胜等研究了基于图像视觉特征的火灾自动识别,利用小波变换将信号分解到不同的频带上进行分析处理,然后利用神经网络通过有监督的学习图像特征向量达到识别目的。宋卫国等研究了基于BP神经网络的火灾图像探测方法等等。基于视频的火焰检测方法,这种方法通过对普通的彩色视频输入,进行颜色、时间和空间变化等的分析,来达到火灾检测和报警的目的,具有实时性好,错误率和成本较低等优点。火焰目标的提取和分割是火灾识别中的关键技术,火焰精确的分割提取是提高整个探测系统准确性、健壮性的前提条件[2]。本文重点研究图像分割中,对运动区域火焰的检测和提取,主要方法有差分图像运动检测法、累积差分图像运动检测法、基于背景更新的运动检测法等几种。本文通过视频采集,利用Matlab作为分析工具,检测火焰的运动区域,对比不同算法的效果。

1 视频对运动区域火焰检测的原理

基于视频运动区域的火焰检测需要对运动目标在时间和空间上的变化状态进行分析[3],其一般硬件和软件系统示意图如图1、图2所示。

由摄像头采集到的视频图像传送给图像采集卡之后,图像采集卡将模拟信号转化给数字信号,再传送给计算机,计算机对数字信号进行处理分析,对火焰进行识别和判断。图像处理过程分为前期预处理(对图像进行灰度化、图像二值化、阈值分割、滤波、运动区域检测、以及边缘提取)和处理(基于预处理阶段得到的各种数据,进入火焰检测的主体算法部分,根据算法的返回值判断是否进入报警系统,否则继续循环进行算法[4],主要有圆形度、火焰跳动的频率、尖角特性、面积增长特性和质心运动特性等)。经过BP神经网络,分析是否有火灾发生。本文只研究火灾发生场景中火焰出现的运动区域检测。

运动检测是图像预处理阶段重要的一部分,选择不同的检测方法直接影响到整个火焰识别的准确性和快速性。

2 火焰运动区域检测的基本方法

根据运动模式,本文主要研究摄像机静止,物体运动的模式。主要的检测方法有差分图像运动检测,累积差分法和基于背景更新的方法。

2.1 差分图像运动检测法

差分图像运动检测法,也称为帧差法,是对相邻两帧相减差分[5]。在这种最简单的形式下,帧f(x,y,j)与帧f(x,y,k)之间的变化可用一个二值差分图像DPjkf(x,y)表示

公式(1)中,T是阈值。

在差分图像中,取值为1的像素点被认为是运动物体或光照变化的结果。这里存在两种图像变化情况,一是由于物体运动产生的图像变化,另一种是由于光照变化造成的图像变化。通过设置阈值,将对于缓慢运动的物体和缓慢光强变化引起的图像变化,在一个给定的阈值下可能检测不到[6]。缺点是在同个时间段中,火焰没有变化此方法将检测失败[7]。优点是算法比较简单,应用范围比较广阔。

2.2 累积差分图像运动检测法

在火灾发生的场景,如果有缓慢运动物体,因为其变化量是一个很小的量,在滤波算法中可能将这些微小的量当作噪声滤掉。解决这一问题的一种方法是累积差分图像方法(accumulative difference picture,ADP),其基本思想是分析整个图像序列的变化来检测小位移或缓慢运动物体。这种方法不仅能用来可靠检测微小运动或缓慢运动物体,也可用来估计物体移动速度的大小和方向以及物体尺度的大小。累积差分图像可分为一阶累积差分图像(FADP)和二阶累积差分图像(SADP)。

一阶累积差分图像的算法是将图像序列的每一帧图像与一幅参考图像进行比较,当差值大于某一阈值时,就在累积差分图像中加1[8]。通常将图像序列的第一帧作为参考图像,并且置累积差分图像FADP0的初始值为0。这样,在第k帧图像上的累积差分图像FADPk(x,y)为:

2.3 基于背景更新的运动检测法

基于背景更新的火焰运动区域检测方法,它是利用三帧图像的自适应背景提取方法来实现的。该方法采用三帧差分图像来进行背景维护(高斯建模),并且采用自适应背景更新方法来检测视频中的运动区域。

背景更新法是根据移动区域内自适应阈值的确定以及进一步的差分比较决定需要更新的背景区域,主要包括背景建立,背景更新算法等[9]。

首先假设摄像机是固定的,用In(x)表示在t=n时刻像素点x的亮度值,如果某像素点在当前时刻的亮度值与其前一帧及其前一帧的前一帧图像相比发生了显著的变化,则认为该像素点是运动的,即如果:

则认为像素点x是运动的。公式(3)中,Tn(x)是设定好的一个阈值。

该方法存在的主要问题是:那些处于运动物体内部、具有相同亮度值的像素点将被认为是静止的。解决该问题的方法是:首先,将所有检测出的运动像素点连接成一个连通区域,则运动物体内部的像素点就被包含在了这个连通区域内;然后,采用自适应背景更新的方法将所有这些运动的像素点包含到一个区域框R内。令Bn(x)代表在像素点x当前背景的亮度值;bn表示所有在区域框R内的像素点组成的集合,这些像素点与背景Bn有着明显的差异,即:

公式(4)中,Bn(x)和Tn(x)都是已知设定的阈值:B0(x)被设置成视频中第一帧图像的亮度值,即B0(x)=I0(x);T0(x)为已知的非零值。则B(x)和T(x)更新如下:

公式(5)、(6)中,a是一个时间参数,代表了B(x)和T(x)的更新速度。上述公式可已看出,只有那些静止的像素点,即背景像素点,其亮度值才会发生变化。

3 实验结果与分析

实验器材:计算机、摄像头(200万像素)、摄像头支架、打火机、报纸、灭火器。

实验过程:(1)室外视频图像采集。在室外架设一个摄像头(与计算机分开),通过USB接口与计算机连接,启动开始监控部分区域。在监控区域内燃烧报纸,此时摄像头将监控区域的视频存储在计算机内。提取其中多帧图像存储格式为.jpg(图片格式160×120)。用灭火器灭火完成室外实验。(2)室内视频图像处理。将提取的多帧视频图像用Matlab软件处理。将视频图像导入用Matlab GUI编辑好的操作处理界面。本文采集图像之前,在摄像头装配了滤光片,滤除可见光,通过三种不同的运动区域火焰检测的算法,进行分析对比。为了便于处理,摄像头每间隔2秒抓拍一次,提取第5、6、7、8、帧图像为研究对象。将三种方法的算法写入matlab操作程序中。试验结果图像显示如下所示:

图3为摄像机抓拍的4幅图像,分别按次序存放在Matlab GUI操作界面上。图4为相邻两张图像差分法运行结果(第5张与第6张,第6张与第7张,第7张与第8张)。图5为4张图像一阶累积差分法运行结果,因为加滤光片背景为黑色,图像和采集的连续帧相同。图6为基于背景更新检测法的运行结果。

通过实验结果对比可以发现,差分法算法比较简单,结果显示的差分图像不够清晰,误差较大,尤其是对于局部没有发生变化的火焰视为静止。累积差分法较差分法有一定的提高,在一定程度上能够显示火焰情况,但是显示不够全面,对于连续发生的火灾场景,背景不能更新,不能准确看到火灾的发生情况。基于背景更新的检测算法,过程比较复杂,处理时间稍长,但能较好地弥补前两种算法的不足,采用三帧差分图像来进行背景维护,并且采用自适应背景更新方法来检测视频中的运动区域,效果比较好,在符合火焰检测标准时间内,能够较好地对运动区域的火焰进行准确检测。

4 结论

针对传统火焰检测的方法,本文论述了利用视频来检测火焰的方法。通过对照比较和研究,基于视频的火焰检测方法能被应用在室外或比较空旷的地方,而且也能提供诸如着火的具体位置、规模、火焰的扩散程度等信息,提高了火焰检测的准确率。本文论述了三种基本的火焰运动区域检测方法,通过上述实验结果对比,基于背景更新的火焰运动检测,在三帧差分图像的基础上,对背景进行实时更新,从而分割出运动区域,实现了对运动区域的检测,能对火焰较准确地检测,误差最小,和原始图的火焰情况基本一致。

参考文献

[1]王祖龙,谢红.视频图像火焰区域分割算法[J].应用科技,2011,38(7):16-17.

[2]王文豪,刘虎,严云洋.视频火灾识别的关键技术研究[J].计算机仿真,2011,28(2):305.

[3]吴铮.基于视频的火焰检测[D].杭州:浙江理工大学,2007.

[4]安志伟,袁宏永,屈玉贵.火焰闪烁频率的测量研究[J].计算机应用,2000(5):66-68.

[5]曲巨宝,林宏基,梁洪涛.运动图像快速跟踪技术研究[J].重庆师范大学学报,2011,28(1):44-45.

[6]杨帆.数字图像护理与分析[M].北京:北京航空航天大学出版社,2010.

[7]司宏伟,全蕾,张杰.基于背景估计的运动检测算法[J].计算机工程与设计,2011(32):262.

[8]徐建华.图像处理与分析[M].北京:科学出版社,1992.

检测区域 篇6

视频图像的目标检测与跟踪是当前计算机视觉领域的一个重要基础,其主要实现方法是对目标的某一个或多个特征来进行提取和分类[1,2,3,4,5,6]。目标特征主要分为两类,一类为基于边缘的特征,如目标轮廓,另一类为基于区域的特征,如目标的像素值或其统计量。一般而言,区域特征比边缘特征包含更大的信息量,因此基于区域特征的检测与跟踪算法有着更强的稳健性。但是,当前大多数应用的检测与跟踪算法模型只能提供简单的目标边界,并且是通过对于矩形区域内的相似统计特性来实现判断检测和跟踪目标的[7,8,9,10,11,12]。由于边界检测算法的局限性,对于实时的详细的目标边界的检测与跟踪是视觉领域的重要难题。Mikolajczyk,Schmid[1]以及Fraundorfer,Bischof[2]分别以详尽的评价标准证明了Matas等提出的最稳定极值区域(MSER)算法[3]能够适用于测试图像序列,并且断定MSER符合稳健局部检测器的一切条件,从而奠定了MSER检测算法扩展应用的重要理论基础和依据。简单的说,MSER算法对于当前帧图像,通过函数处理像素值将一系列可辨别的检测区域作为可疑的目标区域进行表示,并确定被检测区域的准确边界。如果一个视觉系统的检测与跟踪采用相同的特征与标准,系统最终结果将会有更高的稳健性和更好的边界划分特性。

笔者提出了一种新颖的跟踪框架,确保了跟踪结果,同时在每帧图像上实现了精确的目标分割。

2 跟踪系统框架构成

整个系统的构成如图1所示。首先,对于每帧新输入的图像计算其统计颜色概率图,用以衡量每个像素的邻域之间的局部相似性,为MSER检测目标提供依据。其次,将MSER方法应用到本系统中,通过对局部颜色相似性的应用,划定可疑区域边界,保留相应的信息作为候选目标。最后,给由MSER产生的目标区域排序组合直接赋予相应的权值,利用训练得到的目标先验动态形状模型,并根据学习训练的形状信息与目标的相似度大小赋予相应的权值,融合加权处理后得到最终需要的检测与跟踪的结果。

在利用MSER算法进行单帧图像检测时,为了克服其检测具有与目标相似稳定区域的虚假目标区域,并且将非目标区域认定为检测目标这一缺点,只需要标定少数目标样本,通过融合目标的形状信息来降低目标检测的误检率。在进行跟踪时,通过保存处理时域信息,即除了通过在t时刻检测到的分割的目标做初始化之外,还要利用在t-1时刻已经确定的目标特征信息和位置信息作为目标跟踪的依据。

2.1 计算颜色概率

在视频跟踪的应用中,颜色信息始终作为一种非常重要的特征来进行应用。同样,系统首先运行的是计算t时刻时像素为目标的颜色概率值P(O|xi),用以衡量当前帧被跟踪目标O与局部区域的每个像素x之间的颜色相似性。为了达到以上的目标,可以借助t-1时刻被跟踪目标的信息,进一步增加前景与背景的区分度。概率图结果P(O|x)可以在图2中看到,白色亮度区域表示有着较高的颜色相似性的区域。

1)将t-1时刻目标O的颜色分布通过高斯模型来表示为NO(μO,ΣO),定义为在三维RGB颜色空间的3×1的均值向量μO和3×3的对称协方差矩阵ΣO。同时,可以将目标周围区域的非目标区域的颜色分布通过高斯模型NB(μB,ΣB)来表示,作为事前定义好的非目标区域,借此进一步划分目标O的边界。

表示RGB分布的高斯分布为

2)通过滑动L×D的目标窗口,将窗口内像素颜色值Nωi(μωi,Σωi)与之前计算的目标区域模型NO(μO,ΣO)和非目标区域模型NB(μB,ΣB)进行比较,对于每个像素xi的颜色概率值P(O|xi)进行计算。同时,对于邻域的每个像素xi的颜色特征也可以建立一个混合高斯模型来表示。

3)计算像素xi为目标O的颜色概率

式中:β(·)为两个高斯分布之间的K-L距离,计算公式如下

式中:d为使用的特征空间的维数,tr(·)表示矩阵的迹。

以上分析了如何利用目标和背景区域在RGB颜色空间的分布来进行计算,同样,其他的任何颜色空间都是能够得到应用的。对于某些分布的目标图像,最好的特征空间是那种能够最大限度地增加目标物和它周围的背景之间颜色特征的K-L距离。

2.2 改进的MSER算法

Matas等提出的最稳定极值区域(MSER)算法[3]是计算机视觉领域内公认的较好的目标区域检测算法之一。通过定义适合的像素点特征的排序关系,该方法能够突出重点特征,例如,通过设计使用的颜色概率图P(O|x)来定义像素的排序与归属。

简单来说,MSER检测器是将具有连续的较暗边界值的较亮的连续区域检测出来。文章中,MSER表示的是连通区域内像素点的像素值有着较大相似性的集合,同时,MSER的集合在几何变换的条件下,通过多维度变换可以有机结合组成待检测目标,更加能够体现目标有效边界的分割。在跟踪时,t-1时刻的目标区域的信息更是决定被分割开的两个目标是否为跟踪的某个单个目标。同时,利用颜色概率图P(O|xi)来进行MSER检测也确保了颜色概率能够被有效地检测。

在t时刻进行跟踪时,通过t-1时刻的目标区域提供的信息,在本帧图像初步描绘出兴趣点区域(ROI),结合MSER方法采用的成分树结构(component tree)方法将ROI区域检测到的目标进行初步确认,并且随着树节点的下推,通过P(O|xi)判断被跟踪目标的最大极值区域。

2.3 目标先验形状信息

PCA的基本原理就是通过去除数据之间相关性,寻找到最大的矢量投影方向,将数据从高维降低到低维。简单分析为给定一个矢量数据类型X的一组数据,一般,这组数据就其分量而言是相关的,即

因此处理后,在以主分量为基矢量的坐标空间中,给定数据组的坐标分量不再是相关的,数据被解耦合了。PCA解除了数据的二阶相关性(去除一阶相关性,去除直流分量,即使数据中心化,均值为0;去除二阶相关性,去除数据分量之间的相关性)。在数据分布方面,PCA分析找出数据分布发散性中最大的矢量方向,即主分量矢量。通过PCA处理生成的特征图形能够广泛应用于检测识别领域,例如,PCA生成的特征脸曾经广泛应用在人脸识别领域。PCA训练的样本图像见图2。

定义目标训练数据集为Ψ={Ψ1,Ψ2,…,Ψm},则有PCA降维结果ψ={ψ1,ψ2,…,ψm}。假定训练数据的形状分布符合高斯形状,将形状能量定义为

式中:Σ为数据协方差矩阵,可以通过训练数据计算得到。定义通过形状信息得到的分割结果的概率为

2.4 MSER与形状融合

为了充分利用目标的像素信息与形状信息,去除虚假检测结果,提高目标检测精度与跟踪性能,最终进行融合判别,即将系列目标一(通过MSER算法检测出来的最稳定区域目标)与系列目标二(通过PCA计算出来的目标)通过设定权值的方法表决,最终将t时刻的目标成功识别出来,并进行跟踪。结果图见图3。

式中:αi和βi分别是两种方法在对于结果最终判别的比重权值。

3 实验结果

为了证明系统的有效性与稳健性,通过改变不同的视频场景来分别对于目标进行检测与跟踪。不同尺寸的目标(由于镜头变换引起的整体场景变化)在系统中都能够被有效地检测出来,同时对于目标物进出视场,即只有一部分身体作为目标时,系统也同样能够有效地检测出来。

整个实验部分主要分为两个部分:第一部分的视频中,视频镜头在同时进行移动和旋转运动,传统的背景剪除算法不适用,而通过算法实验,目标物的整个轮廓能够清晰地被标识出来,同时,在新的目标进入视场,视场中同时出现多个目标时,系统对多目标进行检测和跟踪;第二部分的视频中,由于镜头变化的影响,视频视场中的目标整体变小,虽然只有一个目标物在进行移动,但是背景变化相对复杂,同时由于光照变化的影响,鱼尾在摆动时激起的水面波纹反射了强烈的灯光造成局部曝光,干扰物的出现以及作为目标的鱼在受到影响之后,游动速度急剧增加,以至于相邻两帧的图像上的目标物的位置有时甚至完全没有重合处,但实验结果证明,本算法能够应用在这一系列复杂、恶劣的条件下并且能够得到稳健的跟踪效果。图4的第一列彩色鱼形目标图像为MSER检测结果,第二列为融合之后的结果及目标的准确边界表示;第三列为目标跟踪的结果。图5为改变拍摄镜头后的目标检测与跟踪效果图,每列两幅图的前一张表示目标的精确轮廓,后一张示意的是目标的检测与跟踪结果。

4 小结

介绍了一种新颖的视频图像目标检测跟踪系统,它基于重复运行MSER算法在每一帧图像寻找有效的分割检测结果,并通过计算颜色概率信息为准确地将目标分割识别出来提供重要依据,同时,创造性地通过投票表决的方法将它与PCA计算两者的优点结合起来,得到满足目标跟踪的稳健性要求和精确进行目标边界划分的实验结果。本系统能够在单帧图像上实现目标物的检测功能,在连续帧视频图像中实现令人满意的跟踪效果,并且只需要极少量的训练样本。在将来,MSER检测的应用必将可以延伸到三维视觉空间,进而实现对3D图像数据中的目标检测和跟踪。

摘要:针对非刚体目标的精确实时跟踪问题,提出了一种融合先验形状信息的基于最稳定极值区域(MSER)检测器的跟踪算法。首先,利用训练样本建立目标颜色特征的混合模型,生成目标统计颜色概率图,为最大稳定区域方法提供概率统计依据。其次,利用基于最稳定极值区域方法给出最稳定的分割结果。最后,利用训练样本得到目标的先验动态形状模型,并且融合目标形状信息与通过MSER算法生成的稳定区域信息,去除虚假分割结果,提高目标检测精度与跟踪性能。实验结果证明,该算法能在视频序列图像中有效检测并跟踪目标。

关键词:最稳定极值区域,主分量分析,目标检测,目标跟踪

参考文献

[1]MIKOLAJCZYK K,SCHMID C.A performance evaluation of local descriptors[EB/OL].[2009-01-20].http://courses.csail.mit.edu/6.869/handouts/mikolajczyk_cvpr2003.pdf.

[2]FRAUNDORFER F,BISCHOF H.A novel performance evaluation method of local detectors on non-planar scenes[EB/OL].[2009-01-20].http://portal.acm.org/citation.cfm-id=1099934.

[3]MATAS J,CHUM O,URBAN M,et al.Robust wide baseline stereo from maximally stable extremal regions[EB/OL].[2009-01-20].http://cmp.felk.cvut.cz/~matas/papers/matas-bmvc02.pdf.

[4]DONOSER M,BISCHOF H.Efficient maximally stable extremal region(MSER)tracking[EB/OL].[2009-01-20].http://ieeexplore.ieee.org/xpls/abs_all.jsp-arnumber=1640804.

[5]DONOSER M,BISCHOF H.ROI-SEG:Unsupervised color seg-mentation by combining differently focused sub results[EB/OL].[2009-01-20].http://ieeexplore.ieee.org/xpls/abs_all.jsp-arnumber=4270256.

[6]HE Wei,ZHAO Xiaoli,LI Zhang.Online feature extraction and selection for object tracking[EB/OL].[2009-01-20].http://ieeexplore.ieee.org/xpls/abs_all.jsp-arnumber=4304126.

[7]董春利,董育宁,王莉.活动轮廓模型目标跟踪算法综述[J].计算机工程与应用,2008,44(16):206-208.

[8]杨艳芳,齐美彬,王倩,等.基于运动检测与运动搜索的多目标跟踪[J].计算机工程,2008,25(7):222-224.

[9]朱冰莲,潘哲明,李单单.基于图像配准的运动目标检测[J].电视技术,2007,31(4):94-96.

[10]张洁颖,王生进,丁晓青.基于视频图像处理的交通流检测系统[J].电视技术,2008,32(6):68-70.

[11]钟德华,夏翠艳,宋启敏,等.多目标跟踪算法的研究与应用[J].计算机测量与控制,2008,16(6):846-848.

检测区域 篇7

随着视频处理技术的进步,视频篡改的技术成本也随之减少,致使现在篡改视频随处可见。以前一直可以成为司法鉴定证据的监控视频,现如今看来也变得没有以前那么可信了。同时,互联网技术的成熟,也让篡改视频的社会影响力直线上升,视频篡改违法犯罪成本下降。在此情形下,提高网络内容监管力度是一方面,对篡改视频进行有效的检测则是另一重要方面。所以无论是从理论研究价值考虑,还是从社会价值考虑,都有必要去针对视频篡改检测算法进行研究。

帧内篡改相较于帧间篡改,主要的区别就在于篡改范围不同。简单的说,帧间篡改的篡改单位以视频帧为单位,而帧内篡改则以像素点为基本篡改单位。帧内的篡改操作由于也会涉及到重编码并附带拍摄设备特性,所以基于拍摄设备和编码效应的检测思路也可以应用在此。纵观近几年研究,专门针对帧内篡改的检测方法并不多,主要集中在使用内容不一致和时空相关性的方法中,也有学者将两者结合进行检测。

帧内篡改检测起步较晚,其成果还比较少,最早在此领域做出贡献的是美国Dartmouth College的Farid教授团队[1],他们利用相位相关匹配寻找篡改点,此方法可以检测同源单帧Copy-Move篡改,同时,他们团队还是双压缩检测[2,3]的初始贡献者,也在2012年[4]就抛射视频的篡改提出了检测算法。Subramanyam团队将HOG特征应用到视频帧中进行Copy-Move检测[5],利用篡改区域的相关性进行检测,他们的算法可以检测同源Copy-Move篡改,但是由于此种方法将视频帧当做图像进行处理,算法复杂度较高且并没有利用视频时域联系的特性。意大利Bestagini团队[6]对Subramanyam团队的方法进行了改进,细化了篡改方式并提高了检测效率。无论采用哪种空间特征进行检测,都没有利用视频本身存在的时域信息,这势必将丢失部分信息而增加检测算法复杂度。

针对Copy-Move篡改行为,本文提出了基于时域偏移特性的检测算法,使用光流来表征视频的时域特征,从其偏移特性切入,定位篡改可疑序列,从而定位篡改位置达到检测目的。

1 时域偏移特性

1.1 问题描述

本文针对视频同源多帧Copy-Move的篡改行为提出了检测算法,同源多帧Copy-Move是一种现行非常普遍的篡改行为,例如删除跑动的人,将一个物体重复出现在另一个时间线上。总之,篡改者将对视频中的部分区域进行修改,用同视频中的其他区域进行覆盖操作,这个区域在时间跨度上将持续不定帧数,如图1-2所示。

如果是图片的篡改操作,那么篡改行为将包括图片拼接、图片修复、图片Copy-Move等,由于图片仅只有一张图片的数据量,对其可以进行相当精细的算法而无视相应的时间复杂度,例如有学者利用SIFT特征对其进行Copy-Move的检测,而直接将SIFT特征应用到视频检测将得不偿失,视频是图片在时间维上的连续拓展,计算量将因此达到无法容忍的地步,所以视频的Copy-Move检测的难点之一就是保证复杂度可以容忍的同时确保正确率。

另一方面,只是简单地判定视频是否被篡改还是不够的,还需要给出篡改点的方位信息,而由于视频是由连续帧组合而来,除了空间域信息还有时间域信息,所以对其篡改检测的定位也是一个难点。

1.2 区域光流时域偏移特性

如果信号f(x)是由信号g(x)在时域上平移变换所得,即:

分别求得两个信号的傅里叶变换,则:

其中,F(ω)、G(ω)分别为f(x)、g(x)的傅里叶变换。求其功率谱:

其中,G*(ω)是G(ω)的共轭,求上式的逆变换得冲击函数,此冲击函数会在偏移位置x0处出现最大值,以此可以找到两个信号的平移参数。

现在考虑一个同源Copy-Move篡改视频,无论是以背景覆盖来移除目标,还是将目标移动到另一个时间和空间坐标处,为了保证篡改区域的连续性和平滑性,一个区域的拷贝单位并不是只有单帧,而是连续多帧,如图3所示。

一个Copy-Move的目标如果是静止的,其空间位置不会产生变化,它所在的这片空间完整的从一个时间区域移动到另一个时间坐标上;如果篡改目标是移动的,虽然其空间位置一直在变化,但是依然存在目标的部分空间跨时间的拷贝。

综上,无论是静止区域还是运动目标的CopyMove,都会存在空间中的一片区域在一定长度的时间轴上是重复的,只是每个空间坐标重复的时间跨度可能不一致。利用这一性质,可以寻找视频在时间跨度上具有代表性的特征作为信号,将此信号和其他空间位置的信号进行相位相关计算从而得到偏移量来确定篡改的位置。

光流就是像素在时间轴上的流动,所以它能很好地表征视频像素的时间特征,为了简化计算,只考虑光流大小,不考虑光流的方向属性。可以将光流大小的时间序列作为信号,每个空间位置就有了一个长度为N的序列,N为视频帧数。设为计算所得的光流序列:

其中,t为帧数,为计算光流的块空间位置,F为总帧数,W、H分别为视频帧的横坐标和纵坐标块的数目,为计算出的光流大小。将空间坐标,时间坐标处长度的光流序列作为信号模板:

将完整光流序列O作为原始信号,g(t0)作为待测信号,由公式(3)计算功率谱:

其中,Ox,y(ω)、G*(ω)分别Ox,y、g(t0)为的傅里叶变换,表示傅里叶逆变换,F-1由于存在自比较的情况,最大值总为其与自身光流序列对比的偏移结果,所以此处max为取第二大值。通过上式可以求得与g(t0)相同的光流序列所在的时间偏移量tm,篡改区域由于视频内存在同样的序列而找到偏移坐标,非篡改区域则因为找不到同样的序列而被判定为原始区域。

2 算法框架与实现

为了检测和定位篡改视频,本文提出了相应的检测算法,流程如图4所示。

主要包含以下步骤:计算视频区域光流和HOG矩阵,计算块偏移时空坐标矩阵,HOG匹配生成判定矩阵。

①计算区域光流矩阵

本文使用LK方法[7]计算视频的光流,由上一章可知,O={oftx,y}为视频的光流序列,考虑到视频中相邻像素值较接近,在空间域上存在冗余,所以本文对视频帧进行了分块处理,并以1/2大小块作为重叠,所以本文求得的光流序列为O={oftbx,by},其中bx,by为块空间坐标。视频的第帧的区域光流矩阵即为:

其中,

②计算偏移矩阵

由于Copy-Move区域的光流序列一定可以找到匹配的另一个光流序列,通过将一定时间长度的的光流序列作为输入和其他空间坐标完整的光流序列进行相位相关计算,即可寻找可能的偏移量即可找到潜在的篡改点。通过下式计算出偏移矩阵:

其中,δ(tm)是式(6)计算的一帧中bx,by位置Δt时间长度的光流序列与所有完整时间的光流序列O的相位相关计算,如果和所有块都没有找到偏移量就置为零,由此可以得到每一帧的块偏移矩阵P。这里可以通过减少Δt来增大检测粒度,从而提高检测效果,但同时也相应地增加了复杂度,从而提高了检测时间成本。

③计算HOG矩阵

帧内块的偏移矩阵是基于时间域的相似性得到的,然而可能存在像素流动相似而内容却截然相反的可能,为了提高TNR,本文在最后一步使用HOG特征检查两个可疑块的纹理特征是否一样。之所以选择HOG特征,是因为其高效的检测效率,同时也具有抗压缩、抗旋转等鲁棒性。通过下式生成HOG矩阵:

其中,BW、BH分别为x、y轴总数,hog为计算HOG过程。

④生成判决矩阵

这一步主要就是基于偏移矩阵,判断可疑的两个块的HOG特征的欧氏距离是否小于阈值,若为真,则判定两个块为Copy-Move篡改块,否则判定可疑块为原始内容取消嫌疑。判定过程将产生判定矩阵G:

其中,ED为计算两个块HOG距离,T为预设的阈值,若两个块距离小于阈值T,则该块该时刻的判决矩阵值为1,否则为0。将判定矩阵G和Ground Truth进行逐帧比对就可以得出检测结果。

3 仿真实验与分析

3.1 实验数据

本文使用的测试数据是SULFA(Surrey University Library for Forensic Analysis)数据库[8],该数据库是由英国萨里大学Qadir等人在2012年为了视频取证研究所制作的视频库。其中包括10个帧内篡改视频,本文对该视频库进行重压缩以扩充视频样本至60个,其中原视频库包括原始和篡改视频共20个,压缩步长为20的视频20个,压缩步长为30的视频20个,均采用H.264进行重压缩。

3.2 对比实验

本算法首先通过区域光流序列来寻找嫌疑Copy-Move块,然后再通过HOG特征来进一步检测可疑块,生成判定矩阵,通过对比该矩阵和视频的Ground Truth来获得检测准确率。其中区域光流序列的近似阈值为0.997、HOG距离的阈值为0.3。

Paolo提出的方法是基于HOG特征距离来选择可疑块,而本文是使用块的时域特性来选择可疑块,结合表1,本文提出的算法较Paolo Bestagini的算法高了1.68个百分点,说明本文的算法检测相对更加有效。同时,从压缩检测结果来看,本文的方法准确率波动幅度细微,足以证明本文算法同样对重压缩具有鲁棒性且优于Paolo Bestagini算法。值得说明的是,由于本文计算准确率是基于像素点统计而来,而一个视频的像素点数目非常庞大,其作为基数,在压缩引来的波动影响并不涉及太多像素的情况下,准确率并不会出现大的变化,这也是为什么压缩的准确率基本不变的原因。

4 结束语

本文针对视频帧内篡改中的Copy-Move篡改行为提出了检测算法,并对目前较权威的帧内篡改数据库SULFA进行了检测,得到了不错的检测效果,相比于Paolo Bestagini等人2013年[6]的检测效果,准确率要更高,从而可以看出本文提出的检测算法在检测出篡改区域的有效性上更为优秀,且对视频压缩有一定的鲁棒性。但是本文提出的算法假设篡改区域持续的时间大于一定帧数,对视频中运动很快的物体,一个空间坐标中Copy-Move的时间片段低于本文设置的检测时间粒度,将因此无法检测,同时由于本文的算法是以块为单位,所以空间精确度依然不够高。

由于此方法受时间复杂度的限制,并不能通过再次增加检测粒度来提高准确率,所以以后的研究方向可以从使用其他更为优异的时间特征切入。同时,光流虽然是很好的特征,但是计算复杂耗时长,所以可以考虑使用如3D-HOG特征直接替代光流和HOG,也许可以得到更好的检测效果。

摘要:Copy-Move作为一种较为普遍的视频篡改行为引起了国内外很多学者的关注,作为一种帧内篡改,篡改者通过改变视频帧内的像素值来达到篡改目的。为了检测此篡改,文中提出了基于区域光流偏移特性的检测算法,利用此偏移特性来搜寻其在视频中被拷贝的位置来达到检测目的。实验证明,提出的方法创新性的利用了时域信息进行检测,同时在未增加算法复杂度的情况下,提高了检测准确率,是一种有效的检测方法。

关键词:Copy-Move,帧内篡改,光流

参考文献

[1]Wang W,Farid H.Exposing digital forgeries in video by detecting duplication[C]∥Proceedings of the 9th workshop on Multimedia&security.ACM,2007:35-42.

[2]Wang W,Farid H.Exposing digital forgeries in video by detecting double MPEG compression[C]∥Proceedings of the 8th workshop on Multimedia and security.ACM,2006:37-47.

[3]Wang W,Farid H.Exposing digital forgeries in video by detecting double quantization[C]∥Proceedings of the 11th ACM workshop on Multimedia and security.ACM,2009:39-48.

[4]Conotter V,O’Brien J F,Farid H.Exposing digital forgeries in ballistic motion[J].Information Forensics and Security,IEEE Transactions on,2012,7(1):283-296.

[5]Subramanyam A V,Emmanuel S.Video forgery detection using HOG features and compression properties[C]∥Multimedia Signal Processing(MMSP),2012 IEEE 14th International Workshop on.IEEE,2012:89-94.

[6]Bestagini P,Milani S,Tagliasacchi M,et al.Local tampering detection in video sequences[C]∥Multimedia Signal Processing(MMSP),2013 IEEE 15th International Workshop on.IEEE,2013:488-493.

[7]Lucas B D,Kanade T,et al.An iterative image registration technique with an application to stereo vision.[C]∥IJCAI..[S.l.]:[s.n.],1981,81:674-679.

检测区域 篇8

一、对建立科学的学校体育的监测评价机制的基本认识

(一)建立科学的学校体育监测评价机制,是落实义务教育《体育与健康课程标准》(2011年版)的基本要求

义务教育2011版《体育与健康课程标准》(以下简称《课标》)明确把提高教学质量作为体育教学的基本要求:“体育与健康课程的教学质量和效果主要体现在学生体育与健康知识的掌握、运动技能的习得、体能的增强和学习行为的变化等方面。”《课标》第四部分的实施建议指出“在实施本标准的过程中,各地、各校应依据本标准的要求分别制订地方体育与健康课程实施方案和学校体育与健康课程实施计划”,包括区域内各个水平的学习评价建议(内容、方法与标准等)。笔者从2008年开始制定《杭州市江干区中小学学校体育工作考核细则》,其中“学生体质健康状况与运动技能掌握程度”和“体育教学”的比重达到70%。2012年8月,笔者根据《课标》精神和《浙江省义务教育体育与健康课程实施方案(草案)》基本要求,制定了《江干区义务教育体育与健康课程实施方案》,再次明确提出了以学生体质健康水平和基本运动技能为主要内容的区域性质量监测评价制度。建立科学有效的学校体育监测评价机制,突出“体能与运动技能”评价,是促进学校体育工作整体发展的必然要求。

(二)建立科学的学校体育监测评价机制,是为区域学校体育整体均衡发展决策把脉诊断的需要

在新课程的背景下,由于江干区学校的教育资源、学校体育教师水平、场地器材等具有不均衡性,笔者就通过建立学校监测评价机制来了解、诊断学校体育工作的落实情况,为整体提高区域体育教学质量提供依据。如,通过监测评价可以掌握学校的常态体育课堂教学质量情况和“保证学生校园体育活动一小时”落实情况,培育了一批区域特色的体育校本课程、阳光体育大课间活动内容、传统特色的体育项目,提高了学生的身体素质和运动技能。因此,建立科学的学校体育监测评价机制,可以对区域内学校体育目标实施进行动态跟踪、科学诊断与及时调整,从而促进区域学校体育工作的健康发展。

(三)建立科学的学校体育监测评价机制,是区域体育教学内涵发展的根本要求

建立科学的学校体育监测评价机制,是区域体育学科自身发展和自我完善的必然要求,更是区域体育教育教学内涵发展的根本要求。多年来,笔者依托区域特色教研活动的辐射与引领,如体能与技能和谐发展研究、体育教师基本功演练、学生体质测试培训等为开展学校体育监测评价实践活动进行了方向引领。遵循“系统思考、落实规范、区域推进”的工作理念,笔者引领一线教师对体育课堂教学进行探索,促进学校体育工作的规范发展。如,2007年9月制定的《江干区中小学体育教学与考核内容实施建议》(70%必学内容、30%选学内容),引领区域体育教师有效落实《课标》新理念以及在课堂教学中的具体操作,教学内容做到了“选择性与统一性”相结合,充分体现了体育学科在基础教育中的“基础性”,规范了区域中小学体育学科日常的有序教学,使体能与运动技能的检测评价有内容(选自70%必学内容)依据。总之,建立科学的学校体育监测评价机制,是追求体育课堂教学有效性的根本要求。

二、江干区开展中小学体育教学监测评价工作的做法和成效

结合江干区教育的整体发展要求,笔者积极探索中小学体育学科教学质量评价机制,初步形成了符合区域特色的中小学体育教学监测评价机制。

(一)明确“和谐整体发展”的区域体育教学理念

江干区中小学的体育教育始终把发展学生体质健康和掌握运动技能作为核心目标。由于体育学科专业性强,提高学科教学质量必须以提高教师的专业水平和教学能力为前提。江干区通过专家讲座、课堂教研、骨干培训、校本研修、外出交流等方法,努力提高教师的专业素养;体育学科依托区域课题《新课程背景下教师有效教学行为研究》开展了针对性培训,2008年提出了区域“和谐整体发展”体育教学理念,即“体质和心理和谐发展、体能与技能和谐提高、目标与过程和谐统一、主导与主体和谐并存”,持之以恒坚持课堂教学发展学生体能与运动技能并重的教学思路,引领体育教育教学的健康发展。

(二)加强“三个指导”,规范教学内容提升体育教学质量

2007年以来,笔者和骨干团队经过调研,掌握了区域学校和教师课堂教学特点等方面的情况,先后制定了《江干区中小学体育教学与考核内容实施建议》、《新课程背景下中小学体育教材教法和单元教学计划》、《江干区中小学学业等级评定体育学科实施意见》三个区域性的体育教学指导意见,为建立科学的学校体育监测评价机制奠定了基础。

1.《江干区中小学体育教学与考核内容实施建议》提出不同水平阶段教学与考核内容的必学内容、选学内容、校本教材,规范了基本活动能力和体能类、技能类的教学要求与目标(见表1),使体能与运动技能发展有“保底”要求,促使课堂教学变得有效果、有效率、有效益。

2.《新课程背景下中小学体育教材教法和单元教学计划》引导教师分析教材,合理安排课时、课次的教学,通过单元教学引领体能与技能等教学目标的达成,促进体育学科系统化教学。

3.《江干区中小学学业等级评定体育学科实施意见》指导体育教师有效开展以班级为单位的学生学业评价(见表2),达到规范化、明确化、合理化。提倡巧讲多练,开展课课练,发展学生体能和运动能力。

(三)实施“二个监测”

《课标》提出“体育与健康课程的教学质量和效果主要体现在学生体育与健康知识的掌握、运动技能的习得、体能的增强和学习行为的变化等方面”。根据《浙江省义务教育体育(与健康)必学内容教师用书》和《江干区中小学体育学科教学与考核内容实施建议》的教学要求,与实施《国家学生体质健康标准》相结合,江干区中小学体育学科教学质量的监(检)测坚持以“过程为重、学校为主”的思想,实行“体育学科每学年抽测一次,体能与技能综合评定(上学期结合《国家学生体质健康标准》测试为主,下学期以体育运动技能抽测评定为主)”。

1. 体能项目的监测:

2011学年,江干区中小学体能检测了小学四年级的50米跑、实心球和中学八年级的立定跳远、实心球、耐久跑,测试标准依据《国家学生体质健康标准》。小学四年级体育体能检测两个项目的平均分为88.2分(见图1)、2010学年87分、2009学年86.5分;2011学年的平均优秀率为75.2%(见图2)、2010学年65.1%、2009学年59.8%。反映了区域学校学生体能素质的发展情况,便于跟踪发展与针对性地指导体育课堂教学。

中学八年级的立定跳远成绩不断提高(见图3),源于体育教师对该教材内容和技术的不断研究,把单脚跳、短跳、长跳、跳深等练习有机结合,发展学生弹跳能力和提高身体协调能力有机结合。中学八年级的体能检测成绩也在不断进步(见图4),2009学年为78.4分,2010学年为82.8分,2011学年接近89分(增加了耐久跑,测试年级与其余测试内容相同);是业务部门的规范指导(教学内容规范与评价指导等)、学校的教学管理以及教师关注研究教材、改进技术教学方法、重视学生的能力发展的结果。

2. 技能项目的监测:

以2011学年中小学体育运动技能检测项目为例,中小学均有具体的检测内容和标准(见表3、表4)。

2011学年检测了小学三年级的技巧——跳箱(跳上成蹲撑——挺身跳下),全区平均优秀(良)率是69.9%(见图5)。多数学校能够依据《江干区中小学体育教学与考核内容实施意见》的要求进行常态教学和学生的学业评价。

2011学年全区小学三年级体育运动技能抽测的优秀率是59.6%。从全区学校三年级的运动技能检测情况看,学校之间的差异比较明显(见图6)。

3. 建立以增量为导向的体育教学质量检测分析与反馈机制:

笔者通过几年检测的系统跟踪,采用纵向、横向的比较分析,形成了《中小学体育与健康学科教学质量检测分析报告》,并通过教育局组织的校长教学质量分析会议等进行了反馈,这种针对性的导向促进了学校体育工作和教学的良性发展。通过中小学体育学科教学质量检测总评诊断(总评=体能优秀率×60%+技能优秀率×40%),建立了区域学校体育教育教学质量分析反馈机制。如,2011年小学四年级50米成绩进步明显学校(见图7)和2011学年中学八年级立定跳远平均成绩进步学校(图8)的具体反馈。

小学2011学年全区体育教学质量抽测体能与技能总评的优秀率为69%(见图9),多数学校进步明显,除Z学校(外来务工人员子弟学校)受客观条件限制较多外,其他学校间总体发展比较均衡。中学2011学年全区体育教学质量抽测总评的优秀率是71.3%(见图10),比2010学年的优秀率40.9%有了明显的进步,除U校外(主要是体能成绩问题),A校和I校的技能成绩与其他学校存在一定的差距,区域学校间的差异在逐渐缩小。

总之,规范常态课堂教学,大力开展学校阳光体育活动,认真落实“体能与技能”两个监(检)测工作,促进了江干区学校体育工作和体育教学的科学管理和教育教学质量的整体提升。

(四)提高体育课的运动负荷,发展学生体能与运动技能

1. 加强体育教育教学常态管理:

加强教学内容的弹性指导,使检测内容有依据、有标准。如,学校教学管理部门可以依据《江干区中小学体育学科教学与考核内容实施建议》的教学内容对体育教师制定的学年(学期)教学计划、教学进度、课时教学计划进行检查,看“三表”(学年或学期教学计划表、教学进度表、课时教学计划表)教学内容是否一致;通过制定单元教学计划和组织阶段性(每月)测试来保障常态体育课堂以体能和运动技能的学习与提高为主;教师根据各水平阶段的特点,以及体育学习规律、学生身体素质发展的“敏感期”和动作发展规律、运动技能形成规律等合理开展教学工作,使体育教学系统、有序、规范、实效。

2. 提高体育课堂教学运动负荷:

体能的发展和运动技能的提高都需要学生的大量体验与练习,以身体练习为主线,提倡规则的有序运动,有适宜的运动负荷,有计划、有目的、有组织、生动活泼的“练”。因此,体育课要有一定的运动量,让学生锻炼身体,让学生出汗。体育教师要抓住教材的健身功能与价值,从单纯的技术学习向技能组合、实践运用转化,满足学生运动实践需要,加强“课课练”的系统锻炼(结合主教材渗透练;专门发展素质集中练;作为附属教材以游戏、比赛的形式练)。“野蛮其体魄,文明其精神”是学校体育教育教学的精髓。

(五)落实“三个特色教研模式”,引领教学质量检测导向

通过区域特色的教研模式,引领课堂教学整体发展。主要围绕“学中思、教中研、研促教”的思路,聚焦课改,找准体育新课程实施中的重点与难点问题,实现教学实践与培训研究的统一;狠抓落实“体育教学有效提高学生体能策略研究”、“单元连上教学展示”、“中小衔接、系统教学”等区域教研特色的主题研训活动,坚持体能与运动技能的质量检测为抓手,凸显“和谐整体发展”的区域体育教学特色,帮助学校改进体育教学管理,狠抓常态课堂教学质量,重视教、学、练、思的有机结合,把发展学生体能、学习运动技术和培养情感态度价值观科学有机整合,强调教学的实效性。使“过程为重、学校为主”的教学质量监测指导思想落到实处,促进教师专业素养和学生身心的全面发展。

总之,通过几年的实践与探索,江干区逐步建立“内容规范——检测——分析——反馈——改进——规范教学——整体提高”的以评价学生体质健康与运动技能为主的学校体育评价制度和循环机制,引领了学校体育工作的正确方向,提高了体育教育教学质量,拓展了阳光体育活动,促进了区域学校体育工作持续、均衡发展。

参考文献

[1]教育部基础教育课程教材专家工作委员会组织编写义务教育体育与健康课程标准(2011年版)解读[M].北京:高等教育出版社.2012.

[2]中华人民共和国教育部.义务教育体育与健康课程标准(2011年版)[S]北京:北京师范大学出版社.2012

[3]上海市静安区教研室区域学业质量评价模式的架构与实践[EB/OL].http://www.zijys.org/jxpjinfo. aspx?type=115&id=468.2012.05.

检测区域 篇9

背景减除法因为其简单易于实现且鲁棒性强等优点成为众多学者研究的热点。Wren等人提出了单高斯背景建模算法[1],Stauffer等人使用多个高斯模型对背 景建模,提出了混 合高斯背 景建模算 法[2],Toyama等人提出了一种三层的Wallflower方案[3],Haritaolu等人提出了W4方法[4],Kim等人将一种结构化的码本( Code Book) 当作背景模型[5],Elgammal等人通过核密度估计建立了一种非参数化的背景模型[6],Maddalena等人提出了自组织神经元网络模型( SOBS)[7],Barnich等人提出来一种叫Vi Be的算法[8]。

码本背景建模方法的基本思想是分别用编码本描述每一像素点出现的可能为背景的状态,然后根据一定规则从中筛选,确定最终背景状态。这种基于量化和聚类技术构建的码本模型有三方面的优势: 第一,它不需要像混合高斯模型和非参数核密度估计背景模型那样进行大量的概率运算; 第二,相比SOBS模型和Vi Be模型,其码字结构较为简单; 第三,相比Wallflower模型和W4模型,其拥有更多的状态信息。这些优点使得它能在保证实时性的同时,也能较好地处理周期变化的动态背景。但是这种算法也存在着两处不足,一方面码本背景模型只是对单个像素在时间轴上的统计性建模,忽略了领域像素间的空间分布相关性,从而使得背景模型不能精确地反映真实背景,这样在很大程度上影响了运动目标的检测效果; 另一方面,这种算法做了以下假设: 背景像素在RGB空间中是均匀分布在一个圆柱体内,其中RGB空间的三个分量之间是相互独立的,并且这个圆柱体的中心轴指向RGB空间的原点,但这些假设并不完全准确,也对目标检测造成了很大的影响。

Wu等人通过添加时空像素的关联特征,提出了一种基于时空上下文的码本改进方法[9],提高了算法检测的准确度。霍东海等人利用椭球体近似表示背景像素在RGB空间的分布特征,提出了一种基于主成分分析的背景建模算法[10],具有良好的实时性和鲁棒性。黄进等人提出了双梯柱体( double-trapezium cylinder) 的码本背景模型[11],降低了算法的复杂度。姜柯等人提出了一种双重自适应码本模型[12],解决了动态背景的模型自适应问题。郭志涛等人将区域特征分析结合于码本目标检测算法[13], 提高了检测精度。Guo等人将单层码本模型扩展为多层码本模型[14],更好地反映真实的背景模型。薛茹,等人将码本模型进行了块编码[15],增强了算法的实时性。

针对经典码本算法对外界环境自适应能力不足和忽略空间分布相关性等问题,该文提出了一种基于区域信息的自适应码本算法,在经典算法的基础上,利用背景学习率来适应外界光照环境的变化,并结合每个像素周围的空间位置信息,实现近邻像素间码本模型的共享。最终升级了经典码本算法,增强了模型在复杂环境下的鲁棒性。

1 经典码本模型

码本算法采用量化聚类的标准,对一系列图像序列帧的每个相应的像素点进行背景建模。对于建好的模型,每个像素点的码本由一个或多个码字组成。

令X = { x1,x2,…,xN} 代表N帧视频序列图像中同一特定位置的像素点在不同时刻的观测值,码本算法为每个像素建立一个码本M,其中M = { c1, c2,…,cL} ,而每个码本中包含有L个码字ci。在RGB颜色空间中,每个码字ci结构定义如下

式( 1) 中i = 1 ,2 ,…,vi记录所属码字RGB分量的历史均值,分别记录所属码字对应像素的最小和最大亮度值,fi表示该码字匹配成功的次数,λi 表示没有被匹配的最大时间间隔,pi和qi分别表示该码字第一次和最后一次匹配成功的时间。

在RGB颜色空间中,码本算法的思想是假设所有背景像素值都分布在码字圆柱体内部,而前景像素值都分布在圆柱体外部,码字圆柱体的表面构成了决策面,通过决策面来判断所输入的像素是背景像素或者前景像素,从而检测出运动目标,如图1所示。

在模型的建立阶段,在t时刻输入像素xt,将其与该像素的码本里的每个码字进行比较,通过亮度准则与颜色失真准则这两个判别式来决定该码书中是否有与该输入像素xt想匹配的码字,如有则更新该码字,否则新建一个码字。

在背景模型建立后,利用得到的码本对后续帧中各像素进行前景检测,其过程与模型建立过程相似,也用亮度准则与颜色失真准则这两个判别式来进行分类,如果找到一个相匹配的码字,则此像素为背景像素并对这个码字进行更新,否则将此像素归为前景像素并建立一个新的码字。

2 基于区域信息的自适应码本模型

现提出的一种基于区域信息的自适应码本背景减除检测算法,主要分为三个阶段的工作。第一阶段为背景模型的训练阶段,将训练阶段的每个像素的所有背景像素存储到各自所属的码字中,并且不断地更新其码字,从而建立起多模态的背景模型; 第二阶段为前景检测阶段,在该阶段中考虑到像素间的空间相关性,将输入的待检测像素同该像素周围空间的多个码本进行比对,判别该像素在各个码本中为前景还是背景,然后统计所得前景总数,最后根据预设阈值来判断此像素最终到底为前景还是背景; 第三阶段为背景更新阶段,背景更新主要是为了能够适应视频序列中背景的变化,提高前景检测的鲁棒性。

2. 1 背景建立

在码本背景模型的训练阶段,需要通过亮度准则和颜色失真准则来进行分类,亮度准则和颜色失真准则分别用公式( 2) 和式( 3) 表示。背景建模面临许多挑战,其中光照环境的变化尤为突出。不一样的光照强度会在检测中造成误检和漏检,降低了对真实目标的敏感性。为了适应不同的光照环境, 必须要求码字能够自适应地进行更新。本文对经典码本模型的建立过程进行改进,预先设定合适的学习率γ和 ρ ,对码字向量vm作如式( 4) 那样的替换, 并且将式( 5) 添加到码本背景建模的步骤2的第四步中。这里,σ2 m表示颜色空间颜色失真变量,在算法开始时,首先对σm进行初始 化。最后,将colordist( xt,vi) 做如下如式( 6) 那样的改进。

其中各变量计算方法如下:

式中α,β,ε,γ,ρ为先验参数,一般0. 4 < α < 0. 7 , 取值越小,亮度范围越大; 通常取1. 1 < β < 1. 5 ,取值越大,亮度范围越大; 通常会在训练阶段使用一个的较小的ε1,以保证每个码本中有充足的码字来表示复杂多峰的背景,而在检测阶段使用一个稍大的ε2来提高前景和背景的区分效果; 通常取0 < γ < 1,0 < ρ < 1 ,γ和ρ取值越大,对背景变化的适应速度越快。

具体的训练步骤如下:

Step1. 初始化: μ = { φ} ,L = 0。

Step2. For t = 1 to N

2) 在L = { ci| 1≤i≤L} 中寻找一个能够与xt 相匹配的码字cm,使之满足以下两个条件:

colordist( xt,vm) ≤ε1,其中ε1为训练阈值;

3) 如果L = φ或者没有找到相匹配的码字,则L←L + 1 ,并创建新的码字cL,其中:

vL= ( R,G,B)

auxL= ( I,I,1,0,t,t)

4) 否则,更新匹配到的码字cm,其中包含vm, auxm以及σ2 m。

Step4. 利用λ消除冗余码字,获得最能代表真实背景的码本M = { cm| cm∈L∧λm≤TM} ,其中TM为预先设定的周期阈值,通常取值为训练帧数的一半,即TM= N /2。

2. 2 前景检测

经典码本算法虽然可较好地兼顾实时性并能够处理周期性动态背景,却忽视了像素间的空间分布相关性,从而缺乏足够的描述信息,无法准确反映运动目标的本质属性。而在实际情况中每个背景像素都可能会出现在它的近邻区域内,它们在空间上是局部相互依赖的,为此将动态纹理的空间运动当成背景的一部分,并且添加一个机制来计算动态背景在空间上存在的不确定性,从而获得更多的空间信息。因此,对于每一个待检测的像素xt,先按照经典码本前景检测算法那样进行检测,与相对应的码本进行比较,如果被检测成前景,那么它需要进一步与领域像素的码本进行比较,从而判断出此像素究竟为背景像素,还是前景像素。使用f和b分别作为前景和背景的二值检测标记,使用My代表像素y∈Nx的码本,其中Nx表示像素xt的领域。为了计算有效性,文中选用八连通领域。如果像素xt与其领域像素码本匹配的总数大于等于阈值#min,则判断像素xt为背景像素,否则,此像素为前景。具体过程如下:

Step1. 输入像素xt= ( R,G,B) 。

Step2. 在与该像素对应的码书M中,寻找一个能够与xt相匹配的码字cm,使之满足以下两个条件。

colordist( xt,vm) ≤ε2,其中ε2为检测阈值;

Step3. 如果找到匹配码字,则xt= b ,并更新码字cm。

Step4. 否则,xt= f ,

1) 在该码本的相邻码本My∈ { My| ,y∈Nx} 中,寻找一个能够与xt相匹配码字cm,如果找到匹配码字,则count ++ ;

2) 如果count≥ #min ,则xt= b ,即判断此像素为背景像素;

3) 否则,xt= f,即判断此像素为前景像素。

2. 3 背景更新

外界环境总处于不断在变化中,例如停车场的车的进进出出、路上行人的停停走走等等。为了能将这些新产生的背景与前景目标区分开来,这就要求背景要随着外部情况的变化而不断变化,能够进行实时的更新以保证背景模型的有效性。

在前景检测阶段,对每个像素建立一个备选码本H ,并预先设定三个参数: TH、Tadd和Tdelete。其中,TH为备选码本H的周期阈值; 若H中的码字存活时间超过Tadd,则将该码字添加入M中; 若M中的码字没有得到更新的时间超过Tdelete,则将该码字从M中删除。更新过程如下:

Step1. 训练阶段后,得到码本M,创建一个新的码本H用于更新码本M;

Step2. 对于输入像素xt,在M中寻找能够匹配到xt的码字; 如果找到,则对该码字进行更新;

Step3. 否则,在H中寻找一个能够与xt相匹配的码字; 如果找到,则更新该码字; 否则,创建一个新的码字h,并将其添加到H中;

Step4. 按如下方式过滤H中的码字:

H←H - { hi| hi∈H,且hi的λ大于TH} ;

Step5. 按如下方式添加M中的码字:

M←M∪ { hi| hi∈H,且hi的存在时间超过Tadd} ;

Step6. 按如下方式删除M中的码字:

M←M - { ci| ci∈M,且ci未被更新时间超过Tdelete} ;

Step7. 返回步骤2直到所有像素输入完成。

3 实验与讨论

本文算法在Visual Studio 2010开发平台下,运用Open CV2. 2进行编程实现。实验主机配置为2. 70 GHz主频的Pentium ( R) Dual-Core处理器,2 G内存,32位Windows 7操作系统。测试时的参数设置为: 训练帧数N = 100 ,先验参数α = 0. 7,β = 1. 3 ,训练阈值ε1= 5 ,检测阈值ε2= 8 ,学习率γ = 0. 3,ρ = 0. 4 ,其他阈值 #min = 1 ,TH= 25 ,Tadd= 15 ,Tdelete= 50 。

3. 1 前背景转换测试

为了验证本文算法在前背景转换方面的有效性,选取了Laboratory视频进行测试,部分检测结果如图2所示。在第1 ~ 292帧内室内的柜子都处于关闭状态,从第293帧,其中有一扇柜门被打开并保持此状态直到视频结束。采用本文算法,从第360帧左右开始,打开状态的柜门逐渐由长时间固定的前景转换成背景,到第420帧,因柜门长时间处于打开状态而形成的虚假前景已经有效地被转换成了背景。

3. 2 综合性能对比测试

选取了三段典型的视频测试序列,其中前两段是在室外拍摄,后一段在室内拍摄,三段视频帧大小分别为768×576,352×288和320×240像素。

对于图3的视频,来自PETS2013,处于室外且外界环境比较复杂,光照条件不够稳定,同时有树枝在不断摆动,本实验记录的是第391帧的检测结果。可以看到,基于混合高斯法和原码本算法均对噪声敏感,且容易对阴影形成误判,而本文方法能较好地克服噪声干扰和避免阴影误判,提取的目标更加精确。

图4的视频同样处于室外,是一段校园内的campus. avi视频,当视频中的人在行走时,产生了长长的阴影,这对检测的精度造成了很大影响,本文记录了第382帧的检测结果。实验结果表明,本文算法能较快地适应背景的动态变化,对光线的变化和周围的噪声有较强的鲁棒性。

图5和图6来自相同视频段的不同阶段,来自室内拍摄的Laboratory. avi视频,文中记录了第292帧和第876帧的检测结果。可以看出,本文提出的算法能较好地判断阴影和前景,较快适应动态光照环境,能得到相比混合高斯和原码本更为精确的目标分割结果。

为了定量比较各种算法的性能差异,使用错误前景点率( FPR) 、正确前景点率( TPR) 、精度( precision) 和F1测度进行性能检测,计算公式如下面各式

式中,fp代表错误的前景点数,tp代表正确的前景点数,fn代表错误的背景点数,tn代表正确的背景点数。fp与tn之和代表真实前景图像中的背景点总数,tp与fn之和代表真实前景图像中的前景点总数,tp与fp之和代表被检测为前景点的总数。

在以上四项度量指标中,错误前景点率FPR越大,表示前景图像中的噪声越多; 真实前景点中正确前景点个数所占的比重越多,TPR值就越大,检测算法正确检测运动物体的敏感度越高; 检测精度Precision越大,被检测为前景点中正确前景点越多, 检测算法产生的噪声越小; 而F1测度是对检出率和检测精度的综合评价。

表1给出了各种算法对图3至图6所示图像处理结果的检测性能参数和处理速度,从F1测度可以看出,本文算法的检测性能优于其他算法,但由于性能改善是通过增加码本模型个数和结合周围码本模型,处理时间较经典码本模型有了一定的增加。

4 结论

本文算法在经典码本背景模型的基础上,将学习参数引入到码本编码的更新过程中,同时结合八连通区域的空间位置信息,实现近邻像素间码本模型的共享,还将前景和背景分别建模并实现它们的相互转化。这样不仅利用了动态背景在时间轴上的准周期变化,还兼顾了它们的空间上的准周期变化, 从而有效地将真实前景目标导致的场景变化与背景动态纹理导致的场景变化区分开来,提供了比经典码本背景模型更为精确的背景模型,更好地反映了真实背景。实验结果证明,本文提出的改进算法在有随机噪声及光照变化的复杂环境下,对常规分辨率的视频进行检测,能够达到每秒20帧的处理速度,且在保证检测速度的同时,其F1测度能够达到90% ,很大程度上减少了误检,同时没有不合理地增加漏检率,有效地抑制了复杂环境变化产生的噪声, 有效地提高了目标检测的准确性。

摘要:运动物体检测是视频监控系统的一个重要组成部分。针对经典码本目标检测算法存在的自适应动态背景能力不足,以及在复杂环境下检测精确度差的问题,提出一种基于区域信息的自适应码本目标检测算法。首先,利用添加学习率的方法对背景模型进行自适应更新以使其适应不同的光照环境。其次,结合区域信息,将待检测像素的码本和周围像素的码本融合,得到更为精确的背景模型。最后,对前景像背景一样进行建模和更新,使得前景和背景模型可以在预设参数的控制下相互转化,消除由于背景变化造成的误检。实验结果表明:所提算法在有随机噪声及光照变化的复杂环境下,依然具有较好的检测率和较好的鲁棒性。基本满足动态场景中运动目标检测的精度高、速度快、抗噪强以及光照适应性好等要求。

上一篇:地铁服务管理模式下一篇:电梯PLC控制系统