视频背景

2024-05-03

视频背景(精选十篇)

视频背景 篇1

运动目标检测技术广泛地应用在军事目标探测跟踪、智能视频监控、智能交通、计算机视觉、运动分析等领域[1,2,3]。目前运动目标检测按背景不同主要划分为两种模式,即摄像机运动和摄像机静止两种情况,按技术划分主要有三种方法,即光流法、帧间差分法和减背景法[4]。

光流法[5]是利用运动估计进行分割和跟踪运动目标的一种方法。采用运动目标随时间变化的光流特性,通过计算位移向量光流场来初始化基于轮廓的跟踪算法,从而有效地提取和跟踪运动目标。虽然光流法在摄像机运动和静止的情况下都能检测出独立的运动目标,但是由于光流场的计算相当复杂,对噪声比较敏感且对硬件要求较高。

帧间差分法[6]是在连续的图像序列中两个或三个相邻帧间采用基于像素的时间差分并且阈值化来提取图像中的运动区域。连续帧差法对动态环境有很好的适应性,但位置不准确,分割出的运动目标不完整,不能完全提取出目标的所有相关点,容易在运动实体内部产生空洞现象,帧间差分法只能应用在摄像机静止情况下的动态目标检测。

减背景法[7]通过当前图像与背景图像之间的差分来检测运动区域,这种方法是目前运动检测中最常用的一种方法。其优点是位置准确,速度快,只需要获取当前的一幅图像,运算量低,可以做到实时检测与分割,不足之处是受环境光线变化的影响,在非受控环境下,需要加入背景图像更新机制,减背景法也只能应用在摄像机静止情况下的动态目标检测。

减背景法主要包括初始背景提取、背景更新、背景差和后处理四个步骤。初始背景的提取一种方法是建立背景模型,假定初始背景中不含运动目标;另一种方法是选择像素灰度,即通过包含运动目标的序列帧提取初始背景。由于光照、天气等变化直接影响着背景模型的质量,需要及时更新背景。最常用的更新方法是多帧平均法和选择更新法[8,9]。多帧平均法直接将输入图像序列的强度平均值作为当前背景,其缺点在于对场景改变过于敏感。选择更新法指将没有检测到运动的区域即真正的背景进行更新,在背景更新前先逐像素判断相邻两幅图像的差值,若小于一个阈值,则说明在这个像素位置没有检测到目标,可进行背景更新。这种方法依赖于阈值的选取,如果阈值选择不合理,背景图像将很快变得不可用。

对于智能视频监控,背景恢复和提取问题一直是一个研究的重点和难点[10],本文重点是针对摄像机静止时存在动态目标的视频场景背景实时恢复进行了详细分析。

在摄像机静止时,背景提取和更新的理想情况是,在视频场景里,隔一段时间就拍一帧不含运动目标物的场景图像以避免因为光照、阴影等对背景的影响,但在实际应用中是不可能的,一方面很难保证在视频监控场景里隔一个固定时间就会出现没有目标物的背景图像,另一方面即使出现了没有目标物的背景图像,要实现摄像机对实时背景的自动抓拍也是一个技术难点。

本文对基于中值滤波的视频背景更新方法进行了详细研究,实验证明,背景更新的效果好于多帧平均法和选择更新法,本文同时也对中值滤波如何选择图像序列样本帧进行了比较研究,提出了中值滤波视频背景恢复的理论模型。

1 中值滤波背景更新方法

中值滤波背景更新的假定是:在一个短时间(譬如1 min以内)中,视频背景变换不大,视频场景中的一个像素点,在这个短时间期间,经过很多个图像序列后,其处于动态目标上的时间小于处于背景状态的时间,并且处于动态目标上的时候,其强度值是随机分布的,处于背景状态时其强度分布是变化很小而平缓分布的。

譬如在30 s时间段背景变化不大,其实时视频(假定视频帧率为30帧/秒)中有900帧图像,在此900帧图像序列中,我们等分地抽取9帧图像(中值滤波样本数为奇数),如果位置在(i,j)处的一个像素处于动态目标上的时间小于处于背景状态的时间,则其在这9帧图像上的强度分别为:fn(i,j)(其中n=1,2,…,9),在此情况下,fn(i,j)所有值的中值一定就是背景强度,用fn(i,j)所有强度值的中值作为背景很明显比fn(i,j)所有值的平均值作为背景更准确,并且算法比选择像素灰度的方法也更加简单明了。

2 中值滤波背景恢复的理论模型和运用

在讨论中值滤波背景恢复的理论模型时,我们以单车道上的摄像机静止情况下的交通视频监控为例。

假定静止摄像机的视频监控范围远远大于一个车辆长宽的范围(在实际道路监控中也是如此),单车道上运动车辆的速度为v,车的长度为l,则视频场景中某一个位置像素被此汽车覆盖的时间为t1=l/v,假定某一个位置像素不被汽车覆盖的平均时间为t2,也就是说车辆出现的时间周期为(t1+t2),很明显,要想用中值滤波可以在多数情况下恢复出实时背景,至少需要t2>t1,假定视频实时帧率为f(一般f=25∼30帧/秒),如果中值滤波时采用的图像序列样本帧数为x(x是大于等于3的奇数),则图像序列样本帧的间隔数n(即实时视频图像序列隔n帧取一帧作为背景恢复的样本)必须满足:

其中要求t2>l/v。则用来选择做背景更新视频的时间段长度为

从式(1)和式(2)可以看出,车辆运动速度越快,则样本间隔帧数越小,背景恢复需要的视频时间段越短,车辆运动速度越慢,则样本间隔帧数越大,背景恢复需要的视频时间段越长,对于车辆密集拥堵缓慢移动的路段,如果t2>t1的条件不能满足,则中值滤波恢复背景的方法不再适合。

如果一个单车道上,车辆的平均速度为60 km/h,车辆平均长度为6 m,视频实时帧率为f=30帧/秒,中值滤波图像序列样本帧数x=9,并且假定t2=2t1=2l/v,可以算出n>3.6,样本更新的视频时间段为1.08 s,在此时间段内更新背景,可以认为背景是没有变化的,此时单车道车辆出现的时间周期为(t2+t1)=1.08 s,平均车流量为3 300辆/小时左右,车辆的平均速度为60 km/h的情况下,如果车流量超过3 300辆/小时,则中值滤波实时恢复背景的效果就会下降,即此时路面背景被车辆覆盖的概率超过不被车辆覆盖的概率。

对于高速公路单车道监控,假定车辆的平均速度为100 km/h,车辆平均长度为6 m,视频实时帧率为f=30帧/秒,中值滤波图像序列样本帧数x=9,并且假定t2=2t1=2l/v,可以算出n>2.16,样本更新的视频时间段为0.65 s,此时单车道车辆出现的时间周期为(t2+t1)=0.65 s,平均车流量为5 500辆/小时左右。

我们以下面的计算为例说明中值滤波提取实时背景的步骤。在下面的计算中,我们选取总时间段为9 s钟的全部具有运动物体的视频图像,在9 s钟的时间段内,可以认为背景是近似不变的,每隔1 s取一帧,则总共有9帧图像,图像为大小是720×560的真彩色图像,则场景中每一个像素分别有9个红、绿、蓝的值,算法设计如图1所示。

图2是选取的利用中值滤波要恢复背景的9帧图像序列样本(互相间隔1 s)。

运用中值滤波方法,并采用图2中的9帧图像,恢复出的场景实时背景如下图3(a)所示,可以看出实时背景恢复结果是很理想的,作为对比,图3(b)中为9帧图像强度平均的结果,很明显,中值滤波的效果远远好于强度平均的结果。

为了更清楚地说明中值滤波背景更新的原理,我们以视频场景中位置在300行、300列和200行、400列的两个像素为例说明背景提取过程。

300行、300列位置像素在9帧图像中的红、绿、蓝强度分布如图4(a)中星号(*)、圆圈(○)和菱形(◇)三种标记所示,可以计算出作为背景的红、绿、蓝中值分别为183、180、180,这三个值就是300行、300列位置像素的背景强度;200行、400列位置像素在9帧图像中的红、绿、蓝强度分布如图4(b)中星号(*)、圆圈(○)和菱形(◇)三种标记所示,可以计算出作为背景的红、绿、蓝中值分别为185、183、182,这三个值就是200行、400列位置像素的背景强度。

(a)根据图2的9帧图像中值滤波;(b)根据图2的9帧图像灰度平均(a)Median filtering from the 9 images of Fig.2;(b)Intensity averaging from the 9 images of Fig.2

在上述背景恢复计算中,我们是选取了总时间段为9 s的全部具有运动物体的9帧视频图像,在其实时视频图像中,车辆运动满足t2>t1的条件,并且车辆的平均速度为60 km/h左右,车辆平均长度为6 m左右,通过理论模型计算,我们选取总共1.08 s视频时间段的9帧图像序列也是可行的,即帧间间隔n>3.6即可(即不一定选择图2计算中的的n=30),因为帧间间隔越小,总时间段越短,则背景变化越小,背景提取的精度和实时性也越好。

图5为验证中值滤波背景恢复的理论模型的计算结果,我们选取帧间隔为2帧的9帧图像序列和间隔为4帧的9帧图像序列进行了比较,很明显在图5(a)中因为帧间隔不满足n>3.6的条件,没有很好地恢复背景,其本质是我们选取的间隔太小,使得9帧图像在提取背景期间物体的运动范围变化不大,而在图5(b)因为满足n>3.6的条件,很好地恢复出了实时背景,而采用的视频时间段小于2 s,可以认为外界的光照等环境基本没有变化。

(a)根据间隔为2的9帧图像序列;(b)根据间隔为4的9帧图像序列(a)Using 9 images with the interval 2 images;(b)Using 9 images with the interval 4 images

本文的中值滤波背景恢复的理论模型是以单车道上运动的车辆为例建立的,其理论原理也可以应用在其它运动物体的背景恢复中,譬如人员移动等场合的背景分析和恢复。

3 结果讨论

本文对于摄像机静止情况下,运动目标检测领域的实时背景恢复进行了研究,首先介绍了中值滤波恢复动态场景的方法,并创新性地提出了中值滤波进行背景恢复的理论模型,根据理论模型,我们可以明确地知道在何种情况下可以采用中值滤波方法恢复实时背景。

通过实际计算和理论模型分析,在背景被运动目标覆盖的平均时间小于不被运动目标覆盖时间的情况下,采用很小时间段的视频图像序列就可以很好地恢复出场景背景,同时将样本序列采集时间段和帧间隔与运动物体的线度大小及运动速度之间的关系给出了具有明确物理意义的判断公式,在实际应用中就可以根据场景运动物体的历史统计数据(譬如道路车流量)设计适当的中值滤波图像帧间隔。

在动态目标检测和背景恢复领域,目前还没有一个能解决所有问题的方法,本文提出的方法和理论模型也不适合拥堵情况下的背景恢复,对此种情况还需要结合其它方法。

参考文献

[1]任臣,张覃平.基于Kalman滤波理论的运动目标检测新方法[J].光电工程,2007,34(4):7-11.REN Chen,ZHANG Qin-pin.New Method for Detecting of Moving Targets Based on Kalman Filter Theory[J].Opto-Electronic Engineering,2007,34(4):7-11.

[2]秦涛,周泽魁.一种检测序列图像中运动目标的新方法[J].计算机应用与软件,2004,2l(9):105-107.QIN Tao,ZHOU Ze-kui.A New Method for Detecting Moving Objects in an Image Sequence[J].Computer Applications and Software,2004,2l(9):105-107.

[3]何卫华,李平,文玉海,等.复杂背景下基于图像融合的运动目标轮廓提取[J].计算机应用,2006,26(1):123-126.HE Wei-hua,LI Ping,WEN Yu-mei,et al.Algorithm of Extracting Moving Object Silhouette Based on Frame Fusion under Complex Background[J].Computer Applications,2006,26(1):123-126.

[4]王亮,胡卫明,谭铁牛.人运动的视觉分析综述[J].计算机学报,2002,25(3):225-237.WANG Liang,HU Wei-ming,TAN Tie-niu.A Survey of Visual Analysis of Human Motion[J].Chinese Journal of Computers,2002,25(3):225-237.

[5]Barron J,Fleet D,Beauchemin S.Performance of Optical Flow Techniques[J].International Journal of Computer Vision(S1573-1405),1994,12(1):42-77.

[6]Lipton A,Fujiyoshi H,Patil R.Moving Target Classification and Tracking from Real-time Video[C]//Proc IEEE Workshop on Applications of Computer Vision,Princeton,N J,USA,Oct19-21,1998:8-14.

[7]方帅,薛方正,徐心和.基于背景建模的动态目标检测算法的研究与仿真[J].系统仿真学报,2005,17(1):159-165.FANG Shuai,XUE Fang-zheng,XU Xin-he.Moving Object Detection Based on Self-adaptive Background Modeling[J].Journal of System Simulation,2005,17(1):159-165.

[8]Cucchiara R,Grana C,Piccardi M,et al.Detecting Moving Objects,Ghosts and Shadows in Video Streams[J].IEEE Trans.on Pattern Analysis&Machine Intelligence(S0018-9340),2003,25(10):1337-1342.

[9]王圣男,郁梅,蒋刚毅.智能交通系统中基于视频图像处理的车辆检测与跟踪方法综述[J].计算机应用研究,2005,22(9):9-14.WANG Sheng-nan,YU Mei,JIANG Gang-yi.Review on Vehicle Detection and Tracking Techniques Based on Video Processing in Intelligent Transportation Systems[J].Application Research of Computers,2005,22(9):9-14.

商务谈判视频背景以及分析资料 篇2

商务谈判的程序:

开局阶段:(本视频中谈判专家的出场,一语道破谈判的目标,让对方释放人质)

摸底阶段:(视频里谈判专家通过一系列的语言试探,对对方进行洗脑式的谈判,并在试探之后直接提出要求。)

僵持阶段:(对方一开始显然排斥一个陌生人的强硬要求,并对谈判专家产生强烈的抵触情绪,所以出现了暂时性的僵持现象。)

让步阶段:()

促成阶段:(最后在谈判专家提出各种经济和利益条件之下,对方最终放低姿态,答应了谈判专家的要求,也就促成了整个交易活动,谈判取得了标志性的成功)

在本视频中,谈判专家的谈判显然属于主场谈判(虽然这个主场是外交官临时建造用来吸引对方上钩的场地,但是这恰恰充分的说明了谈判的战略性。)谈判专家在充分了解了对方内部矛盾的前提下,攻其心理,利用语言技巧引起对方的兴趣,选择用硬式谈判的模式来进行整个对话,以达到自己的利益目标。谈判专家运筹帷幄的谈判技巧以及对人性的掌握是商务谈判促成的根本原因。

视频背景:日裔员工在玻利维亚被革命武装组织绑架,监禁已经持续了四十天,当地政府与武装组织间的谈判丝毫没有进展,实际争论已将赎金提高到了一百万美金。日本谈判专家与玻利维亚被革命武装组织二把手进行谈判,要求释放被绑架的人员。

地点:在一间地下赌场内进行

准备:

1、日本谈判专家在两周前开设了此间地下赌场,支付租金和员工薪水还有封口费,还不到要求赎金的一半。

视频背景 篇3

关键词 移动学习 微视频 内容设计

中图分类号:TP3 文献标识码:A

近年来,伴随着智能手机、PDA、平板电脑等掌上终端设备的普及和无线宽带、3G、4G网络等立体无线网络环境的形成,移动技术不断渗透到信息获取和生活娱乐等领域,对现代人的生活方式产生了很大的影响。

1理论基础

1.1移动学习的含义

到目前为止移动学习确实没有统一的定义。不过,维基百科(Wikipedia)网站上提供了一个相对有用的定义。事实上它取自我们MoBilearn项目研究的成果。移动学习是手持式移动技术支持的学习或跨越各种情境或地点发生的学习。因此。移动学习包括那些使用移动或个人设备支持的课堂学习和扩增实境性学习(Augmented Learn—ing),或把固定和移动技术结合起来跨越许多不同地点的学习。由此可见,移动学习具有移动性、高效性、广泛性、交互性、共享性、个性化等学习特征,在移动学习条件下,学习者不必被锁定在电脑屏幕前面进行学习,可以“随时、随地、随身”“短、平、快”地进行学习[3],方便学习者在“移动”的状态中利用“零碎”的时间进行学习。

1.2微型视频的定义及其优势

对于微视频的概念,整个网络视频行业乃至学术界并没有一个统一的定义,甚至其名称也是五花八门,比如从开始的短片、短电影,到后来的数字短片以及现在的微视频、短视频、微电影、短电影等。本文主要探讨微视频在教育教学中的应用,结合前述学者对微视频的相关研究,笔者界定的微视频教学资源是多以3-5分钟的长度呈现,依据教学规律制作的供学习者自控学习步调,自主的去实践,探索,发现问题,解决问题的视频片段,它是一种可以让学者通过手机,电脑,MP4等视频终端随时随地反复播放的视频资源。

相比于其他学习方式而言,微视频在移动学习中具有得天独厚的优势。

(1)生动形象,吸引注意力

视频教学的最大优势就是具有生动形象的画面。相对于传统教学方法,视频教学至少存在两方面的优势。一是能够吸引学生的注意力,这在移动学习中尤为重要。根据心理学的观点——学习起源于个体的注意,只有先引起个体的注意,学习才有可能发生,对于移动学习也是同样的道理。二是更具有表现力,相对于单纯的文本、音频和图像来说,微视频对内容的表现更直观、生动,更容易被人们接受。

(2)短小精炼,易于获取

微视频的时长一般在3-5分钟,播放时间较短,能够满足学习者在零碎时间里学习的需求,并且上传下载较快,移动学习是在非正式的学习时间发生的,而且一般来说较为零碎。而在碎片式的时间中,学习者可以利于短小精炼的微视频进行学习,短时间内集中注意力,提高学习的效果。

(3)学习时间私人化

后现代社会中知识爆炸性增长,利用零碎时间进行学习的人群逐渐增多。学习者可以根据个人因素选择学习的方式,可以随时随地进行自主学习,根据调查显示,自主学习是最有效果的一种辅助学习方式。

基于移动媒介终端的微型学习视频的设计,应充分考虑微型学习的特点,如移动终端的自身特性,以及外在网络环境的制约等,设计更适宜在移动媒介终端应用的学习视频。本文基于移动媒介终端,着力挖掘微型视频在移动学习中的应用潜力,探讨微型视频的构建模式与意义所在,为移动学习提供一个新思路。

2移动学习背景下微型视频的内容设计

对学习视频内容的设计,更多地依据满足即时性、实用性的学习需求,并且发扬视频材料的优势,设计出易于学习、便于记忆,能够提高学习效率和记忆效果,并激发学生学习兴趣的视频学习材料。

(1)短小精悍、重点突出

不同于传统课堂学习,在移动学习中学生受外界干扰较多,注意力分散,处于一种边缘性投入与非连续的注意状态。本文所界定的微视频时长一般在3-5分钟,这正是依据调查数据得出的,根据调查数据显示,学生预期的移动学习,视频时长即为3-5分钟。在这珍贵的3-5分钟里,学习内容要尽量做到精炼,重点突出,难点明确。视频界面要简洁,不宜过于繁杂,要灵活使用镜头语言,放大重点知识点和教学视频中的主要步骤,加入剪辑技巧,通过重复、放慢等方式强调关键信息,并综合运用文字、图片、声音、动画等多种信息形式,实现超媒体的交互传播。

(2)教学环节全面,简洁明朗

在每个视频学习模块中,要做到教学环节设计全面,从“问、教、测、引”4个方面进行内容编排。在微视频开头,提出问题,以此快速抓住学生的注意力,再以解答问题的形式,精炼有效地把知识点传授出去。在完成以上两个学习过程之后,进入测验阶段,巩固学习效果,最后在视频末尾,引出下一个知识点,为下一个视频课程做铺垫,通过“引”的过程,把小模块的微型学习串联起来,形成连贯有序的知识体系。

(3)加入督导环节,激发注意力

采用移动设备进行微型学习的学习者,由于外在环境的干扰和学习时的随意心理,往往学习参与度不高,所以在视频材料设计时,要加入督导环节,借用鲜明的提示性画面或者警示性的音频素材,回笼学生注意力,强调学习的重要内容。在短小的学习过程中同样做到张弛有度,层次分明。

(4)分门别类,便于搜索

改进的视频车辆背景差分检测 篇4

关键词:视频车辆检测,背景差分,虚拟线框

随着社会经济的不断发展,公路交通量持续增长,交通拥挤和阻塞现象日益严重,同时带来的交通污染与交通事故也越来越引起社会的普遍关注, 交通运输已经成为国民经济和现代社会发展的关键因素之一。由信息技术、通讯传输技术、自动控制技术以及计算机处理技术等高新技术组成的智能交通系统ITS(Intelligent Transport System)是解决交通拥堵难题的一条有效出路。它借助电子、通信、计算机、人工智能、数据库、运筹规划等先进的技术手段得到和提供道路交通的全方位信息,从而低成本、高效率地对公路交通实现科学的管理,达到高效合理地利用道路交通资源、及时测报和防范交通隐患、促进交通管理、城市安全的现代化的目的。

交通信息包括交通事件(交通事故、闯红灯等)和交通流量、车道占有率、行程时间等交通参数和道路拥挤程度等信息,其中车速、车辆驶向等参数在交通信息检测中起着至关重要的作用。在车辆信息检测中,人工测量方法只适用于作短期内的调查,不适用于实时交通控制和交通流的诱导。因此,就需要应用自动检测技术,同时测量多种车辆信息,从而便于对交通的实时监测与控制。随着数字图像处理理论的不断完善、计算机硬件系统的迅速发展、高速处理芯片和高速大容量存储芯片的出现与普及,从图像序列中检测出运动信息,识别与跟踪目标成为车辆信息实时检测技术的主要发展方向。

车辆实时检测的方法多种多样,但其基本原理就是利用运动车辆的某种特征把车辆目标从动态的图像序列中提取出来,目前常用的方法有基于背景差分的检测方法[1,2,7]、基于邻帧差分的检测方法[5]、基于检测窗数据流的检测方法[3,4]、基于概率特征分组的检测方法、基于阴影的检测方法。背景差分算法在处理运动目标的检测时较其他方法有着灵活性强、准确度高的优点,因而更加利于对动态的车辆目标进行检测。

但是,传统的背景差分算法[1]进行车辆检测需要对二维图像进行大面积的目标搜索并识别,这对于视频车辆的实时检测导致计算量过大。为准确、实时地进行车辆检测,本文在参考检测窗数据流法思路的基础上,对传统的背景差分法进行了改进,提出一种基于虚拟线框的车辆实时检测方法。该方法通过在各个车道上设置类似于电磁感应线圈的虚拟线框,通过判断车辆是否触发虚拟线框来进行车辆检测,避免了对图像进行复杂的图像分割,从而大大降低了算法的运算量。

以下第二部分中着重介绍基于虚拟线框的车辆检测算法的设计思想以及利用这种方法进行车辆信息的检测。第三部分测试该算法的处理速度和精度。最后是结论。

1 车辆检测算法

1.1 车辆识别算法

本文的算法是以背景差分法[7]为基础的,背景差分法是一种应用很广泛的运动目标提取方法,包括差分图像、图像分割和目标识别三个部分。差分图像是指将当前帧图像与预先提取的背景帧图像(无目标出现)逐像素差分,对于差分值大于某个阈值的像素二值化为1,差分值小于某个阈值的像素二值化为0;这样,二值化结果为1的像素所组成的区域为图像变化区域,这就将目标可能出现的区域从图像中分割出来了,称为图像分割;接着对该区域内的像素进行目标识别,即判断区域内是否存在车辆,目标识别的方法有很多,常用的有边缘检测法[1,3,8]、模型匹配法[6]、颜色特征分析法。

传统的背景差分法[1]是基于彩色图像的,由于本文的算法无需对车辆的颜色进行判断,所以车辆的颜色信息为无用信息,因此,在图像处理过程中,先将图像的颜色信息滤除,即将彩色图像转化为灰度图像,这样就能在一定程度上减少算法的计算量。

用背景差分法检测目标,使用的参考帧(背景帧)的好坏直接关系到检测的精度。然而,随着环境中光线和天气的不确定的变化,背景图像也是在不断变化的,单选取一个固定的背景图像进行差分肯定会造成较大的误差,降低算法的准确度。因此,在车辆检测中,背景帧不是一成不变的,而是需要不断刷新的[7]。所以,背景提取应当分为背景的初始选取和动态更新两个过程,背景初始选取就是在进行实时的视频车辆检测之前先预先选取一个没有目标出现的背景图像,以后的各个帧就同该背景帧进行差分。背景的动态更新就是根据当前帧和背景帧两个图像,来推导出在没有车辆通过的情况下当前帧的道路背景图像,滤除掉所有的车辆、行人,光线,天气等干扰。背景更新如以下公式(1)所示:

上式中,Bn、Bn + 1为第n、n+1帧背景帧灰度,Cn为当前帧灰度,若当前帧灰度Cn与背景帧灰度Bn之间差分绝对值小于阈值时,通过平均法进行背景更新,若大于阈值就保持原背景不变。

但是,如果对整个图像进行上述的背景更新、差分图像、图像分割、目标识别等运算,并且在目标识别的基础上还要对其进行跟踪,以提取车辆信息,这对于每秒要处理25帧图像的系统来说计算量太大,不利于实时处理。这就需要对背景差分算法进行改进,降低其运算量,以达到高效,准确的进行车辆实时检测的目的。

检测窗数据流法[3、4]通过在图像中有车辆出现的某个区域设置一个检测窗,通过对检测窗内的图像进行边缘检测,当有车辆目标出现在窗口内时,算法就将该目标的边缘信息提取出来,从而判断出是否有车辆目标出现。检测窗的作用就类似电磁线圈,一旦被触发就向系统发出目标出现的信号。检测窗法只需要对窗口内的图像进行处理,从而避免了对整幅图像进行大面积目标搜索。但是,不断地对窗口内的图像进行边缘算子的计算也很难达到预想的效果,并且对于边缘信息不明显的车辆线框很难检测到,因此,仅用检测窗法进行目标检测还是存在弊端。

本文在背景差分算法的基础上,结合检测窗数据流法的思想,提出一种基于虚拟线框的视频车辆检

测算法。算法的基本思想是:在每个车道上设置虚拟线框,算法仅对虚拟线框内的图像作背景差分处理,即将当前帧中线框内的像素与背景帧线框内的像素进行差分处理,这样,就避免了对整个图像进行复杂的图像分割,直接对线框内的差分结果做特征分析,本文采用面积分析法,即当目标占用线框总面积的1/2 以上时,触发虚拟线框,从而得到目标出现的信号。

1.2 车辆目标的跟踪

如果需要对车辆行驶方向和行驶速度进行检测,只对车辆目标进行识别是不够的,必须对车辆目标进行跟踪,即从连续的数帧图像中提取出车辆的运动轨迹。利用传统的背景差分算法进行车辆跟踪计算量是相当大的[1]。国内外的专家们也提出过许多能够准确进行目标跟踪的算法,如:基于模型分析的目标跟踪方法、基于运动估计的目标跟踪方法[7]、基于边缘检测的目标跟踪算法[8]、基于轮廓匹配的目标跟踪算法[6]。这些方法都能够准确对目标进行跟踪,而且还能够得到目标车辆的车型,车长,尤其是基于边缘检测和基于轮廓匹配的跟踪算法,它们甚至能直观的在视频图像中将车辆目标锁定并且在图像中表现出来。但是,以上算法存在一个通病,那就是算法复杂,对于检测器的运算速度要求较高。同时,算法的复杂性必然会导致算法的不稳定。而利用虚拟线框法进行车辆跟踪,虽然不能得到车型、车长等信息,但其算法简单,速度快,在同样能准确的检测出车辆的行驶速度和行驶方向的基础上耗费的硬件资源更少。

下面介绍一下虚拟线框法进行车辆目标跟踪的基本思想。如图1所示,在整个图像的感兴趣区域(即车辆检测区域)设置两个虚拟线框,一个线框作为车辆识别线框,用于判断有无车辆出现,另一个线框作为车辆跟踪线框,用于进行车辆行驶方向判断和车速的测量(两个线框中每个线框都可能作为车辆识别线框,关键是看哪个线框先被触发)。开始时,对该车道设置的两个虚拟线框进行目标检测,若某个线框内出现目标,则该线框成为车辆识别线框,另一个线框为车辆跟踪线框,并开始计时。当另一个线框也被触发,车辆跟踪结束,停止计时。此时即可输出车辆行驶方向,并且两个线框之间的距离(路面上的实际距离)除以计时变量输出的时间就是车辆行驶的(平均)速度。

2 测试结果及分析

本文分别对不同车型,不同颜色的50 辆车的进行检测。车速车辆定性地划分为快速、中速、慢速三个部分。本文对每辆车分别检测5 个时段,每个时段检测25 帧图像,图像的分辨率为720×576像素,根据实验中检测准确的帧数除以帧数25得到一辆车在某个时段下的检测准确率,然后对得到的准确率求平均即可得到一辆车的识别准确率。每个虚拟线框的大小约为150×15像素。实验结果如表1所示。

经过测试,算法的测试效果还是比较理想的。结论如下:

1)算法对车辆行驶方向检测效果较好,在处理速度基本达到25帧/秒的情况下检测准确率约为

88%,对车辆行驶方向的判断基本准确。

2)在测试过程中,当虚拟线框内在首帧就有车辆出现时,车辆方向检测出错。

3)对于车辆颜色与路面相近的情况,算法出错,出现车辆“断裂”现象,即在车辆通过虚拟线框过程中出现某帧显示“无车经过”。

4)在车辆行驶缓慢的情况下,算法准确率明显下降。

3 结论

获得各条道路的交通流参数是对城市交通状况进行监控的前提,同时它又为城市的道路规划提供了必要的依据。基于视频的交通流检测方法由于它的种种优点目前已经成为了智能交通系统中的一个研究热点,视频检测方法的准确性和实时性是直接影响它实际应用价值的两个指标。

视频背景 篇5

如何在论坛帖子中插入背景音乐或者视频我在浏览今天老灶发布的推荐歌曲帖子页面时发现没有插入背景音乐播放代码,仔细研究下原来帖子编辑器里没有内置这个工具按钮,那么我们怎么办呢? 第一步:大家注意在你发布帖子和编辑帖子的时候你的电脑显示器右边有如下内容: Html 代码 可用 表情 可用 Discuz!代码 可用 [img] 代码 可用 这个内容说明我们的帖子是支持HTML代码的.第二步:那么我们需要在默认表情下的选择项目里把“启用 Html 代码”选项打上勾,如图所示: 第三步:将帖子的编辑模式切换到“Discuz!代码模式”,如图所示: 第四步:在你需要插入背景音乐播放器的地方添加如下代码: ,如图所示: 第五步;保存您的帖子即可.完了在您帖子的阅读状态就会出现一个宽度是200个像素,高度是30个像素的小播放器界面,如图所示: 特别说明: 歌曲的格式可以支持wma/mp3/rm三种格式,歌曲的地址可以在 http://mp3.baidu.com 里面查找,但是请记得一定要先试听,选一个能听而且网速快,缓冲时间短的歌曲地址,以便网友在阅读您帖子的时候.一打开背景音乐就响起来.怎么样,赶快去试试吧!PS:如果有爱好网页设计的朋友欲了解更详细的网页背景音乐播放器代码的插入方法请阅读以下页面 http:///web/1/viewspace-2003 [网页或者论坛帖子阅读页面背景音乐播放的插入代码] 引用: 代码:“歌曲地址” 表示音乐地址 请注意:这个不是播放器 而是让背景音乐每次刷新都可以自动播放 方法二 要不就用以下的方法 第一步,加播放器的代码(不用别人做的JS播放器),我只要最简单的。其实要说最简化的播放背景音乐的代码,则下面的代码是最简单的了 呵呵,我用的是: loop=“-1”表示无限次循环播放,可设置播放次数,用具体数字代替即可,比如我希望它播放两次,则loop=“2” controls=“ControlPanel”这个控制选项可省略 width=“0” height=“0”表示隐藏播放。想设置播放器的大小,设置值即可,比如width=“480” height=“25” 我是放在文章里的,所以直接把文章切换到代码模式粘贴上刚才的代码就可以了。第二步,实现连续播放多首歌曲 播放器会弄了,用百度或者搜刮找到歌曲的地址,替换代码中“背景音乐网址”就可以播放歌曲了。但是这样只能是一首歌曲啊。没关系,记得当初用winamp或者千千静听的时候不是有个播放列表吗?对,用m3u格式。新建一个记事本文档,在里面写上如下代码保存为“任意名.m3u”: 需要更多歌曲可重复“……”代码 嗯,然后?把保存的文件(例如musci.m3u)上传到你的个人主页或者随便其他水木地方(我是传到googlepage的)。再把m3u的IE地址放到第一步中的“背景音乐地址”处就可以实现连续播放的目的了。不信,试试看。因为当你打开博客的时候,虽然不能自动播放,但是播放器首先要加载第一首歌曲,当遇到错误无法识别的歌曲地址时就会自动跳转到第二首而播放第二首歌曲。不过这里需要注意的是,第二首歌曲的地址里不能带有汉字,否则跳转到第二首歌曲的时候它也不会自动播放,第三首,第四首歌曲之后就没限制了,只要歌曲地址对就行

基于背景差法的视频图像分割 篇6

随着科技的发展, 视频处理领域发展也越来越快。如今视频图像分割是视频处理领域中的一个重要组成部分。所谓视频图像分割, 就是根据序列场景图像和运动物体图像的特征, 将运动物体区域从场景中表示出来, 从而达到分割运动物体图像的目的。

目前常用的运动物体分割方法有:光流法、帧差法、背景差法。其中背景差法是这三种方法中最直接、最简单的一种方法。这种方法是先要获得背景图像, 然后再用背景图像和当前帧图像作差, 一般情况下, 由于运动物体在灰度上和背景灰度存在着很明显的差异, 所以差值图像只在运动物体处有较大的灰度值。选取适当的阈值Q, 差值图像的灰度值大于Q, 就视为前景图像;灰度值小于Q, 就是为背景点。

2 背景的提取

运用背景差法来分割运动物体时, 背景图像的获得很重要。通常使用的背景图像获取方法有三种:手动给出, 统计方法和用背景更新算法来获得背景图像。在本文中我们用Surendra背景更新算法[3]来获得背景图像。

Surendra背景更新算法能够自适应地获取背景图像。该算法提取背景的思想是通过当前帧帧差图像找到物体的运动区域, 对运动区域内的背景保持不变, 而非运动区域内的背景用当前帧进行替换更新, 这样经过一段时间就可以提取出背景图像。其算法可以分成以下几个步骤:

(1) 将第1帧图像I0作为初始背景B0。

(2) 选取阈值Q, 迭代次数m=1, 最大迭代次数MAX_STEPS。

(3) 求当前帧的帧差分图像

(4) 由二值图像Di更新背景图像Bi, 即

式中, Bi (x, y) , Di为背景图像和差分二值图像在 (x, y) 的灰度值;Ii为输入的第i帧图像;α为迭代速度系数。

(5) 迭代次数m=m+1, 返回 (3) , 当迭代次数m=MAX_STEPS时结束迭代。此时Bi (x, y) 可视为背景图像。

3 阈值分割

在用前面的方法获得背景图像以后, 就可以运用背景相减来获得运动物体, 也即用当前帧图像和背景图像相减来产生差图像。直接相减所得的差图像中既有正值的象素点, 也可能出现负值的象素点。所以, 我们可以采用取绝对值的方法解决。

在获得差图像之后要用阈值来将图像二值化, 从而得到二值化图像。阈值分割基本思想是对一幅图像选定一个阈值后, 所有灰度大于这个阈值的象素都被置为255 (白色) , 而所有回的小于这个阈值的像素则都被置为0 (黑色) 。阈值分割中, 阈值的选取很重要。在差分图像中大量存在的是具有较低灰度值的背景像素和具有较高灰度值的前景像素。如果阈值取得太低, 往往将导致某些较低灰度值的背景像素也能够越过阈值而被判为前景像素, 但是如果阈值取得过大, 也将会导致本来属于前景的像素点被判为背景像素, 使得前景出现丢失情况。因此, 我们舍弃直接定阈值的方法, 用迭代式的方法来进行阈值选择。

迭代式阈值选择方法的基本思想是:开始时选择一个阈值作为初始值。然后按某种策略不断地改进这一估计值, 直到满足给定的准则为止。在迭代过程中, 关键之处在于选择什么样的阈值改进策略。好的阈值改进策略应该具备两个特征:一是能够快速收敛, 二是在每一个迭代过程中, 新产生阈值优于上一次的阈值。下面介绍一种迭代式阈值选择算法, 其具体步骤如下:

(1) 选择图像灰度的中值作为初始阈值T0。

(2) 利用阈值T把图像分割成两个区域--R1和R2, 用下式计算区域R1和R2的灰度均值μ1和

(3) 计算出μ1、μ2后, 用下式计算出新的阈值Ti+1:

(4) 重复步骤2~3, 直到Ti=Ti+1, 则所得即为阈值。

用上述方法获得阈值T后, 就可以得到帧差二值图像。当前帧图像为Ii, 背景图像为用前面方法所得到的B, 则二值差分图像为

这样, 在差分二值图像的灰度值为255的象素点可视为前景的运动目标点。

4 形态学处理

在得到差分二值化图像的过程中, 由于噪声的影响, 会使一些本来属于背景的象素点被错误地检测为前景的运动目标, 也会使前景的目标象素点被错误地检测为背景点。同时, 由于背景物体的轻微扰动也会使这些背景点被错误地识别为运动目标点。这样就会使差分二值图像会出现一些孤立点和目标物内有空洞的问题。为了消除这些影响, 需要对获得前景和背景的差分图像作一些处理, 在此我们用形态学处理的方法。

数学形态学处理的基本运算有:膨胀 (dilation) 、腐蚀 (erosion) 、开启 (opening) 和闭合 (closing) , 其中腐蚀和膨胀是最基本的操作。我们在这里选用腐蚀和膨胀运算。

简单的腐蚀是消除物体所有边界点的一种过程, 其结果使剩下的物体沿其周边比原物体小一个像素的面积。如果物体是圆的, 它的直径在每次腐蚀后将减少2个像素。如果物体任一点的宽度少于三个像素, 那么它在该点将变为非连通的 (变为两个物体) 。在任何方向的宽度不大于2个像素的物体将被除去。腐蚀对从一幅分割图像中去除小且无意义的物体来说是很有用的。

一般腐蚀定义为:

也就是说, 由S对B腐蚀产生的二值图像E是这样的点 (x, y) 的集合:如果S的原点平移到点 (x, y) , 那么S将完全包含于B中。使用基本的结构元素时, 一般意义的腐蚀简化为简单腐蚀。

简单膨胀是将与物体接触的所有背景点合并到该物体的过程。过程的结果是使物体的面积增大了相应数量的点。如果物体是圆的, 它的直径在每次膨胀后增大2个像素。如果两个物体在某一点相隔少于三个像素, 它们将在该点连通起来 (合并成一个物体) 。膨胀在填补分割后物体中的空洞时很有用。

一般膨胀定义为:

也就是说, S对B膨胀产生的二值图像D是由这样的点 (x, y) 组成的集合, 如果S的原点位移到 (x, y) , 那么它与B的交集非空。采用基本的结构元素时, 一般膨胀简化为简单膨胀。

5 结果分析

上图中 (a) 为当前帧图像, (b) 为利用Surendra背景更新算法获得的背景图像, 可以看出所获背景较精确。 (c) 为 (a) 和 (b) 的差值图像, 再利用迭代阈值法将差值图像二值化, 即得到 (d) 。得到二值化图像后, 我们可以看到, 在图像中大量孤立点, 而且前景物体也不连续, 所以采用形态学处理。在经过腐蚀和膨胀处理后, 从 (f) 可看出已经很好地去除了孤立点和前景空洞, 提取出了运动物体。

摘要:本文运用背景差法来进行视频图像分割。利用一种背景更新的方法来获取背景图像, 解决了手动和统计获得背景的方法对背景变化不具有自适应调节作用的缺点。然后将当前帧和背景作差, 并对差值图像进行二值化以及形态学处理, 使运动目标被很好地分割出来。

关键词:视频分割,背景差法,背景更新,背景提取

参考文献

[1]姚敏等.数字图像处理。-北京:机械工业出版社, 2006.1

[2]郝文化.MATLAB图形图像处理应用教程。-北京:中国水利水电出版社, 2003

[3]于成忠, 朱骏, 袁晓辉.基于背景差法的运动目标检测。东南大学学报 (自然科学版) , 2005.11

基于阈值矩阵的视频背景滤噪算法 篇7

随着我国社会和经济的发展, 生活水平的提高, 人们对于居住环境的要求也越来越高, 住宅小区安全保卫系统应运而生, 视频监控系统由于其直观、形象和价格相对较低的优点在小区安全建设中得到广泛应用, 但视频监控系统的缺点是在实际使用中要求监控人员注意力长时间高度集中, 一个细小的疏忽常常会造成安全漏洞, 往往让视频监控系统变成了事后追踪系统, 没有起到应有的实时安全监控作用。解决这个问题的方法, 除了加强对监控人员的管理, 也可以采取更多的技术措施。

本课题旨在解决上述问题, 将视频运动图像智能识别技术引入到住宅小区安保系统中, 扩展住宅小区安全系统的功能, 减少安保人员的工作强度, 提高了安全系统的可靠性, 实现了小区安全系统的智能化。

视频监控中运动目标检测常用算法[1]有减背景法[2]、帧间差值法、光流法[3]等。光流法的优点是对动态环境有很好的适应性, 但计算复杂度高, 实时性难以保证;减背景法把帧序列中的每帧与固定静止的参考帧 (背景) 进行帧差计算, 若差值大于某一阈值, 就判断帧中具有运动目标, 减背景法对光线、天气等光照条件的变化较敏感, 抗干扰能力较弱;帧间差值法是通过若干连续帧间变化检测运动目标, 具有算法简单、实时性强的优点, 但难以获得精确目标。

本系统设计目标主要是在午夜到凌晨人迹稀少时段监控特定位置异常运动物体 (主要是人体) , 发出提示报警声音, 并自动进行安全记录, 并不要求识别运动目标具体特征, 因此选择了帧间差值法检测。

我们在研究过程中发现对于运动目标检测的帧间差值检测技术主要面临以下问题:

(1) 采用帧图像的何种信息作为提取帧间变化差值计算的依据;

(2) 视频序列帧间背景信息在现实世界中并不是完全静止的, 运动目标的背景只是相对静止的, 为了降低误报率, 系统必须具备一定的抗干扰能力。

2、基于阈值矩阵的直方图帧间差值滤噪法

在本课题中, 我们发现视频背景噪声主要有: (1) 位置相对静止的扰动, 如树叶抖动; (2) 近地面小型运动物体扰动, 如小型猫、狗的跑动 (3) 位置相对静止的亮度扰动, 如灯光开闭。

针对上述情况, 我们提出了一种基于阈值矩阵的直方图帧间差值法。这种方法的基本思路:以若干经过平滑处理的连续相邻帧的灰度直方图信息作为帧间差值计算依据, 为了取得帧图像中二维位置信息, 将每帧分为m×m网格, 与此对应构建一个m×m阈值矩阵, 将阈值矩阵作用于对应帧内区块, 网格化地过滤背景噪声, 采用有监督学习训练法对阈值矩阵取值进行优化, 提高系统鲁棒性和自适应能力。

2.1 基于阈值矩阵的帧间差值算法

灰度直方图技术具有运算简单高效、抗干扰能力强等优点, 在视频检测中得到广泛应用, 但直方图技术的主要缺点是缺少二维位置信息, 本文提出了一种基于阈值矩阵的直方图技术, 应用于视频运动目标检测中, 以便网格化改善背景噪声滤波。

设F是具有一定性质的点组成的区域 (即帧图像) , 将F划分为m×m网格, Fij为i行j列网格区块, P={ (x, y) | (s, y) ∈F}为属于Fij区块的点的集合, 该区块灰度范围为[fmin, fmax], L=fmaxfmin, 则灰度直方图表示为:

其中n为区块内像素总数, nk表示灰度为rk的像素数目。对Pr (rk) 做均衡化处理, 则

构建F区域分块网格的灰度直方图均衡化矩阵:

其中, Tij为区块Fij的直方图均衡化值。

在实际应用中, 我们通过取连续若干帧区域分块直方图均衡值的平均值, 可以更有效地进行平滑, 特别是对于象树叶抖动这类扰动具有更强的抗噪能力。

将相邻帧间直方图差值归一化, 这样的目的是可以对阈值设定为百分比, 更有利于比较相同网格中直方图均衡值的变化:

其中

x、x+1相邻帧编号, dij表示相邻帧间Fij区块直方图均衡值变化的百分比绝对值。

接着, 构建分块灰度直方图均衡值阈值矩阵, 以此作为相邻帧间直方图均衡值变化是否超过允许百分比值的依据:

其中, eij为设定的初始阈值, i=1, 2, …m, j=1, 2, …m, eij值可以通过有监督的学习训练算法进行优化。

将相邻帧间直方图差值归一化矩阵D与阈值矩阵进行比较, 当帧间差值超过阈值时, 说明视频中出现异常目标, 监控系统发出报警提示。

2.2 本算法在背景滤噪中的应用

通过构建基于阈值矩阵的帧间差值算法后, 已经可以实现视频中运动目标的检测, 但本算法的特点是在检测运动目标的同时对视频背景噪声进行网格化过滤。

本课题采用分块阈值矩阵的优点是可以获得视频图像中二维位置信息, 同时由于本系统视频监视头位置固定, 也就意味着背景内容相对固定, 通过调整矩阵的行列数能更精确地确定位置信息。

实际应用的系统中, 对于视频图像不同位置的监控敏感度要求是不同的, 例如图像中出现的通道出入口是监控重点, 应给予较高的优先级, 而对于树枝等部位则可以给予较少的关注, 道路等部位是监控重点, 而监控的目标通常是人体, 因此对于近地面运动目标 (如猫狗的跑动) 可以给予较少的关注。下面介绍具体处理方法。

1.在系统调试阶段给予阈值矩阵中各网格相同的阈值, 设定自动调整阈值步长s, 在系统发出误报时, 通过有监督的学习训练自动调整对应网格阈值;

2.为了防止自动调整阈值过高造成漏报, 设定阈值的最高值h, 自动调整不得超过该最高值;为了防止自动调整阈值过低造成对于噪声过于敏感, 设定阈值最低值l, 自动调整不得低于最低值。

3. 特定位置可以根据安保人员要求直接设定相应的阈值, 以便保证其敏感度。

3. 小结

本文针对住宅小区安保系统中视频监控系统特点, 提出了一种基于阈值矩阵的视频背景滤噪算法, 该算法可以有效地弥补了直方图缺少二维位置信息缺点, 在检测运动目标的同时对视频背景噪声进行网格化过滤, 实现了视频背景滤噪中有监督学习算法。

在实际应用中, 我们发现本算法通过有监督学习训练后对于树叶抖动、猫狗跑动等扰动具有良好的滤噪能力, 对于位置相对静止的亮度变化 (如灯光开闭) 也取得了较好的效果, 但有改进空间, 今后主要考虑引进彩色图像处理算法[4][5]。

本算法的主要缺点是对于运动目标形态特征缺乏识别能力, 虽然在本系统应用并无这方面要求, 但为了提高识别能力, 这仍将是今后改进的方向。

参考文献

[1].吴静, 须德.基于视频监控的运动目标检测.科技信息, 2007年第2期

[2].林洪文等.基于减背景技术的运动目标检测方法研究.国防科技大学学报, Vol.25 No.3 2003:66-69

[3].王凌等.一种基于光流场的复杂背景下人脸定位方法.计算机工程与应用, 2008.8:68-71

[4].王熠等.形态描述矩阵及其在彩色图像检索与识别中的应用.中国科学E辑技术科学, 2004, 34 (3) :337-344

视频背景 篇8

关键词:移动视频直播,弊病,治理,互联网直播元年

2016年11月25日艾瑞咨询集团发布了《2016年中国移动视频直播市场研究报告》, 资料显示:伴随着移动时代的来临及直播类型的不断拓展, 视频直播历经了多个发展阶段, 2015年初移动直播进入爆发式增长阶段, 移动直播平台数量井喷且直播用户大幅增长[1]。基于以上分析, 本文将研究重点放在移动视频直播上。

1 移动视频直播兴起的缘由

本文主要是从用户的角度来考察视频直播受欢迎的原因, 笔者认为以下几个层面是视频直播火爆的主要驱动力。

1.1 互动:社交的需求

1943年, 美国心理学家马斯洛在《动机与人格》论文中提出, 人有五层需求:生理需要、安全需要、社交需要、尊重需要和自我实现的需要。当生理需要和安全需要得到满足之后, 温饱问题得到解决后, 人们开始注重社交的需要, 由于孤独和无聊的驱使, 使得他们追求社会交往和互动[2]。于是社交成为一种强需求产品, 而移动直播视频可以满足几乎所有用户的社交需求。

欧洲批判学派认为, “作为自主的主体, 人并不是像笛卡尔哲学中所主张的那种孤立的自我, 而是一种在具体的社会历史处境中能够体现自身的自我。”[3]2016年1月22日, 中国网信网发布了《第37次中国互联网络发展状况统计报告》, 报告显示, 与点播视频横向比较, 有接近60%的用户表示更愿意在看直播时参与互动, 这本身和移动直播视频的自身特点息息相关, 当在线用户达到一定数量并同时在关注同一个事件时, 互动参与的热情也随之升高, 在此基础上也更容易产生更多样的互动行为[4]。

1.2 偷窥:好奇心的驱使

视频直播中用户的偷窥心理可以从内部环境和外部环境两个方面来解析。“外部环境”是消费文化主义的原因所致, “内部环境”是大众天生的偷窥心理, 这种天性驱使大众进入私人领域探索。自古以来, 人类皆有偷窥心理。

精神分析学家弗洛伊德通过临床实证解释:“每个人的潜意识中都有偷窥他人的欲望。”[5]从用户的角度出发, 任何人都会有好奇心、窥探欲, 心里普遍会琢磨别人现在在干什么。而直播大大不同于录播, 它是实时的反映, 正好满足了用户的好奇心。这也是视频直播如此火爆的原因之一。

1.3 体验:个性化的追求

互联网的开放性所带来的个人自主性, 是一种实际的生活体验, 而不是书斋里的哲学概念。这就是视频直播带来的最大变化, 即去中心化, 去边框化。它把人们所处的狭小房间的门窗、墙壁全部推倒, 展现没有束缚、不加边框修饰的真实人生, 形成以自我为中心, 追求个性化的自我画像。因为它并不具有传统媒体的那种强制性, 并且还可以通过网络大数据的分析, 精准定位用户的选择倾向, 做到智能化的内容推送, 甚至一人一端, 为每位用户量身打造专属的个性化平台。

1.4 共生:认同感的寻找

英国哲学家大卫·休谟曾提出“共感”概念, 他认为, 对个人来说, “共感”是人的肉欲、需求、好奇心、贪婪乃至野心的“灵魂”“鼓动原则”[6]。这也就是为什么发呆、睡觉、吃饭、唱歌、化妆与逛街等, 这些日常生活的直播内容都会有人观看, 而且人数众多的原因。这是互联网“连接”的属性所在, 寻找一种共同存在的感觉。视频直播让年轻的用户找到了一种自我归属感。

2 移动视频直播存在的弊病

直播行业风口到来后, 主播与直播平台见风使舵, 也使移动视频直播因种种缘故而备受质疑。

2.1 低俗文化泛滥

当中国的网络直播已如当年美国的电视一样普及的时候, 中国的传媒文化也已在娱乐至死的边缘摇摆不定。直播低俗文化泛滥的背后, 实际正是社会民众对新媒体文化的娱乐消费观念, 对传统文化价值的无视与挑战。

在不少直播过程中, 主播们语言粗俗, 脏话连篇, 围观粉丝“弹幕”语言更是没有底线, 对观众造成不当诱导;色情视频甚至成人电影, 大量的低俗内容总是不停地以擦边球的方式来博人眼球, 各种花边新闻堪比娱乐圈, 对社会造成了不良影响。

鲍德里亚认为:“后现代媒体社会的‘淫秽法则’导致公共领域和私人空间发生‘内爆’, 从而把日常生活中最私密的东西展现出来。”[7]一些直播平台把低俗娱乐展现给广大受众, 这是一种纯粹追求感官刺激的做法, 伤害了广大用户, 也悖离了社交服务的本质。

2.2 价值观异化

高度发达的互联网时代、火爆的视频直播、功利化的投资目的、单一的盈利方式, 驱使视频直播游走在窥私、审丑等有悖于传统文化价值观的边缘上, 不仅会严重误导青少年的价值观, 更会严重影响到优秀传统文化的继承和发扬。

正如尼尔·波兹曼所说:“有两种方法可以让文化精神枯萎, 一种是奥威尔式的——文化成为一个监狱;另一种是赫胥黎式的——文化成为一场滑稽戏。”[8]这恰好映照了今天中国当下传媒的现状:人们沉浸在直播这种全新的大众媒体带来的刺激和麻痹之中, 主流文化和公众话语几乎都在围绕着娱乐展开, 人们的世界观、人生观、价值观趋于畸形。

最鲜明的例子就是, 一位9岁的男孩给女主播送了8万多元的打赏, 因为女主播比较萝莉, 他很喜欢。女主播在几万人的直播中特别感谢他, 这让男孩感到特别自豪, 于是接着给女主播送礼物, 直到直播结束。然而这并非个案。据某直播平台负责人统计, 未成年人为主播打赏在一个月内已经发生6起。对此, 国家网信办有关负责人也曾表示, 这有悖于社会主义核心价值观, 导致价值观导向错误。

2.3 传播伦理失范

视频直播平台的兴起, “人人都有麦克风”, 使人们分享个人日常生活更加方便快捷, 但同时也带来了问题, 比如分享暴力与死亡的过程。越来越多的强奸、自杀等场景出现在视频直播上, 出现在公众的视野中。

2014年11月30日, 四川泸州一位19岁小伙子在微博上直播自己的“自杀”, 在整个直播中, 网友围观、留言评论, 其中的冷漠、观望和幸灾乐祸的观点充斥网络。2016年4月19日, 美国一名17岁的少女遭强奸, 其闺蜜在一旁一边直播强奸过程, 一边拍下受害少女的裸照。2016年5月, 法国巴黎一名19岁的女孩直播自己跳下火车的那一瞬间。令人无法理解的是, 她的同行者竟然无动于衷, 全程冷眼观看。

这些事件都彰显了视频直播的传播伦理失范问题。网络直播平台作为视觉媒体, 其本身具有娱乐性, 这种娱乐性带来的社会娱乐化本无可厚非, 但以侵害他人安全、漠视他人生命来到达“狂欢”的行为应该遭到伦理道德的谴责。

3 移动视频直播的治理措施

尽管视频直播正站在互联网时代的风口, 发展势头势不可挡, 但是它带来的危害也是不容忽视的问题, 人们必须警惕它存在的弊病, 尽快治理隐患, 以防它威胁到公众和社会的安全。这就需要从两方面着手, 一方面是政府的监管, 即他律;另一方面是直播平台自身的约束, 即自律。

3.1 他律:专项整治, 合力监管

2016年3月下旬开始, 全国“扫黄打非”办公室联合中央网信办、公安部、新闻出版广电总局等多部门开展视频直播平台专项整治活动。同时, 各地政府部门也积极配合履行职责, 开展专项整治工作, 针对存在的问题加强监管, 对涉嫌传播淫秽色情信息的直播平台及其负责人依法查处。

2016年4月14日, 文化部公布行业查处名, 斗鱼、YY、熊猫TV、虎牙直播首批行业试水者被列入查处黑名单, 并追究相关单位的法律责任, 对情节严重的视频直播平台给予停业整顿。

从7月末到10月末, 公安部组织了全国范围内的视频直播平台整治工作, 重点整治了三类视频直播平台:一是群众举报问题集中、网民曝光的;二是涉嫌传递淫秽信息、打架斗殴、聚众赌博等违法行为的;三是直播企业自身管理混乱、安全措施不落实的。

2016年11月4日, 国家网信办发布了《互联网直播服务管理规定》, 12月1日起开始正式实施, 这次规定更加详细具体, 对无论是直播平台、主播, 还是观看者都提出了相应的要求。比如:对平台要求有牌照, 直播必须实名;对用户建立信用等级制度;建立先审后发的管理制度等[9]。

不过仅做到以上还远远不够, 只有主管部门继续加强监管, 加大整治力度, 并制定完善的行业标准, 才能让视频直播走在规范的轨道上。

3.2 自律:行业公约, 责任意识

截至2016年6月, 中国互联网信息中心的调查数据显示, 7.1亿网民, 3.25亿人看过直播。而据主管部门统计, 国内视频直播的平台企业也已超过300家, 而且数量还在持续增长。有专家预言, 到2020年前, 视频直播及其相关产业将会达到千亿元资金的规模。

在此背景下, 视频直播想要持久稳定、健康有序地发展, 依靠的不仅仅是政府部门的监管, 最根本的还是直播平台自身的自律:建立行业自律公约, 培养高度的社会责任感。

2016年4月13日, 北京市网络文化协会携同百度、新浪、搜狐、六间房、花椒等20余家从事网络直播的主要企业共同发布《北京网络直播行业自律公约》, 内容涉及主播的实名认证及培训与引导、直播房间添加水印、直播内容存储不少于15天、违规主播名单通报机制、落实企业主体责任等自律要求。

互联网时代, 移动视频直播不能“金玉其外, 败絮其中”, 视觉文化下的视频直播更应该注重内涵和品质。所以视频直播平台要回归社交服务的本质, 不能以主播颜值为唯一卖点, 要努力提高从业者的专业素养和道德伦理素养。对于一个大众传播媒体来说, 不能以追求经济利益为唯一诉求, 还要遵守社会责任, 把社会效益放在首位, 努力实现社会效益的最大化。

4 结语

移动互联网时代的到来, 正在颠覆以往一切看似合理的存在, 视频直播真正开启了现实生活“在线观看”的模式。不过人们不仅要看到直播所带来的巨大效益, 更要看到它可能会引发的社会问题。移动视频直播站在互联网时代的风口上, 不能“得意忘形”, 毕竟还存在很多弊病, 需要不断改进和完善。只有监管与自律相结合, 视频直播才能够清除野蛮, 一直优雅地生存下去。

参考文献

[1]艾瑞咨询.2016年中国移动视频直播市场研究报告[EB/OL]. (2016-11-25) [2016-12-10].http://www.iresearch.com.cn/report/2677.html.

[2][美]亚伯拉罕·马斯洛.动机与人格[M].许金声, 等, 译.北京:中国人民大学出版社, 2007:34-37.

[3]贺翠香.劳动·交往·实践——论哈贝马斯对历史唯物论的重建[M].北京:中国社会科学出版社, 2005:108.

[4]中华人民共和国互联网信息办公室.第37次中国互联网络发展状况统计报告[R/OL]. (2016-01-22) [2016-12-10].http://www.cac.gov.cn/2016-01/22/c_1117858695.htm.

视频背景 篇9

随着4G网络的普及,凭借座席系统支撑的某些客服服务,越来越希望能够通过视频给客户提供解说业务或业务推销等更加人性化和可信的服务。通过把原始视频的背景替换,不仅可以保护客服人员的工作环境及其隐私,还实现了视频图像背景的有效利用,增加了客服服务的可信度。因为视频图像中的前景较大,且没有明显的变化,故背景替换的主要问题演变成如何把微动目标实时从背景中准确地分割出来。原始视频图像经过图像分割[1]、形态学处理、背景替换等技术可实现视频序列图像的微动目标分割、背景替换。

在利用Otsu得到前景、背景的分割阈值获得视频图像微动目标二值图的基础上,为了解决微动目标肤色与背景颜色相似这一问题,本文提出结合Adaboost模型训练HSV空间下的肤色样本[2,3],得到强分类器,确定肤色阈值范围,获取肤色检测的二值图;然后将两幅二值图融合得到微动目标粗二值图,使用形态学处理去除噪声,孔洞填充[4]等预处理得到完整的微动目标二值图,最后用需要的视频图像替换原始视频图像背景,得到合成的视频图像,具体算法流程如图1所示。

1 阈值选取

微动目标在视频图像中变化不大,图2中(a)、(b)、(c)是视频图像中的三类微动目标。由于微动目标几乎不动,所以背景相减法、帧差法、Codebook模型、混合Guassian模型[5]等传统方法很难将实时场景中的微动目标从视频图像中准确地分割出来。并且如前景与背景颜色相近、光照、噪声、阴影等,极其容易造成微动目标的误分割。

如前景与背景颜色相近、光照、噪声、阴影等,极其容易造成微动目标的误分割。

1.1 Otsu法阈值选取

1979年日本学者大津(Otsu)提出的Otsu法是一种广为应用的阈值选取方法[6],但该方法只考虑了像素点的灰度信息。根据图像的一维直方图,把图像分为前景、背景两部分。对于图像f(x,y),前景和背景的最大类间方差作为分割阈值,记作T。若f(x,y)<T判断为前景,反之判断为背景。

1.2 二维Otsu法阈值选取

二维Otsu法,利用原图像与其邻域平滑图像构建二维直方图。设图像f(x,y),1≤x≤M,1≤y≤N,灰度级为L,其邻域平滑图像g(x,y),可以从每个像素点计算其n×n邻域的平均灰度值,其灰度级也为L。由此,构建图像二维直方图。同时,增加了计算的复杂性,也限制了二维Otsu法的使用。

1.3 肤色检测阈值选取

1995年Freund等人提出的Adaboost算法是一种迭代算法[7],可以避免不必要的训练数据,而把重心放在关键的数据集上。Adaboost算法通过训练筛选出分类能力一般的弱分类器,然后使用加权方式把筛选后的分类器进行叠加,构成分类能力强的强分类器。

肤色是人脸显著特征之一。HSV[8]空间具有对亮度分量分开处理的特性,可以避免亮度带来的影响,故本文使用Adaboost算法对HSV空间的肤色样本库训练,得到肤色的阈值范围[9,10]。得到肤色区域检测二值图如图3所示,肤色检测算法流程如图4所示。

1.4 K-means聚类结合肤色检测

瞿中等人提出了K-means聚类与肤色检测相结合的微动目标检测分割算法[11],用K-means聚类分别对属于前景、背景的像素点进行分类。当选好背景类之后,找到背景点从而得到K-means聚类算法分类后的类别标识值,根据此标识值把背景区域用黑色像素点填充,非背景区域用白色像素点填充,最终获得微动目标二值图。由于K-means算法是迭代的聚类算法,因此分割处理运行时间相对较长。

2 微动目标分割

使用Otsu提取微动目标时,由于微动目标的肤色和背景颜色相近,会出现误分割,如图5所示将人脸、手等部位误检为背景。为了解决Otsu的弊端,本文将Otsu的一维直方图升到二维直方图,得到二维Otsu,但是视频图像处理的运行时间也随之成倍增长,而且大部分序列图像经过形态学、孔洞填充等处理后,仍不能获得完整的二值图模板,如图6所示。K-means聚类与肤色检测相结合的微动目标检测分割算法虽然可以完整提取微动目标,但是牺牲了系统的实时性。本文将Otsu阈值分割得到二值图和肤色阈值分割得到二值图相融合,不仅解决了微动目标肤色和背景颜色相似的问题,获取了完整二值图,还得到了较前两种微动目标提取方法实时性好的算法。

本文算法主要分为微动目标预分割、微动目标粗分割和微动目标二值图预处理及背景替换三大模块。

具体的算法步骤如下:

(1)输入待替换背景的视频图像。

(2)利用Otsu法计算前景、背景的最大类间方差,获得阈值T,若图像f(x,y)<T,标记为前景,反之则标记为背景,然后得到微动目标视频图像的二值图。

(3)建立肤色样本库,手动分割肤色,并将获得的肤色和非肤色数据由RGB空间转换到HSV空间,通过Adaboost算法模型对肤色这一特征进行提取、分类,并确定肤色分割阈值的范围,进而得到视频图像中微动目标肤色检测二值图。

(4)结合步骤(2)、(3)判断,若fe(x,y)为白色像素点,或ff(x,y)为白色像素点,则fn(x,y)用白色像素点标记,如式(1)可获得微动目标粗分割的二值图。

其中,fe(x,y)是通过Otsu法获得的微动目标二值图,ff(x,y)是通过肤色阈值检测所获得的二值图,fn(x,y)是合成的微动目标粗二值图。

(5)通过步骤(4)获得的微动目标粗二值图经过形态学处理、孔洞填充等预处理过程获得微动目标完整的视频图像二值图,并最终确定微动目标二值模板。

(6)利用二值图模板的黑白信息分别获取替换背景视频图像和原始视频图像的信息,并对两者颜色信息进行融合,最终得到背景替换视频图像,如式(2)。

其中,f(x,y)是原始视频图像,是替换背景视频图像,ft(x,y)是背景替换后合成的新视频图像。

2.1 微动目标预分割

本文分别用Otsu法和肤色检测将待分割视频图像预分割,分别获取到视频图像中微动目标二值图和视频图像中肤色检测二值图,如图7中的(a)、(b)所示。

2.2 微动目标粗分割和预处理

通过微动目标预分割,结合式(1),得到视频图像的微动目标二值图,因为这样的二值图存在一些噪声和空洞,如图8所示,故称为粗二值图。粗二值图像依旧影响图像中微动目标二值图的完整性。因此需用形态学处理和孔洞填充进一步完善微动目标二值图。

具体的孔洞填充算法步骤:

(1)将微动目标粗二值图进行形态学处理。

(2)遍历当前图像,查找二值图模板的所有轮廓,获取轮廓边界的序列或数组。

(3)通过步骤(2)所查找的轮廓,获取其感兴趣轮廓部分的起始点,计算表示轮廓部分和起始点连线所构成的封闭部分的面积,记为Area。

(4)若封闭面积Area<Area-T,用白色像素点填充。

(5)若封闭面积Area≥Area-T,则进入下一个轮廓面积的计算,并且重复步骤(3)。

其中,Area-T是孔洞面积阈值,通过部分帧的图像轮廓面积获得最大Area,定义为Area-T。对图8执行这一步骤,便得到完整的微动目标二值图,如图9所示。

(6)遍历结束。

2.3 背景替换

在获得的微动目标人物二值图模板中,白色像素点和黑色像素点分别表示视频图像前景、背景。将白色区域对应的原始视频图像与黑色区域对应的待替换背景视频图像合成,便完成了背景替换,如图10所示。

3 仿真实验结果及分析

本文实验视频是在自然状态下采集。图11是三种算法对视频图像随机抽取的17帧(第180帧、第200帧,…,第500帧)对微动目标分割处理运行时间的比较。纵轴为微动目标分割处理运行时间,单位ms,横轴是随机抽取的帧数。其中算法1是二维Otsu,算法2是K-means结合肤色检测,算法3是本文算法。由图11知,本文算法运行处理时间快于K-means结合肤色检测算法,并且快于二维Otsu算法十几倍。

表1是二维Otsu、K-means结合肤色检测、本文算法、专业人士绘画得到的微动目标序列图像二值图白色像素点的统计个数。根据表1像素点的统计个数,可依次获得三种算法对微动目标提取的准确率,如图12所示。分别用二维Otsu的准确率P、K-means结合肤色检测的准确率Q和本文算法的准确率R量化评估本文算法。P、Q、R分别定义为:

其中,Ne是二维Otsu微动目标白色像素点的统计个数,Nk是K-means结合肤色检测微动目标白色像素点的统计个数,Nr是本文算法微动目标白色像素点的统计个数,Nt是通过专业人员提取的微动目标白色像素点的统计个数。随机抽取实验视频图像中的17帧(帧号Num:180,200,…,500)进行计算,其结果如表1所示。

从表1的三种微动目标提取完整性量化分析表可获知三种算法提取像素点平均依次为5428、5851、5996,最接近完整的微动目标6123。

图12是根据式(3)计算得到二维Otsu、K-means结合肤色检测算法以及本文算法的P、Q、R值的折线图,可更直观地看到本文所提算法的准确率较高。实验结果证明,本文算法在实时提取微动目标过程中具有更高的准确率。

4 结语

本文采用Otsu与肤色检测相结合的方法,解决了肤色与背景颜色相近的问题。通过实验验证,本文算法不仅有效地获取了微动目标的二值图,还可以以较高的准确率提取微动目标,并最终较好地完成了微动目标的背景替换。下一步工作研究复杂背景替换。

摘要:为了实现视频图像中微动目标的背景替换,需要解决微动目标准确提取这一难题。首先利用Adaboost分类器训练肤色样本库,获得肤色与非肤色数据,并确定肤色的阈值范围,得到肤色检测二值图;然后将肤色检测二值图和Otsu分割的微动目标二值图融合得到微动目标序列图像的粗二值图;经过形态学、孔洞填充等处理过程得到完整的二值图模板,最后完成视频图像的背景替换。仿真实验表明,所提出的算法可以较好地分割出微动目标并实现背景替换。

关键词:Otsu,Adaboost分类器,肤色阈值,形态学,背景替换

参考文献

[1]Liu S,Gao D,Yin F.Infrared image segmentation method based on 2D histogram shape modification and optimal objective function[J].Journal of Systems Engineering and Electronics,2013,24(3):528-536.

[2]Luo G,Yang S,Tian G,et al.Learning Human Actions by Combining Global Dynamics and Local Appearance[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2014,36(36):2466-2482.

[3]瞿中,张亢,乔高元.MB-LBP特征提取和粒子滤波相结合的运动目标检测与跟踪算法研究[J].计算机科学,2013,40(8):304-307.

[4]Lin S,Ruimin H,Rui Z.Depth similarity enhanced image summarization algorithm for hole-filling in depth image-based rendering[J].Communications,China,2014,11(11):60-68.

[5]吴桐,王玲.基于帧差分块的混合高斯背景模型[J].计算机工程与应用,2014,50(23):176-180.

[6]Otsu N.A threshold selection method from gray-level histogram[J].IEEE Trans.System.Man and Cyhernetics,1979,9(1):62-66.

[7]Li Z,Wang W,Liu X,et al.An efficient multi-threshold Ada Boost approach to detecting faces in images[J].Multimedia Tools and Applications,2015,74(3):885-901.

[8]任磊,赖惠成,陈钦政,等.基于改进K均值聚类与HSV模型的棉花分割算法[J].计算机工程与设计,2013,34(5):1772-1776.

[9]Chatrath J,Gupta P,Ahuja P,et al.Real time human face detection and tracking[C]//International Conference on Signal Processing and Integrated Networks.IEEE,2014:705-710.

[10]Lee Y H,Kim B,Kim Y.AAM-based emotion recognition using variance of facial feature points on mobile video stream[J].Computer Systems Science and Engineering,2014,29(6):423-428.

视频背景 篇10

智能视频监控系统大致可分为4部分:目标检测、目标识别、目标跟踪和行为分析。其中目标检测是最基础的部分, 其他部分都是以目标检测结果为基础的。目标跟踪是被应用得最多的, 如在公共场合中对可疑人物的跟踪、机器人视觉中对物体的视觉追踪、交通监控中的违章车辆的跟踪等等。目标识别常用于辅助其他部分进行目标种类的区分。行为分析就是目标运动的理解。

在国内比较有代表的研究如清华大学计算机科学与技术系的谢树煌教授等人在进行动态视频对象的识别与检测研究, 对无规则行进队伍中的人员进行检测与统计的系统模型和算法设计。

国际上许多著名科研机构以及研究人员也对该领域存有浓厚的兴趣, 在计算机视觉等领域取得了丰硕的成果。基于已有的研究, 本文提出了自适应场境的运动目标跟踪方法并初步验证了系统算法的可行性。

1 基于背景差分法的视频运动目标检测

背景差分法是常用的运动目标检测方法之一, 该方法实现简单, 并能完整地分割出运动对象。关键是如何得到稳定、可靠的背景。本文采用的混合高斯模型, 其关键是如何把新出现的数据引入到原有分布模型中, 以及前景判断准则的选取。

如果能得到没有运动目标的一段帧序列, 那么初始背景可从中直接抽取, 最简单的方法是从中抽取出一帧作为背景。设fi (x, y) (i=1, 2, …, n) 为一连续的帧序列, 则背景B可以通过下面公式获得:

B=fi (x, y) (1)

为了获得更有代表性的背景图像, 可对一系列没有包含运动目标的图像逐像素求平均, 并把结果作为背景。

N实际的监控环境大都较复杂, 目标区域的像素变化很难用单一分布模型来描述, 须用多分布模型{η1 (Xt) , …, ηk (Xt) }描述。其中ηk (Xt) ={μk (Xt) , Dk (Xt) }, 下标k表示第k个分布, N代表分布模型个数。

系统使用混和高斯分布模型来描述每一个像素点上最近的变化{X1, …, Xt}。则当前观测点的概率是:

k 1ωk (t) 是t时刻第k个分布的优先权系数, 它反映了第k个分布最近时段出现的频度。

随时间推移, 背景是变化的, 所以背景模型必须能自适应变化。背景模型的更新策略是背景模型设计中最关键的技术。在模型更新时应注意如下原则:对背景变化的响应速度要足够快;对运动目标要有较强的抗干扰能力。因此, 本文采用Stauffer的方法来进行近似计算, 将每一个新捕获的像素值Xt与已知混合模型里的N个分布进行比较, 直到找到一个与Xt最匹配的分布。匹配的

λ一般取3~7。根据ωk/Dk对混合模型里的N个分布进行排序。使得可能性大的分布在序列前端, 可能性小的在序列后端, 逐渐被新加入的分布代替。

如果混合模型里的N个分布与Xt都不匹配, 说明Xt是一个新的前景点, 使用一个新的分布η (μ, D) 来代替混合模型里优先权系数最小的那个, 该新分布的均值μ=Xt, 方差D取Dmax, 优先权系数ω取一较小的值。t时刻混合模型里N个分布的优先权系数使用下面的公式更新:

α是学习速率, 1/α定义时间常数, 它决定分布参数更新的速度, 实质上式 (5) 对ωk (t) 进行低通滤波。

t时刻各分布均值参数用下面的公式更新:

t时刻各分布方差参数用下面的公式更新:

ρ=αη (Xt|μk (t) , Dk (t) ) 为了降低ρ的计算量, 可使用下面的公式:

该方法更新背景的优点是:一旦某一物体成为背景的一部分, 在混合模型里描述原有背景的分布仍存在, 直到它成为分布序列里最后端的分布, 当有新的前景点出现时, 该分布模型才会被替换。

但该方法在优先权系数更新时, 没有考虑初始化。一种改进的方法是设定一个常量β, 则α变成一个关于t的函数, 表示为

2视频运动目标的跟踪

运动物体的跟踪是指通过对摄像头等设备所获得的图像序列进行分析, 计算出目标在每帧图像上的二维位置坐标, 并根据不同的特征值, 将图像序列中不同帧内同一运动目标关联起来, 得到各个运动目标完整的运动轨迹。

2.1 Lucas-Kanade算法

Lucas-Kanade方法是基于局部平滑性约束来求解的光流算法, 算法假设在一个小空间邻域上运动矢量保持恒定, 然后使用加权最小二乘法估计光流。在大小为的图像中, 以点E (i, j) 为中心的空间邻域上, 光流估计误差定义如下:

W (x) 表示窗口权重函数, 常取高斯函数, 使邻域中心对约束产生的影响比外围更大。W (x) 使用如图1的高斯模板。

对分别求对u和v的的偏导数, 再将其展开得:

依次对图像中每个点应用上式求得u和v光流值。LK算法较高效, 其复杂度为O (N×N) , 且是以局部平滑为前提, 避免了光流在全局平滑而导致物体边界间的模糊, 但如果图像中有突变的区域或点, 那么光流估计的误差也会很大。

2.2光流的运动预测

在实验中采用目标区域LK算法来实现运动预测。如图2, 假设第k帧中有目标A和B, A往右运动而B往左运动, 目的是通过k和k+1帧得到A和B的运动参数, 如运动方向和速度等, 然后预测在第k+2帧A和B可能会出现的位置。

利用目标区域LK算法进行运动预测的具体实现如下:

(1) 取第k帧, 通过背景差分法得到k帧中的目标A

(2) 得到A和B的位置坐标;

(3) 取第k+1帧, 用LK算法计算k帧中在A、B的位置范围内的像素点的光流值, 然后统计值不为零的像素点的平均光流值。实际应用中的目标大多不是刚性物体, 所以在目标运动时存在局部异向运动的可能, 所以目标区域中的光流可能存在方向上的不同。为了求得目标整体的主要光流值, 首先统计得到占目标最大区域面积的u、v光流值方向 (正或负) , 然后再计算光流方向为该方向的像素点的平均光流值, 即目标的光流值 (u, v) ;

(4) 将第3步中得到的目标A和B的 (u, v) 值通过下面公式, 估计A和B在k+2帧可能的位置:

在第k+2帧标记出估计的位置, 再用 (1) ~ (2) 步得到k+2帧中的目标A和B的新的位置, 以此来修正光流预测的误差。

3系统设计

3.1目标检测模块

目标检测模块的实现流程如图3

目标检测的流程大致包含3个步骤:首先对输入的图像做背景差分得到目标的二值图像;紧接着做形态学去噪处理;最后在去噪后的二值图像中找到每个目标及其轮廓, 将每个目标外围矩形框位置坐标信息记录到目标的MP中, 然后进入背景更新模块。

3.2背景更新模块

背景更新模块的实现流程如图4。

对输入的每个目标, 先获取目标外围矩形框的位置坐标, 在矩形区域内做帧间差分, 如果有85%以上的区域没有灰度变化则用该区域替换背景。否则再判断该区域的面积是否大于目标的阀值, 若小于则表示该目标是可以忽略的, 否则该目标区域就是运动目标, 输出该目标作为“特

3.3光流计算模块

光流计算模块的输入为检测到的目标及其所在区域 (由目标MP中的4个位置参数得到) , 通过该模块能得到目标的光流值并保存到目标MP中, 还能通过光流值预测目标的运动。该模块使用目标区域LK算法来计算目标区域的光流值。光流计算模块实现流程如图5。

4试验结果与分析

该跟踪系统是在Windows XP操作系统下, 使用Visual C++6.0集成开发环境, 基于OpenCV开源库实现的。证明系统的可行性。

运动目标检测跟踪系统的运行结果如图6所示, 捕获源为视频文件;若没有设置背景图像则自动取视频第一帧为背景。

参考文献

[1]LINDA G.SHAPIRO, GEORGE C.STOCKMAN.计算机视觉[M].北京:机械工业出版社, 2005.

[2]WEI MING HU, TIENIUTAN, FELLOW, IEEE, LIANG WANG, AND STEVE MAYBANK.A Survey on Visual Surveillance ofObject Motion and Behaviors[J].IEEE Transactions on Systems, Man, and Cybernetics-Part C:Applications and Reviews, 2004 (8) .

[3]CHRIS STAUFFER, W.E.L GRI MSON.Adaptive BackgroundMixture Models for Real-Ti me Tracking[C].Proc.of CVPR, 1999.

[4]刘瑞祯, 于仕琪.OpenCv教程——基础篇[M].北京:北京航空航天大学出版社, 2007.

上一篇:标准光源下一篇:程序控制技术