编码压缩标准

2024-05-09

编码压缩标准(精选八篇)

编码压缩标准 篇1

关键词:JPEG标准,MPEG-1标准,MPEG-2标准,MPEG-4标准,MPEG-7标准

0 引言

随着数字广播电视设备的产生与应用,作为广播电视工程技术人员,一定要了解和掌握数字信号的各种编解码标准的理论和应用。国际标准化协会ISO、国际电子学委员会IEC、国际电信协会ITU等国际组织,于20世纪90年代领导制定了多个重要的数字信号编解码标准。如MPEG的标准系列,MPEG-1、MPEG-2标准、MPEG-4标准、MPEG-7标准,在2001年12月完成的MPEG-21标准等。

1 JPEG标准

JPEG(Joint Photographic Experts Group)是联合图像专家小组的英文缩写。JPEG标准是1985年提出,1992年公布为国际标准。

JPEG压缩编码方法称为JPEG算法。JPEG是国际上色彩、灰度、静止图像的第一个国际标准。是一个适用范围广泛的通用标准,主要用于计算机静止图像的压缩,还有数码相机的图像均以JPEG格式存储。JPEG格式是目前网络上最流行的图像格式,各类浏览器均支持JPEG这种图像格式,因为是可以把文件压缩到最小的格式,占用空间小,下载速度快。

在Photoshop软件中以JPEG格式储存时,提供11级压缩级别,以0—10级表示。其中0级压缩比最高,图像品质最差。即使采用细节几乎无损的10级质量保存时,压缩比也可达5:1。比如,以BMP格式保存时得到4.28MB图像文件,在采用JPG格式保存时,其文件的大小仅为178KB,压缩比达到24:1。在实际工作中,常采用第8级压缩为存储空间与图像质量兼得的最佳比例。

2 MPEG-1标准

MPEG-1标准,1988年开始,1992年成为音频压缩编码国际标准。编号是:ISO/IEC11172,是用于运动图像及伴音的编码,码率达1.5Mbps。是世界上第一个集成视、音频编码标准,第一个只定义解码器(接收机)的标准,第一个独立于视频格式的视频编码,第一个以软件方式制定并含软件实施的标准。主要用于活动图象,如VCD等家用数字音象产品。其音频3层即MP3广泛应用于网络音乐。

MPEG-1标准技术特点:

2.1 MPEG-1标准目标是“对当比特率为1.5Mb/s时,用于数字存储媒体的动态图像及其伴音的编码”。它首先提出了流数据结构,使视频数据的描述更加完善。最高编码速率1.8 Mb/S;实现方法:DCT、运动补偿和霍夫曼编码;信源输入格式为SIF,如为CCIR-601格式的信源要转换成SIF格式才能输入MPEG-1编码器。

2.2 为了解决随机访问和高效压缩的要求冲突,在MPEG-1中定义了四种主要的图像类型:I帧、P帧、B帧和D图像。I帧只使用帧内编码,必须传递;P帧用于前向预测;B帧用于双向预测;D图像用于甚低频图像的浏览。

2.3 MPEG-1视频压缩中主要用到两项基本技术[1]:一种基于16块运动补偿:适用于预测编码和插补编码,用于减少帧序列的时间冗余度;一种基于变换域(DCT)的压缩技术,用于减少空间冗余度。

2.4 MPEG-1的音频部分只涉及单声道和立体声,音频使用48KHz、44.1KHz、32KHz三种采样频率,视音频的总数据率1.5Mb/s。MPEG-1的音频LayerⅢ简称MP3已得到广泛使用。

比如:利用MPEG-1制作大容量DVD影碟。一部30集的电视连续剧,只需三张DVD光盘制作压缩。这种压缩DVD采用的MPEG-1视频的码率是和标准VCD一样的1150Kbps;音频编码采用48kHz采样率的MPEG-1/2LayerⅡ音频,略高于VCD的44.1kHz;字幕可采用DVD的标准字幕或内镶字幕。同理,一张4.7GB的DVD可放下超过450分钟的节目,也就是约8到10集电视剧。这样有利于电视台对影视资料的保存。

3 MPEG-2标准

MPEG-2标准1988年提出,1994年公布为国际标准,编号是:ISO/IEC13818,是一种通用的运动图像视、音频编码标准。码率可达9Mbps。广泛应用于用于活动图象,如数字有线电视、数字机顶盒、DVD和数字电视(包括SDTV和HDTV)的信源编码。MPEG-1是MPEG-2的子集,同MPEG-1标准一样也包括系统、视频和音频等内容,它克服并解决了MPEG-1不能满足日益增长的多媒体技术、数字电视技术对分辨率和传输率等方面的技术的缺陷[2]。

MPEG-2标准的主要技术特点:

3.1 它将一个或更多的音频、视频或其他的基本数据流合成单个或多个数据流,以适应存储和传送。

3.2 系统输出两个数码流:节目比特流PS,用于相对无误差的环境;传输比特流TS,用于有噪声媒质。

3.3 MPEG-2的类与级:它有4种输入格式,称为级。从有限清晰度的VHS(家用录像系统)质量图像直到HDTV图像,每一种输入格式编码后都有一个相应的范围。除了在源格式提供这种灵活性之外,它还有不同的处理方法,称为类,每一类都包括压缩和使用方法的一个集合。不同的类意味着使用不同集合的码率压缩工具。主级和主类提供720×576(PAL)25帧的ITU-R 601建议图像质量。在压缩比为30:1或更小时,它可以提供广播质量的编码图像,也可工作在大压缩比如200:1下,效果与MPEG-1相差不大(即与MPEG-1兼容)。分辨率要求有低(352x288)、中(720x480)、次高(1440x1080)、高(1920x1080)不同档次。

3.4 其音频编码采用MUSICAM标准,即自适应掩蔽型通用子带综合编码和复用。兼容MPEG-1的音频编码方式。

MUSICAM标准可分为三种格式:[2]

第一层:传输速率可在32kb/s和448kb/s之间选择。用于音频录音磁带,第一层称为简化MUSICAM方式。

第二层:称为MUSIC方式,压缩比高于第一层。第一层和第二层均采用32个子带编码,在每个子带频率区间内进行PCM编码。

第三层:压缩比更高,第三层解码器可以解第二层和第一层的音频编码,而第二层解码器也可解第一层的编码。MPEG-2除了视、音频压缩标准外,也有复用系统标准。

3.5 MPEG-2编、解码器设备接口及其应用:MPEG-2数据信号的三种接口:同步并行接口(SPI);同步串行接口(SSI);异步串行接口(ASI)。

三种接口连接的设备:QPSK解调器、QAM调制器、复用器、解复用器、电信网络适配器、非线性编辑设备、硬盘播出设备、数字录像机、数字摄像机等。

三种接口采用的传送包结构:204/188。其中,HD-SDI高清晰度串行数字分量接口:HDTV使用符合SMPTE292M标准的串行数字分量接口传输数字分量电视信号及其内嵌的多路数字音频信号,其取样频率为74.25MHz,量化电平10bits,码率为1485Mbps。使用75ΩBNC连接器和75Ω同轴电缆,用8281电缆时最大传输距离100米。

4 MPEG-4

MPEG-4标准1993年开始,1999年形成国际标准。编号是:ISO/IEC14496,是一种基于对象的可视和音频对象编码标准,视频码率5Kb/s至5Mb/s,音频编码2Kb/s至64Kb/s。它包容了以前的MPEG-1和MPEG-2标准,制定了大范围的级别和框架,广泛应用于数字存储媒体、会议电视/可视电话、数字电视、高清晰度电视、广播、通信、网络等流媒体领域。

MPEG-4标准的主要技术特点:

4.1 MPEG-4标准是基于音频和可视对象的编码。

将众多的多媒体应用集成于一个完整的框架内,旨在为多媒体通信提供标准算法和工具。用于实现视听数据的小编码及更为灵活的存取。与MPEG-1和MPEG-2有很大不同,它更基于内容的交互性,高的压缩率和灵活多样的存取模式。

4.2 MPEG-4在VOD(视频点播)业务中的应用。

视频点播是近年发展起来的基于多媒体技术的交互式服务方式,VOD是以数字压缩技术为基础、网络与多媒体技术相结合的交互电视系统。VOD业务主要有影视选播、电视购物、远程教学、远程医疗、电子图书馆和交互式电子游戏等。目前流行的VOD系统主要采用MPEG-2编码标准。这种标准的画面质量好,压缩比高。然而MPEG-2标准在VOD业务的应用中也暴露出其不足方面:基于宏块和帧的编码方式限制了对内容的交互操作、压缩效率仍不理想、窄带网上的传输质量受到限制和对媒体的兼容能力有待提高等。

同采用MPEG-2标准的VOD业务相比,基于MPEG-4的VOD业务具有以下特点:

①图像主观质量更好;②交互性更完善;③灵活性更大,VOD业务部门可以根据不同地域的具体条件、使用不同的传输网络(如HDSL、ADSL、HFC和FTTH/FTTC等),开展VOD业务。VOD用户也可以对音/视频的质量、实时性和接入网方式等作自由选择。④多媒体兼容能力更强,MPEG-4不但支持自然音频、视频,而且支持自然和合成的混合音频、视频。比如,在VOD电子游戏中,用户可以利用自然的音频和视频创作动画和合成声音;在VOD影视节目点播中,用户可以在画面上选择叠加自己母语的字幕,或者叠加其它文字信息(如股票行情等)。我台在有线电视网络中正在实施进行。

5 MPEG-7

MPEG-7标准1997年开始,2001年达到国际标准。编号是:ISO/IEC15938,它不是内容的分析也不是内容的检索,更不是信息压缩编码技术,而是一种多媒体内容描述的标准,定义了描述符、描述语言和描述方案,便于对多媒体等内容的处理。应用于数字图书馆、各种多媒体目录业务、广播媒体的选择和对日益庞大的图象、声音信息的管理及其迅速检索。根据功能分为内容描述、内容管理、内容组织、导航和访问以及使用者交互5类。

6 结语

随着科技的发展数字信号的编码压缩技术不断地发展和完善,上述的各种编码压缩标准总体可以归纳为有失真编码压缩和无失真编码压缩两种标准。

参考文献

[1]高文.多媒体数据压缩技术[M].北京:电子工业出版社,1994.2.

[2]杜百川.数字电视[M].北京:北京广播学院出版社,1999.

噪声图像的分形压缩编码研究 篇2

以256×256的Lena灰度图像为例(噪声均为零均值的高斯白噪声),在对图像进行分割时,取B=4,D=8。表1给出了用分形压缩算法对噪声图像编码的结果。图2和图3给出噪声方差为50时的噪声图像和分形压缩图像。

从表1中可以明显看出,当图像被高斯白噪声污染后,分形编码算法的性能明显降低,一是编码时间大大增加,而且噪声方差越大,编码时间越长,这主要是因为图像被污染的程度越大,图像信息损害的就越厉害,图像的分形特性遭到破坏,在编码过程中寻找匹配块的难度就越大、时间越久,分形算法的编码效率大大降低。二是重构图像信噪比降低,图像质量严重恶化,尤其是方差增大时,图像质量恶化更严重,如方差为200时,重构图像的信噪比降低了24.36(如图3所示),图像的一些信息特征已经不存在了。因此要提高含噪声图像的编码效率和信噪比,就必须对图像先进行去噪处理,同时要保证图像的分形特点。由于小波已被广泛地用于图像处理并获得良好的效果,所以利用小波方波对图像进行去噪处理。

编码压缩标准 篇3

进入21世纪以来,随着信息技术、多媒体技术和计算机网络的飞速发展,人们的生活方式及获取信息的方式方法正在发生改变,处于其核心地位的多媒体信息已成为人类获取信息的最主要载体之一,特别是基于视频图像的编解码技术及网络通信的应用,已经成为当前多媒体技术研究的热点。当前,基于先进视音频编解码技术标注的数字高清电视、数字立体电视、网络流媒体、无线移动视频通信、高清视频监控等应用已经得到广泛应用。数字视频编解码技术标准成为这些应用的核心,高效视频编码技术的研究也成为多媒体技术广泛应用的关键。视频编码的根本目的是在降低编码码率的同时能够提供高质量的视频图像给终端用户,编码和传输人类视觉不能察觉到的或者不感兴趣的信息对于网络带宽和终端设备来说是一种浪费。从本质上来说,压缩机制和视觉系统面临着一个相似问题,即怎样以一种有效的方式来描述视觉对象以消除图像内部的视觉冗余。基于此种思想,从视频图像内容的角度出发,利用人眼视觉理论来指导视频压缩编码,在保持视频图像主观感知效果基本不变的条件下,尽可能地降低编码码率成为未来视频压缩编码技术发展的趋势之一。 因此,本文将从视频编解码采用的关键技术、当前主要的视频编解码标注制定机构及所制定的标注、各类标准的压缩效率与复杂度和未来视频编码技术的发展趋势等几个方面对视频编解码技术进行详细介绍。

2视频编解码框架与关键技术

传统数字压缩编码技术是建立在Shannon信息论的基础上,经过大半个世纪的发展,已经取得了众多重要的研究成果。1948年,Oliver,Pierce和Shannon等人在Pro- ceedings of IRE上发表了The philosophy of PCM[1]一文, 该文利用脉冲编码调制技术对模拟电视信号的数字化处理进行研究,这是现代数字视频压缩编码技术的起源。 1969年,在美国召开的第一届“Picture Coding Symposium” ( 图像编码会议) 预示着数字图像视频编码已经以独立的学科身份跻身于学术界。

视频编码就是在限定失真条件下,通过特定的压缩编码技术消除视频信号间存在的空间冗余、时间冗余、统计冗余和视觉冗余等信息,以最低的编码码率来表示视频信号。

第一代数字视频压缩编码技术是以Shannon的信息论为基础,利用信源符号的统计概率模型,以像素或像素块为单位,采用传统信号分析方法消除视频图像及图像序列中存在的空间冗余、时间冗余和信息熵冗余,以达到压缩的目的。第一代数字视频压缩编码技术是基于像素和像素块的压缩方法,在编码过程中不关心视频图像的具体内容,基本不考虑人眼的视觉特性和视频信息的具体含义及重要程度,在低码率时不能提供较好的视频质量。目前,国际视频编解码标准主要采用了第一代视频编码技术,都是以Shannon的信息论为基础,采用基于变换、量化、预测和熵编码等技术的混合编码框架,图1给出了基于变换/预测的混合视频编码框架图[2],图2给出了从1950年到现在重要视音频编码技术的发展历程。

3主要视频编码标准介绍

1948年,C. E. Shannon在The Bell System Technical Journal上发表的A Mathematical Theory of Communica- tion[3]一文奠定了现代通信的理论基础,现有的视频编码框架都是以Shannon的信息论为基础,采用变换、量化、预测和熵编码等技术的混合编码方案,取得了许多重要的研究成果。20世纪90年代以后,在ISO/IEC和ITU - T等组织的协调下,对不同时期图像和视频编码的研究成果进行了收集、整理、综合、加工,制订了JPEG[4],JPEG2000[5], MPEG - 1[6],MPEG - 2[7],MPEG - 4[8],H. 261[9], H. 263[10]和H. 264 /AVC[11]等三大系列图像视频编码标准。目前形成了以JPEG2000,MPEG - 4,H. 264 /AVC, VC - 1[12]( 微软视频编解码标准WMV9) 和AVS - P2[13]( 我国自主知识产权音视频编解码标准) 等为代表的多个先进视频编解码标准,得到了业界的广泛认可。这些标准融合了各种性能优良的视频图像编码方法,代表了不同时期视频图像编码的发展水平。

随着图像和视频编码与处理算法研究的不断发展, 针对不同的应用需求,近几十年来相继形成了以JPEG - x, MPEG - x,H. 26x,VC - 1和AVS为主的五大系列图像和视频编码压缩标准,图3给出了这五大系列图像和视频编码国际标准的制定时间,大体上回顾了近三十年来图像和视频压缩编码标准总的发展历程。

随着计算机网络技术和移动通信技术的迅速发展, 目前最先进的视频编码标准H. 264 /AVC和AVS - P2,都将满足无线视频编码和传输应用作为自己的主要目标之一。H. 264 /AVC以更高的编码效率和对各类网络的传输适应性的特点满足了无线传输中对带宽资源的限制要求, 成为所有无线视频应用的一个最具吸引力的候选标准。 2004年3月,AVS工作组专门成立了专门的移动视频编码标准小组AVS - M,制定移动视频编码标准AVS - M以满足移动无线环境下的各类视频编码传输应用需求[14]。随着3G的全面应用以及4G标准的大力推进, 目前一些国际知名公司的研究机构、各国科研机构和高等院校都将无线视频应用作为一个重要的领域展开相关研究,他们的积极参与极大地推动了新一代视频编码标准研究和发展。

4主要视频编码标准的压缩率与复杂度对比

第一代采用变换/预测的混合视频编码框架主要是以去除视频信号间的数据冗余来提升压缩编码的效率,较少考虑视觉上的冗余特性,近一二十年来,编码效率的提升主要依赖于压缩编码工具集的不断扩展,随着压缩编码工具集的不断增加,编解码器的复杂度也不断大幅增加, 图4给出了MPEG - x系列编码标准压缩率和编解码复杂度的关系曲线,以1993年推出的MPEG - 1标准为基准, 从图中可以看出当前先进视频编码标准的复杂度不断增加,压缩效率却提升很慢,同时,压缩效率的提高也显著增加了硬件实现的成本,阻碍了视频编码技术在实际标准中推广应用。

当前以JPEG - x,MPEG - x,H. 26x,VC -1和AVS为主的五大系列图像和视频编码压缩标准融合了各种性能优良的视频图像编码方法,采用变换/预测的混合视频编码框架,虽然代表了不同时期视频图像编码的发展水平, 也得到了业界的广泛认可,但是,该技术框架发展到现在遇到巨大瓶颈,主要表现在[15]:

第一,该框架是以去除视频信号间的数据冗余来提升编码效率,较少考虑视觉上的冗余特性,随着编码工具集的不断扩展,数据冗余几乎被去除殆尽,再沿用传统的编码思路其编码效率已很难提升;

第二,传统框架的编码效率提升主要依赖于复杂度的大幅增加,要想进一步提升编码效率需要引入一些复杂度相当高的编码工具,这样就会显著增加硬件实现的成本,最终妨碍视频编码技术的实际应用。

因此,在传统数据冗余几乎被去除殆尽的情况下,再沿用传统的编码思路很难提升其编码效率,必须引入新的编码理论和方法。

5未来视频编码技术的发展趋势

国际标准化组织ISO/IEC MPEG和ITU - T VCEG等非常重视这方面的工作,已于2010年成立专门协作团队JCT - VC( Joint Collaborative Team on Video Coding) 开始了下一代视频编码国际标准H. 265,即高效视频编码( High Efficiency Video,HEVC) 的研究和制定工作,主要包括高性能视频编码( High Performance Video Coder, HVC) 和下一代视频编码( Next Generation Video Coding, NGVC) 。并于2010年4月在德国召开了第一次会议,国际上许多著名的研究机构和公司均已开展相关的研究,一场新的技术竞争正在全球范围内展开。我国在多媒体编码和传输方面的研究历来薄弱,由于没有掌握MPEG - 1, MPEG - 2,MPEG - 4和H. 264 / AVC等音视频编码标准的自主知识产权,导致DVD、VCD、数字电视等产业的发展受到很大制约,为了使移动多媒体业务不再重蹈覆辙,在新一轮的全球技术和标准竞争中占据有利地位,开展移动多媒体编码传输理论与技术的研究就显得非常必要和及时。2002年,在原信息产业部的大力支持下,我国音视频编解码技术标准化组织AVS工作组( Audio Video coding Standard Workgroup of China,AVS) 成立,并制定了相关视音频编解码标准AVS - P2和AVS - P3,现在也已经启动了AVS2的研究与制定工作[17]。

近年来,随着计算机网络和通信技术的飞速发展,移动通信取得了商业运营的巨大成功,无线多媒体通信已经成为未来移动通信的发展趋势。未来通信必将以实现“任何人可以在任何地点、任何时间与其他任何人以任意通信方式进行畅通无阻的多媒体通信”为目标[18]。其中无线视频应用尤为重要,在移动终端上向用户提供视频通信服务正成为3G和4G等移动通信技术的发展方向。据原信息产业部预测,在3G时代,移动增值业务带来的收入将达到或超过运营商总收入的50% 以上,各种基于高速移动通信网络的增值业务层出不穷,其中以移动视频点播、移动视频电话、移动视频监控、视频短消息、移动远程教育等为代表的移动多媒体业务最具发展前景,以无线视频通信为核心的这些多媒体业务将成为未来3G及4G业务的主导。

而在支撑移动多媒体业务的众多技术中,多媒体编码与传输理论和技术则是其中的核心,具有非常显著的地位。由于无线视频应用中存在着无线信道传输带宽波动、 丢包率高、跨区切换频繁以及终端异构等一系列典型问题,它们将最终影响解码视频图像的质量。针对无线视频通信中高误码率问题,在先进视频编码的研究中,视频容错编码是其主要的解决手段之一[19]。早在2005年, H. 264 / AVC及其扩展可伸缩视频编码( Scalable Video Coding,SVC) 的需求文档JVT - N027[20]中明确提出了视频编码的容错需求。我国数字音视频编解码技术标准化组织AVS工作组已经完成了视频标准AVS - P2的制定工作,其制定的面向安防的视频编解码标准AVS - S[21]也在其需求文档AVS - N1400[22]中明确提出了容错的需求; 同时,在2008年6月启动的AVS - P2中专门设立移动档次来研究无视频编码的相关技术,其中对无线视频容错技术也提出了相应要求。但是,当前视频编码标准所采用的容错技术基本上还是靠增加冗余比特来增强视频压缩码流的容错性,容错导致了编码效率的降低,现有视频编码技术并没有很好解决容错性能和编码效率之间的矛盾。 因此,为了满足有质量保证的视频业务在移动通信网络上传输的需求,必须突破传统视频编码思路的局限,引入新的编码思路和技术。

因此,下一代视频编码框架必须要从编码理论上寻求突破,而自从Shannon创立信息论以来,视频编码技术与标准一直是沿着数字信号处理的思路发展。基于像素和像素块的视频处理系统与人眼视觉系统相比,其感知与认知能力相距甚远。因此,在探明人类视觉信息处理的基本生理、心理机理的基础上,建立更加高效的视觉信息编码及处理理论与方法已成为共识。

第二代数字视频压缩编码技术[23]是建立在图像分析与合成、计算机图形学、计算机视觉等理论的基础上,与第一代视频压缩编码技术相比,进一步考虑到了去除视频图像及图像序列中的结构冗余、知识冗余和视觉冗余,以获得更高的压缩效率。但是,第二代数字视频压缩编码中仍有许多编码技术尚需进一步的研究和探索。随着计算机技术、脑科学、神经心理学等学科的进一步发展,基于人眼视觉的编码理论有了较大发展,视觉编码理论认为人眼是视频信号的最终接收者,编码和传输人类视觉不能察觉到的或者不感兴趣的信息对于网络带宽和终端设备来说都是一种浪费,因此,编码过程中应充分考虑人眼视觉特性和视频图像内容本身对编码的影响。第二代数字视频压缩编码理论[24]主要提出了基于对象的编码方法[25]、基于模型的编码方法[26]和基于分形的编码方法[27]等几种编码技术,其中JCT - VC和AVS2目前正在展开基于人眼视觉理论的感知视频编码技术研究[28],代表了下一代视频编码的研究方向,尚未达到成熟阶段,但其中超高清视频编码[29]和立体视频编码技术[30]有望在未来几年得到广泛应用。

6结束语

当前主流视频编码技术仍然是第一代基于像素的编码方法,虽然能较好地消除图像的时空冗余和统计冗余信息,但主要是以较高的计算复杂度来换取较好的压缩效率,基本上没有有效去除其他冗余的机制。第二代数字视频压缩编码技术是建立在图像分析与合成、计算机图形学、计算机视觉等理论的基础上,进一步考虑到了去除视频图像及图像序列中的结构冗余、知识冗余和视觉冗余, 以获得更高的压缩效率,相关标准制定组织正在大力开展下一代高性能视频编码技术标准的制定工作,相信在不久的将来一定会有性能优于当前先进编码方法的新一代图像视频编码技术。

摘要:信息技术和计算机互联网技术的飞速发展改变了人们的生活方式,以视频为核心的多媒体信息已经成为人们获取信息的主要来源,随着视频存储与传输的广泛应用,高效视频编码技术研究已经成为多媒体技术的研究热点。系统讨论了当前流行的视频编码技术标准及框架与采用的关键技术、标准的效率与复杂度的关系,并重点分析了未来视频编码技术的发展趋势。

编码压缩标准 篇4

声音是一种能量波。数字音频编码是把连续变化的波形信号转化为离散的数字信号的过程。我们通常采用PCM编码方式进行转化。

PCM也称为脉冲代码调制编码。脉冲调制就是把一个时间连续, 取值连续的模拟信号变换成时间离散, 取值离散的数字信号后在信道中传输。脉冲编码调制就是对模拟信号先抽样, 再对样值幅度量化、编码的过程。

在计算机应用中, 能够达到最高保真水平的就是PCM编码, 被广泛用于素材保存及音乐欣赏, CD、DVD以及我们常见的WAV文件中均有应用。因此, 规定PCM为无损编码。

(一) 音频数据压缩比。

音频编码的作用:一是采用一定的格式来记录数字数据;二是采用一定的算法来压缩数字数据以减少存贮空间和提高传输效率。压缩编码的基本指标之一就是压缩比, 它通常小于1。压缩越多, 信息丢失越多、信号还原后失真越大。

音频数据压缩比=压缩后的音频数据量/压缩前的音频数据量

(二) 音频压缩的主要分类。

一般来讲, 根据压缩后的音频能否完全重构出原始声音可以将音频压缩技术分为无损压缩及有损压缩两大类;而按照压缩方案的不同, 又可将其划分为时域压缩、变换压缩、子带压缩以及多种技术相互融合的混合压缩, 等等。各种不同的压缩技术, 其算法的复杂程度 (包括时间复杂度和空间复杂度) 、音频质量、算法效率 (即压缩比例) 以及编解码延时等都有很大的不同。

多媒体音频信号大致可分为三类:电话质量的语音信号、调幅广播质量的音频信号和高保真立体声音频。ITU-T标准是当前商用音频编码系统主要的三大标准之一。

二、I TU-T标准简介

ITU-T (国际电信联盟远程通信标准化组原CCITT) 旗下的G系列标准已成为电话质量的语音信号、调幅广播质量的音频信号压缩编码的国际标准。

ITU-T最初定义的音频编码算法建议标准包括G.711、G.721、G.722、G.723等。1995年之后, ITU-T批准了新的语音压缩标准G.728, G.729等。表1给出了ITU-T标准主要算法的比较。 (表1)

三、I TU-T G系列主要标准的发展及应用

(一) G.

726标准。G.726是ITU-T1990年在G.721和G.723标准的基础上提出的关于把64kbps非线性PCM信号转换为40kbps、32kbps、24kbps、16kbps的AD PCM信号的标准。G.726标准算法简单, 语音质量高, 多次转换后语音质量有保证, 能够在低比特率上达到网络等级的话音质量。

G.726最为常用的方式是32kbit/s, 但由于其只是G.711速率的一半, 所以就将网络的可利用空间增加了一倍。在这些通道中, 24kbps和16kbps的通道被用于数字电路倍增设备 (DCME) 中的语音传输, 而40kbps通道则被用于DCME中的数据解调信号 (尤其是4800kbps或更高的调制解调器) 。

(二) G.

727标准。ITU-T于1990年通过了镶嵌式ADPCM标准G.727。其码率为16~40kbit/s, G.727定义了当原信号是脉冲率为64kbit/s脉冲编码调制信号 (从在G.711中具体规定的语音频率模拟信号转变而来) 。

(三) G.

728标准。为了进一步降低语音压缩的码率, 1991年ITU-T制定了G.728标准, 使用基于短延时码本激励线性预测 (LD-CELP) 算法, 通过对语音信号的分析, 提取CELP模型的参数, 在解码端, 这些参数用于恢复激励信号和综合滤波器的参数。其码率为16kbit/s, 其质量与32kbit/s的G.721标准相当。

CELP是一个闭环线性预测系统, 它利用输入语音信号确定最佳参数, 然后根据最小误差准则从码本中找出最佳激励码矢量。CELP具有较强的抗干扰能力, 在4-16Kb的传输速率下能够得到较高质量的语音信号。

G.728标准的语音编码的主要特点有:算法时延短, 仅为0.625ms;编码时延小于2ms;传输比特率为16kbit/s;MOS值为4.173, 达到了长途通信质量。

我们选用G.728标准的语音编码算法作为IP电话的编码算法。

(四) G.

723.1标准。随着互联网技术的快速发展和多媒体通信业务的飞速增长, ITU-T对8kbit/s以下的高质量语音编码方案给予了极大关注。由ITU-T的第15小组 (SG15) 1995年提出的G.723.1标准是极低速率多媒体通信标准系列H.324中的有关语音编码的一个标准。

G.723.1编码器采用了线性预测分析合成的技术, 对8kHz取样的16bit精度的PCM数字音频进行处理, 以尽量减少实际语音与合成语音之间经听觉加权后的差分信号的能量为准则来进行编码的。在G.723.1标准中提供了两种可选速率, 分别为5.27kbit/s和6.3kbit/s。和同样速率的其他语音编码器相比, 这两种编码器都具有较高的语音质量, 较低的编码时延 (30~40ms) 。高速率提供更好的重建语音质量, 低速率的算法计算量低, 给系统设计者提供了更多的灵活性。两种速率的编解码器都具有较高的语音质量和较低的延时, 允许在相邻帧 (30ms) 的边界转换速率, 在无声帧进行噪声填充, 实现了可变速率的不间断传输。

该编码建议在有限的复杂度下最优化地表示语音信号, 采用线性预测的合成分析法分帧处理。高码率 (6.3kb/s) 激励信号采用多脉冲极大似然量化 (MP-MLQ) , 低码率 (5.3kb/s) 激励信号采用代数码本激励线性预测 (ACELP) 。每帧30ms, 另加7.5ms的前视, 算法总延迟37.5m。

(五) G.

729标准。G.729标准是国际电联电信标准部门第十五研究组 (ITU-T SG15) 在 (1993~1996) 期间在语音编码方面取得的最大标准化成果。

G.729协议定义了8kbit/s码率的共扼结构代数码本激励线性预测 (CS-ACELP) 语音编解码算法。模拟信号经过电话带宽滤波, 以8kHz采样, 再转换为16bit PCM码, 送入编码器编码, 输出比特流参数, 解码器对比特流参数解码, 以同样方式转换为模拟信号。其他格式的信号都要预先化为16bit PCM码, 解码后再转换回来。

CS-ACELP编码器建立在码本激励模型的基础上, 8kHz采样信号每10ms为一帧 (含80个样本) , 按帧计算CELP模型参数 (LP系数、码本增益、基音和码本索引) , 将参数编码传送。解码器将接收到的参数解码, 得到激励和合成滤波器参数。激励信号经过短时合成滤波器滤波得重构语音信号, 短时合成滤波器为10阶LP滤波器。长时滤波器为自适应码本滤波器。重构语音还需经过若干个后滤波处理步骤。

G.729标准主要应用有:个人移动通信、低C/N数字卫星系统 (包括陆地移动卫星通信、海事卫星通信、一般航空卫星通信等) 、高质量数字移动无线通信DOME、存储/检索以及分组语音和数字租用信道等。

四、小结

音频压缩编码技术的研究是目前国际上的信号压缩领域的一大研究热点。研究者一直在寻求能够在保证音频质量的前提下尽可能的降低音频信号码率的技术。本文对数字音频压缩编码的相关理论和技术参数做了简要介绍。分析并研究了ITU-T国际标准在当前数字广播、网络、移动通讯等领域的应用。

摘要:声音信号的存储与传输, 从模拟信号到数字信号经历了一个革命性的发展。随着多媒体处理技术的发展, 数字音频压缩编码技术得到了广泛应用。从1972年开始ITU-T为音频信号压缩编码制定的一系列标准, 成为当前移动通讯、数字卫星系统、网络广播等领域广泛采用的音频压缩编码技术和标准。

关键词:声音信号,音频压缩编码,ITU-T标准

参考文献

[1]房建, 左涛等.数字音频压缩编码技术及其应用.信息技术, 2004.

[2]ISO/IEC11172.Coding of moving pictures and Associated audio for digital storage media at up to about1.5Mbit/s.Information Technology, 1993.

[3]http://www.itu.int/publications.

编码压缩标准 篇5

AVS+ 是在AVS P2 标准的基础上进一步发展制定的, 相关行业标准GY/T257.1-2012《广播电视先进视音频编解码第1 部分:视频》于2012年07 月10 日起正式执行。 在2014年3 月, 广电总局与工信部联合颁发了《广播电视先进视频编解码 (AVS+) 技术应用实施指南》, 指南中指出今后上星的高标清数字电视频道将采用AVS+ 的编码方式。2014 年11 月, 中央广播电视节目无线数字化全国覆盖工程招标建设, 其中视频编码方式都采用AVS+ 方式。基于此实际应用背景, 本文采用标清视频图像序列进行压缩编码性能的分析实验。

AVS采用基于块的混合编码结构, AVS+ 在兼容AVS P2 的基础上, 增加了4 项增强技术:高级熵编码 (AEC) 、自适应加权量化 (AWQ) 、同极性跳过模式编码 (PField Skip) 和增强场编码技术 (BField Enhanced) 。

2 所用图像质量评价方法

视频质量主要从主观和客观两个角度进行评价, 而评价的内容包括逼真度和可懂度两个方面。国际电信联盟ITU从1999 年起陆续发布了一系列的主观评估的测试标准, 测试方法主要包括ACR测试方法、DCR测试方法和DSCQS测试方法。视频的客观评价是借助计算机机器视觉和数学模型的方法和手段, 来模拟人眼的真实客观评价标准, 最终达到客观的评价标准与人眼主观评价基本一致。客观评价标准有基于误差统计的评价模型、基于HVS模型和基于图像特征统计量三种常用的评价模型。本实验中采用的是DMOS和PSNR两种图像质量客观评价方法。

在测试数字视频质量中, PSNR是最常用的客观测试指标。在测试中对数字电视信号进行量化, 各像素噪声值N (x, y) 是指解码重建图像各像素信号值Y (x, y) 与源图像对应信号值X (x, y) 之差, 各个像素的噪声累积对整帧图像像素总数M求均值即是PSNR。

使用主观评价一般采用打分制, 多位评价者对所看到的视频图像进行打分, 最终将全部的主观评价分数做一个均值, 称为主观评价平均分数, 简写为MOS (Mean Objective Score) 。

而DMOS为负向计分制。

3 实验

3.1 实验序列

利用《ITU-R BT.1788》中提出的TISI时间空间复杂度分析法, 对多个序列进行挑选, 筛选出8 个空间、时间复杂度各有特点, 难度不同的标清视频测试序列 (最易、较易、较难、最难的序列各2 个) 。将此8 个难度不同的序列进行拼接, 拼接时保证一般难、很难的序列不相连, 分别做AVS+ 和H.264 编码。对编码后的图像质量做客观质量测试。

本次实验所用的8 个序列属性如表1 所示。

序列的TI与SI分析数值越大表示序列响应的时间复杂度和空间复杂度越大, 对应于TISI图中越靠近右上角的序列则难度越大, 越靠近左下角的序列难度越易。本次试验中的八个序列的TISI分析如图1 所示。

3.2 实验配置

本次实验中, 使用AVS+ 编码方式和H.264 编码方式, 分别对四个视频序列进行编解码, 对编解码后的图像序列进行图像质量客观评价。两种编码的方式如表2 所示。

3.3 实验结果

在上述配置下, 分别对两种编码后的图像质量进行分析, 结果如表3 所示。可以看出, 八个拼接序列进行AVS+编解码后的PSNR指标总体逼近但略低于H.264 编解码后的结果, AVS+编码的DMOS客观评价得分整体优于H.264 得分。

4 实验结果分析

下面以2.3M为例, 具体逐帧分析比较AVS+ 与H.264 编解码客观评价指标PSNR和DMOS, 并分析编解码性能。

本次实验使用的图像质量分析仪是泰克公司的PQA600B, 此设备对DMOS评价指标的测试是每1/2 帧分析, 而PSNR指标是逐帧分析。实验中拼接的八段视频序列采用难易相间的方法, 按时间顺序, 八个序列依次为:Leaves、Intotree、Parkjoy、Joke、Basketball、Oldtown、Ducktakeoff、Donghua。

PSNR是一个纯客观的评价指标, 如图2 所示, 八个AVS+ 编解码的图像序列得分均逼近H.264 编解码的图像序列得分。

DMOS是个负向打分指标, 即得分越高表明图像质量越差。本实验所用编码器在基于人眼的视觉特性、QP稳定度、MBTree参数控制、加权预测量化系数的优化等这几方面进行了算法的重点优化和提升, 专项提升了基于人眼特性的客观评价DMOS指标。如图3 所示, 在Leaves、Basketball、Ducktakeoff这三个难易程度为较难及最难的序列中, AVS+ 编解码的图像序列DMOS指标明显优于H.264 编解码的DMOS指标。

5 结束语

本文以实验搭建了基于AVS+和H.264 的硬件编解码平台, 采用了PSNR和DMOS两个图像质量客观评价的指标来比较AVS+ 和H.264 的编解码性能。实验结果表明, 在基于人眼的视觉特性、QP稳定度、MBTree参数控制、加权预测量化系数的优化等几方面进行了算法的重点优化和提升后, AVS+ 编码器的编码性能已经能够逼近同等码率和配置下的H.264编码。并且在重点优化后, AVS+ 编码的基于人眼特性的DMOS指标能够优于H.264 编码。

AVS+ 算法复杂度低、 成本低, 为我国自主知识产权, AVS2 编码也在立项研究中。AVS+ 编码技术在不断发展中将逐步实现压缩效率与图像质量的共同提高, 是今后广电发展应用的趋势所在。

摘要:本文基于标清视频测试序列, 搭建了AVS+和H.264的标清视频编解码平台, 采用DMOS和PSNR的图像质量客观评价方法对两种压缩编解码后的图像质量进行分析, 比对了AVS+和H.264压缩编码的性能。

关键词:编码,AVS+,H.264,图像质量客观评价

参考文献

图像压缩编码方法综述 篇6

1 图像压缩技术发展历程

自1948年提出电视信号数字化后,人们就开始了对图像压缩编码的研究工作,至今已有50多年的历史了。上个世纪五十年代和六十年代的图像压缩技术由于受到电路技术等的制约,仅仅停留在预测编码、亚采样和内插复原等技术的研究,对视觉特性也做了一些重要的工作。1966年,J.B.O Neal对比分析了DPCM和PCM,并提出了对电视的实验数据进行编码,1969年进行了线性预测编码的实际实验。1969年美国召开第一届“图像编码会议”标志着图像编码作为一门独立的学科诞生。

近十年来,图像编码技术得到了迅速的发展和广泛的应用,并日臻成熟,其标志就是几个关于图像编码的国际标准的制定,即ISO/IEC关于静止图像的编码标准JPEG,CCITT关于电视电话/会议电视的视频编码标准H.261和ISO/IEC关于活动图像的编码标准MPEG-1,MPEG-2。这些标准图像编码算法融合了各种性能优良的传统图像编码方法,是对传统编码技术的总结,代表了当前图像编码的发展水平。

2 图像压缩原理

数字图像压缩系统无论采用什么具体结构和技术,其基本过程是一致的,一般可以概括成图1所示的基本框图。压缩过程从原理上讲有三个基本环节:变换、量化、编码这三个环节都有数据压缩的任务。

首先对原始图像进行映射变换,这里的变换是广义的,变换的作用是将原始图像在一个新的域中用另一种新的形式表述。对变换器的要求是:有效地压缩数据,同时信息保真度要高,还要求是广义可逆的,还要方法简单,经济实用。经过映射变换,如时域预测、频域变换或其它变换,原始图像数据特性被改变,变得更利于压缩编码。接下来,变换后形成的参数进入熵减阶段,这个阶段就是量化过程。量化器的引入是图像编码产生失真的根源。对量化器的要求是:在一定程度的客观或主观误差允许下,总的量化级数要尽量的少,同时也应便于实现。最后,对量化后的符号进行熵编码。熵编码器是用来消除符号编码冗余度的,它一般不产生失真,常用的熵编码方法有分组码、行程码、变长码和算术码等。编码器的编码方式应和信号或符号流的分布特性相适应以求得较大的压缩比。熵编码后的信息码流被送入存储设备或通过信道传输。

以上三个步骤既相互联系又相互制约,对不同的编码技术来说,其图像变换的模型、量化器的设计、熵编码所采取的措施都是不同的。图像压缩的解码是编码的逆过程,这里不再赘述。

3 图像压缩分类

根据压缩后的图像能否完全恢复将图像压缩方分为两种:一种是无损压缩;另一种是有损压缩。

3.1 无损压缩

利用无损压缩方法消除或减少的各种形式的冗余可以重新插入到数据中,因此,无损压缩是可逆过程,也称无失真压缩。为了消除或减少数据中的冗余度,常常要用信源的统计特性或建立信源的统计模型,因此许多实用的无损压缩技术均可归结为统计编码方法。统计编码方法中常用的有Huffman编码、算术编码、RLE(Run Length Encoding)编码等。此外统计编码技术在各种有损压缩方法中也有广泛的应用。

3.2 有损压缩

有损压缩法压缩了熵,信息量会减少,而损失的信息量不能再恢复,因此有损压缩是不可逆过程。有损压缩主要有两大类:特征提取和量化方法。特征提取的编码方法如模型基编码、分形编码等。量化是有损压缩最基本的形式,其优点是可以得到比无损压缩高得多的压缩比。有损压缩只能用于允许一定程度失真的情况,比如对图像、声音、视频等数据的压缩。

无损压缩和有损压缩结合形成了混合编码技术,它融合了各种不同的压缩编码技术,很多国际标准都是采用混合编码技术,如JPEG,MPEG等标准。利用混合编码对自然景物的灰度图像进行压缩一般可压缩几倍到十几倍,而对于自然景物的彩色图像压缩比将达到几十甚至上百倍。

4 图像压缩编码方法

根据编码方法的不同,Kunt等人在1985年提出了“第一代”图像编码和“第二代”图像编码的概念,“第一代”图像编码技术是以信息论和数字信号处理为理论基础,旨在去除图像数据中的线性相关性的一类编码技术。这类技术去除客观和视觉的冗余信息的能力已经接近极限,其压缩比不高,而“第二代”图像压缩编码技术是指不局限于信息论的框架,要求充分利用人的视觉生理心理和图像信源的各种特征,能获得高压缩比的一类编码技术。

4.1“第一代”图像编码方法

4.1.1 熵编码

熵编码是纯粹基于信号特性的编码技术,它是一种无损编码,解码后能无失真的恢复原始图像,其基本原理是给出概率较大的符号一个短码字,而给出概率小的符号一个长码字,这样使得最终的平均码长较小。由Shannon信息定论可知:图像的熵值是保存信息量的前提下能进行编码的每像素平均码元数的下限,这种信息熵保持编码叫熵编码。

1)霍夫曼编码。在无损压缩的编码方法中,霍夫曼编码是一种有效的编码方法。它是霍夫曼博士在1952年根据可变长最佳编码定理提出的。依据信源数据中各信号出现的频率分配不同长度的编码。其基本思想是在编码过程中,对出现频率越高的值,分配越短的编码长度,相应地对出现频率越低的值则分配较长的编码长度,它是一种无损编码方法。采用霍夫曼编码方法的实质是针对统计结果对字符本身重新编码,而不是对重复字符或重复子串编码,得到的单位像素的比特数最接近图像的实际熵值。

2)算术编码。算术编码方法与霍夫曼编码方法相似,都是利用比较短的代码取代图像数据中出现比较频繁的数据,而利用比较长的代码取代图像数据中使用频率比较低的数据从而达到数据压缩的目的。其基本思想是将被编码的数据序列表示成0和1之间的一个间隔(也就是一个小数范围),该间隔的位置与输入数据的概率分布有关。信息越长,表示间隔就越小,因而表示这一间隔所需的二进制位数就越多(由于间隔是用小数表示的)。算术压缩算法中两个基本的要素为源数据出现的频率以及其对应的编码区间。其中,源数据的出现频率、编码区间则决定算术编码算法最终的输出数据。

3)行程长度编码。行程长度编码是一种相当简单的编码技术,常用RLE表示。它是沿扫描线统计具有相同颜色值的像素个数,然后用两个数值来表示具有相同颜色值的这些像素:(n,m),n表示像素值,m表示像素的个数,称为行程长度。

4)LZW编码。LZW编码原理是将每一个字节的值都要与下一个字节的值配成一个字符对,并为每个字符对设定一个代码。当同样的一个字符对再度出现时,就用代号代替这一字符对,然后再以这个代号与下个字符配对。LZW编码原理的一个重要特征是,代码不仅仅能取代一串同值的数据,也能够代替一串不同值的数据。在图像数据中若有某些不同值的数据经常重复出现,也能找到一个代号来取代这些数据串。在此方面,LZW压缩原理是优于RLE的。

4.1.2 预测编码

预测编码方式是目前应用比较广泛的编码技术之一。常见的DPCM(Differential Pulse Code Modulation),ADPCM(Adaptive DifferentialPulse Code Modulation)等都属于预测编码方式的编码技术。通常,图像的相邻像素值具有较强的相关性,观察一个像素的相邻像素就可以得到关于该像素的大量信息。这种性质导致了预测编码技术。采用预测编码时,传输的不是图像的实际像素值(色度值或亮度值),而是实际像素和预测像素值之差,即预测误差。预测编码分为无失真预测编码和有失真预测编码。无失真预测编码是指对预测误差不进行量化,所以不会丢失任何信息。有失真编码要对预测误差进行量化处理,而量化必然要产生一定的误差。

4.1.3 变换编码

变换编码是将图像时域信号变换到系数空间(频域)上进行处理的方法。在时域空间上具有很强相关的信息,在频域上反映出在某些特定的区域内能量常常被集中在一起或者是系数矩阵的分布具有某些规律,从而可以利用这些规律分配频域上的量化比特数而达到压缩的目的。变换编码的目的在于去掉帧内或帧间图像内容的相关性,它对变换后的系数进行编码,而不是对图像的原始像素进行编码。

4.1.4 矢量量化编码

利用相邻图像数据间的高度相关性,将输入图像数据序列分组,每一组m个数据构成m维矢量,一起进行编码,即一次量化多个点。矢量量化编码属于有损压缩编码,它的缺点是复杂度随矢量维数呈指数增加,数据量和计算量都很大。

4.2“第二代”图像编码方法

4.2.1 子带编码

子带编码的基本思想是使用一组带通滤波器把输入图像的傅立叶频谱分成若干个连续的频段,每个频段称为子带。对每个子带中的图像信号采用单独的编码方案去编码。采用对每个子带分别编码的优点是:第一,对每个子带信号分别进行自适应控制,量化阶的大小可以按照每个子带的能量电平加以调节。具有较高能量电平的子带用大的量化阶去量化,以减少总的量化噪声。第二,可根据每个子带信号在感觉上的重要性,对每个子带分配不同的位数,用来表示每个样本值。例如,在低频子带中,为了保护图像的边缘轮廓结构,就要求用较小的量化阶、较多的量化级数,即分配较多的位数来表示样本值。而图像中的噪声及图像的细节,通常出现在高频子带中,对它分配较少的位数。第三,各子带的量化噪声都局限在本子带内,即使某个子带内的信号能量较小,也不会被其他子带的量化噪声掩盖掉。

4.2.2 分形编码

分形概念是由美国数学家B.B.Mandelbrot在1975年研究不规则形状及性质时首先提出的。而利用分形作图像压缩是在1987年由F.Barnsley首先提出来的。其基本思想是寻找图像内部的自相似性,并以一定的变换来模拟,然后以变换的存储代替原图像的存储。解码时,只需将变换重复作用于初始图像,利用迭代函数系统(Iterated Function System,IFS)的理论,经过若干次迭代就可以得到原图像较好的近似。

4.2.3 小波变换图像压缩

1989年,S.G.Mallat将小波变换用于多分辨率图像的描述这个过程称为小波分解。它是继傅立叶变换之后在图像压缩中的又一里程碑,它解决了很多傅立叶变换不能解决的问题。与傅立叶变换一样,小波变换的基本思想也将图像信号变为一簇基函数的加权和,而这一簇基函数是通过基本函数的平移和伸缩构成的。小波变换作为正交变换不会产生能量损失,即对小波变换后的图像进行针对性的处理才是实现压缩的关键。小波分解得到的水平和垂直细节图像的高频分量系数大部分为零,可采用非均匀量化。对系数出现概率大的用细量化,对出现概率小的系数采用粗量化。由于人眼对高频分量不敏感,可采用粗量化或舍弃。为了进一步提高压缩比,可对上述经过处理的小波系数采用游程编码或Huffman编码对图像进行压缩。小波变换是可逆的,通过重构算法,图像数据能够被完全恢复。

4.2.4 模型基编码

基于模型的编码技术是近几年来发展起来的一种低比特率编码方法。它利用了计算机视觉和计算机图形学中的方法和理论。其基本出发点是在编、解码两端分别建立相同的模型。基于这个模型,在编码器中用图像分析算法提取景物的参数,例如形状参数、运动参数等。景物的这些参数被编码后通过信道传输到解码端,由解码器接收到的参数利用图像合成技术再重建图像。根据信源模型和编码方法的不同,模型基图像编码分为区域基编码、分割基编码、物体基编码、知识基编码和语义基编码等。

4.2.5 神经网络

用于图像编码该研究是试图初步模仿人的视觉系统某些局部的初级功能,并将其研究成果应用到图像编码领域。将神经网络应用到图像压缩领域有两种方法:一种是直接应用,包括反向误差传播型神经网络(Back Propagation)和自组织映射(Self Organization Map)神经网络。另外一种方法是将它与经典的编码方法相结合,构成很多间接应用神经网络的编码方法。

5 图像压缩性能评价

还原图像质量是评价图像压缩编码方法的最为重要的标准之一,它包括两方面的含义:一方面是图像的逼真度,即还原图像与原始图像的偏离程度;另一方面是图像的可懂度,即图像能向人或机器提供特征信息的能力。

对于限失真编码,原图像与还原图像之间存在着差异,差异的大小意味着恢复图像的质量不相同。但是,由于人的视觉冗余度的原因,则对有些差异的灵敏度较低,这就产生了两种判别标准:一种是客观判别标准,它建立在原始图像与还原图像之间的误差上;另一种是主观评价标准,通过用人的肉眼对图像打分而得到。

5.1 主观评价

主观评价采用平均判分MOS(Mean Option Score)或多维计分等方法进行测试,所评价出的图像质量不仅与图像本身特征有关,也与观察者特性以及观察者的环境条件有关。组织一群足够多(至少应有20名)的观察者(包括一般观众及专业人员),通过观察来评定图像的质量。观察者将还原图像与原图像相对比,比较损伤程度,可参照表1,给评定的图像打上一定的质量等级,最后用平均的方法得到图像的分数。这样的评分虽然很花时间,但比较符合实际。

5.2 客观评价

对图像质量进行定量描述是一个比较复杂的问题,进展比较缓慢,一方面是因为人们还没有充分了解视觉感知的过程和方法;另一方面是由于图像是多维信号,很难用确定的几个统计参数来表示其特征。彩色图像由于量纲数增多,而且必须满足人眼对彩色的视觉感知,因此对彩色图像逼真度进行定量表示是一个更加复杂的问题。目前应用得较多的是对灰度级图像逼真度的定量表示。一个合理的尺度应该与图像的主观测试结果相吻合或密切相关,要求便于计算分析而且简单易行。

设一个原始图像为{g(x,y),0≤x≤M-1,0≤y≤N-1},相应压缩后的还原图像为{f(x,y),0≤x≤M-1,0≤y≤N-1},可以用以下几种指标来评价图像的质量。

1)均方误差:

2)规范化均方误差:

3)信噪比:

4)峰值信噪比:

5)压缩比=压缩后图像的比特数/压缩前图像的比特数,压缩率=1/压缩比

可以看出,以上的评价完全取决于原始图像与重建图像每个像素上灰度值的误差,这种评价在主观感觉上也有一定的参考意义。常用的客观评价指标为PSNR,一般,当PSNR超过30dB时,人的主观感觉很难找出其差异。主观评价与客观评价之间有一定的联系,但不能完全等同。客观评价比较方便,很具有说服力。由于主观评价很直观,比较符合人的视觉效果及实际,故在制定国际标准时常被采用。

6 结束语

随着新科技的不断发展,对图像压缩的要求会越来越高。全新的图像压缩理论、算法和相应的实现技术必将会不断产生,同时将研究现有的方法有机地结合能解决很多图像处理问题。

摘要:图像压缩编码在图像处理中起着至关重要的作用,该文首先介绍了图像压缩技术的发展历程和原理;然后对图像压缩的两代编码方法进行了汇总和分析,并根据图像压缩性能评价标准对图像压缩编码方法进行了展望。

关键词:图像压缩,子带编码,分形,小波变换,模型基,神经网络

参考文献

[1]张春田,苏育挺,张静.数字图像压缩编码[M].北京:清华大学出版社,2004.

[2]姚敏.数字图像处理[M].北京:机械工业出版社,2006.

[3]黄伟,龚沛曾.图像压缩中的几种编码方法[J].计算机应用研究,2003,20(8):67-69.

[4]Timo Kaukorznta,etal.A fast exact gla based on code vector activity detection[J].IEEE Trans On Image Processing,2000,9(8):1337-1342.

[5]LigtenbergA,VetterliM.A discrete Fourier-cosine trasform chip.IEEE J.on Selected Areasin Co-mmun,1986,SAC-4(1):49-61.

[6]赵军,吴中福,李华,等.基于预测的无损图像压缩技术[J].计算机应用研究,2001,18(5):11-14.

[7]闫阳,张正炳.基于小波变换的图像压缩编码[J].现代电子技术,2005,28(3):85-87.

[8]李明水,欧珊瑚,张珩.分形图像压缩方法研究的新进展[J].工程图学学报,2004,25(2):143-152.

[9]练华,宋宝瑞.基于小波变换的分形图像编码[J].上海交通大学学报,2004,38(4):637-640.

[10]刘国文,王志良,解仑.基于神经网络的几种新的数据压缩方案[J].自动化技术与应用,2003,22(7):18-21.

信号压缩编码系统设计 篇7

本系统采用的MPEG-2芯片是PHILIPS公司的第二代实时编/解码压缩芯片——SAA6752又称EMPRESS。它将音频、视频编/解码和复用集成在一个芯片里, 具有很强的功能, 外部只需加入简单的相关芯片就能实现整个编码系统, 从而降低成本。同时所有的音/视频压缩算法都运行在EMPRESS的内部MIPS处理器上, 编/解码软件都已固化在芯片里, 无需额外的软件开销。系统的主控芯片通过I2C总线就可以设定必需的编/解码参数。此外, 由于它较好的解决了视频编码中的主要问题——噪声过滤和运动预测, 所以可以在低误码率的情况下实现高品质音/视频编码, 从而达到在网络上传输更多音/视频信息的目的。

2 功能特性

视频压缩:压缩比约为50:1;实时MPEG-2编码;支持分辨率:D1、2/3D1、1/2D1和SIF;在所有模式下支持IPB、IP和I帧编码;支持的输出码率:1.5~25Mbps;支持CBR (Constant Bi Rate) 和VBR (Variable Bit Rate) ;具有可编程的GOP (Grup of Picture) 结构。

音频压缩:压缩比约为8:1;MPEG-2音频编码 (16或20位) :支持的输出码率为64kbps~256kbps。

系统复用:符合MPEG系统标准 (ISO13818-1) 的视频和音频流的复用;产生和输出符合DVD、D-VHS和DVB标准的MPEG-2传输流 (TS) 、MPEG-2节目流 (PS) 、打包的基本流 (PES) 和基本流 (ES) ;产生和插入MPEG时间标记 (PTS/DTS/SCR/PCR) 。

3系统框图及其I2C设置

因为SAA6752没有片内CPU, 为了实现编码功能, 所以必须由一个片外CPU (S3C4510B) 对其进行控制。而对SAA6752的所有控制 (码率控制、PS流和TS流输出等) 均是通过I2C总线与S3C4510B连接控制完成的, 因而非常简单。图1给出了基于SAA6752的MPEG-2编码系统的方框图。该编码系统主要分为视频输入部分、音频输入/输出部分、EM-PRESS部分、复位部分、输出接口、电源部分以及I2C和UART接口。

a.视频输入部分。视频输入部分提供两路模拟输入接口, 一路为CVBS信号, 另一路为YC信号。该部分可以由PHILIPS的SAA7114完成, 对其所有的控制均通过I2C总线完成。如视频输入数码率216Mbps。压缩编码后视频输出数码率4.32Mbps, 由香农定理可得所需带宽为0.436MHz。

b.音频输入/输出部分。由于EMPRESS提供了音频I2S接口, 该部分主要完成模拟音频转换为数字音频I2S信号的功能。如音频输入数码率768kbps, 压缩编码后输出为96kbps, 由香农定理可得所需带宽为3k Hz。

c.EMPRESS部分。由于SAA6752采用多个处理器模块, 各个处理器和控制模块之间相互独立, 所以模块之间的数据传送主要通过FIFO存储器或外部SDRAM来实现。该系统采用16Mbit SDRAM。EMPRESS SAA6752可以产生打包的基本流, 其码流可以根据不同的应用进行设定, 一种是对应于DVD格式的PES流, 其码率可变的;另一种是对应于TS的PES流, 其码率是恒定的 (这是本系统需要的) 。

d.复位部分。该系统提供两种复位方式:一种是硬复位;另一种是利用I2C控制软件实现软复位 (这是本系统采用的方式) 。

e.输出接口部分。该系统提供两种TS并行输出接口:一种是TTL接口;另一种是标准LVDS接口。输出的数据流为音频和视频的复合流, 码率约为4.4Mbps。

f.FIFO数据缓存器。数据缓存区要求既要有与EMPRESS芯片的接口, 又要有与系统ARM接口以提高数据吞吐率, 因此常选用双口RAM或FIFO。由于FIFO不需要地址寻址, 为了简化控制信号, 本模块采用FIFO芯片CY7C425作为数据缓存区。FIFO存储器允许数据写入和读出不依赖于数据速率, 并且总是以写入的顺序读出。根据Full和Empty标志来判断存储器全满或空。FIFO芯片可以进行数据宽度和存储深度的扩展而不会增加额外的时间延迟。当写信号 (W) 为低电平时发生写操作, 当读信号 (R) 为低电平时发生读操作。EMPRESS输出的结果通过写操作不断存入FIFO中, 当FI-FO满时, Full标志有效, 向系统申请中断, ARM响应中断, 立即启动DMA读FIFO中的数据, 当读到空时, Empty标志有效, ARM停止读入操作。采用两片CY7C425扩展为16位的高速异步FIFO存储器, 数据处理速度达到50MHz, 可以实现数据的高速写入和高速读出。FIFO异步读写时序见图2。

g.软件编程。为了控制EMPRESS的编码, I2C接口线被用来将该系统与ARM7相连以实现ARM7控制EMPRESS芯片的目的, 同时初始化SAA7114。所有的相关操作均是通过I2C总线访问寄存器实现的。在I2C控制软件中, 需要确定EMPRESS和SAA7114的I2C读写地址。

EMPRESS的I2C读写地址:当EMPRESS的I2C选择信号为低时, 其I2C写地址为40H, 读地址为41H。当EMPRESS的I2C选择信号为高时, 其I2C写地址为42H, 读地址为43H。

SAA7114的I2C读写地址:当SAA7114的I2C选择信号为低时, 其I2C写地址为40H, 读地址为41H。当SAA7114的I2C选择信号为高时, 其I2C写地址为42H, 读地址为43H。为了防止EMPRESST和SAA7114的I2C地址发生冲突, 将EMPRESS的I2C选择信号设置为低电平, 则EMPRESS的I2C写地址定义为40H;将SAA7114的I2C选择信号设置为高电平, 则SAA7114的I2C写地址定义为42H。

控制软件应实现以下的I2C接口函数:Void I2C_Read_One_Byte (int address, int subaddress, int value) 。该函数主要实现对给定寄存器一个字节的读取, address确定需要访问的芯片, subaddress确定需要访问的寄存器, value为返回寄存器值。I2C_Write_One_Byte (int address, int subaddress, int value) 。该函数主要实现对给定寄存器一个字节的写入, address确定需要访问的芯片, subaddress确定需要访问的寄存器, value为要写入寄存器值。I2C_Read_Muiti_Bytes (int address, int subaddress, int count, in*buffer) 。该函数主要实现对给定寄存器多个字节的读取, address确定需要访问的芯片, subaddress确定需要访问的寄存器, buffer为返回多个寄存器值。I2C_Write_Multi_Bytes (int address int subaddress, int count, int*buffer) 。该函数主要实现对给定寄存器多个字节的写入, addres确定需要访问的芯片, subaddress确定需要访问的寄存器, buffer为要写入多个寄存器值。通过调用这些函数, 就可由I2C接口为EMPRESS和SAA7114的片内寄存器进行设置。

使用I2C控制软件, 可以任意修改参数 (PID、码率等) 产生和输出所需要的TS、PS、PES、ES流。在设定输出码率为5~9Mbit/s时, 可以得到较高品质的视频图像。

总之, SAA6752采用噪声过滤和运动估计技术, 使得基于SAA6752的MPEG-2编码系统在低码率压缩情况下, 对于有干扰的输入信号仍能提供高质量编码效果。这特别适合于以较低码率压缩的作用。在保证高编码质量的同时, 基于SAA6752的MPEG-2编码系统设计非常简单, 易于实现。

摘要:通过结合IT界成熟的硬件产品及先进的网络信号处理技术, 对信号在网路传输中的压缩编码系统进行了设计。

编码压缩标准 篇8

关键词:数字化,音频编码,DRA,压缩传输

0 引言

随着我国广播电视技术数字化的快速推进和发展, 模拟信号在传输中存在着带宽高效果差等问题, 已不能满足广播电视发展的需要, 目前图像、声音都采用了较为常见的数字编码技术。为了追求更高的编码效率, 产生了许多音频编码标准。不同用户针对各自业务类型, 选用不同的编码标准实现音频信号的数字化传输。

1 音频编码分类及原理

与传统模拟音频技术相比, 数字音频具有无法比拟的优点, 例如传输质量高、可采用纠错编码技术提高抗干扰能力, 可实现大规模集成等。

通常意义上, 数字音频编码主要分为两大类:

1) 无损压缩, 对音频数据进行编码后, 将信息冗余去除, 采用该方式进行压缩, 可保证信号声音质量不受损伤, 但压缩效率不高, 通常最高只有一倍左右。目前在互联网应用中, 比较常用的无损压缩方式有FLAC, LPAC, APE, Wav Pack等。

2) 有损压缩, 心理声学模型是这类算法的核心思想, 由于人类对信号的不敏感性, 压缩过程中会损失一部分信息, 但通常能够获得较高的压缩比, 常用的有损压缩方式有MP3, AAC等。

根据音频压缩技术原理的差异, 音频编码主要分为如下四种编码[1]:

1) 基于音频数据的统计特性进行编码, 其中对波形编码是典型技术。其目标是使重建语音波形保持原波形的形状。利用音频抽样的幅度分布规律和相邻样值具有相关性的特点。波形编码适应性强, 音频质量好, 但压缩比不大, 因而数据率较高。

2) 基于音频的声学参数来进行编码, 可进一步降低数据率。其目标是使重建音频保持原音频的特性。常用的音频参数有线性预测系数、共振峰、滤波器组等。这种编码技术的优点是压缩数据率低, 但还原信号的质量不好, 语音可能不清晰。

3) 混合编码方式即是将波形编码的高质量与参数编码的低数据率这两者特性相结合, 这样就能在较低的码率上得到较高的音质。目前在通讯中用到的大多数语音编码器都是采用了混合编码方式。

4) 感知编码是基于人的听觉特性来进行:从人的听觉系统出发, 基于心里声学模型, 利用人耳的听觉阈值特性和掩蔽效应, 消除不被感知的冗余信息来实现对音频数据进行压缩的编码方式。

根据应用场合的不同, 可以分为如下两种编码:

1) 语音编码:针对语音信号进行的编码压缩, 主要应用于实时语音通信中减少语音信号的数据量。典型的编码标准有3GPP2 QCELP8k、QCELP 13k、3GPPAMR-NB、AMR-WB;ITU-T G.711、G.722、G.723.1、G.729;GSMHR、FR、EFR;EVRC、4GV-NB等。

2) 音频编码:对频率范围比较宽的音频信号进行的一种编码方式。主要应用于数字广播和数字电视广播、消费电子产品、音频信息的存储、下载等。典型的编码有MPEG1/MPEG2的layer1、2、3和MPEG 4 AAC的音频编码, 还有最新的ITU-T G.722.1、3GPP AMR-WB+和3GPP 2 4GV-WB。

2 几种主流音频编码标准

1) 杜比AC-3标准。

杜比AC-3是由美国杜比实验室主要针对环绕声开发的一种音频压缩技术, 它将特殊的心理音响知识、先进的数字信号处理技术与人耳效应最新研究成果很好的结合, 形成了“数字多声道音频处理技术”, 该技术能够将多个音频信道的信号编成一个码流, 码率为32~640kbit/s, 取样频率为48k Hz。它具备单声道、立体声和5.1环绕声功能。

杜比AC-3最早是针对影院系统设计开发的, 目前已成为应用最为广泛的环绕声压缩技术之一, 该标准在DVD数字视盘机、数字电视广播、院线系统以及直播卫星平台等方面都得到广泛应用。

2) MPEG-1音频编码标准 (MP3) 。

MPEG-1标准第3部分 (IS0/IEC 11172-3《信息技术具有1.5 Mbit/s数据传输率的数字存储媒体运动图像及其伴音的编码第3部分:音频》) 是第一个高保真音频数据压缩标准, 作为MPEG-1标准的一部分, 可以完全独立应用。MPEG-1是以人类听觉系统的心理声学原理为基础的感知编码, 采用了MUSICAM (掩蔽型通用子带综合编码和复用) 和ASPEC (自适应频谱心理声学熵编码) 算法, 利用最小听阈和掩蔽特性创建的编码模型来进行数据压缩。

3) MPEG-2音频编码标准。

MPEG-2的音频 (ISO/IEC 13818-3《信息技术运动图像及其伴音信号的通用编码第3部分:音频》) 采用感觉压缩编码技术的多声道系统, 充分利用心理声学的掩蔽效应和哈斯效应, 将原始音频信号中不相关分量和冗余分量有效的去除, 在不影响人耳听觉阈度和听音效果质量的前提下, 将音频信号进行压缩, 与MP3相比, 在听感质量相同的条件下数据率是它的70%, 其缺点是兼容性差。

由于MPEG-2的压缩技术特点, 因此特别适用于广播级的数字电视的编码和传送。目前我国的有线数字电视系统采用的就是MPEG-2编码标准。

4) WMA音频编码标准。

WMA是基于音频信号在互联网等领域应用的数字音频压缩算法。由于其具有更低的码率, 目前已经成为网络音频资源的重要标准之一。

目前, 有许多在线音频网站使用的都是WMA格式 (通常码率为64kbps) 。

3 中国数字音频编码标准

从上述几个流行标准看出, 全球市场上音频编码的核心技术基本掌握在美国、欧洲等国家手中, 据统计, 我国每年需要向前杜比、MPEG2等国外企业组织提供数亿美元的数字音频技术专利费用。

所以, 我国通过自己的技术力量, 相继研发了具有自主知识产权的音频编码技术。

1) DRA标准。

我国在2009年颁布了具有自主知识产权的音频编码国家标准GB/T22726-2008《多声道数字音频编解码技术规范》 (DRA) [4]

我国自主研发的DRA技术的主要性能指标已经达到国际先进水平, 具有音质好、压缩效率高、容错能力强和解码复杂度低的显著优点, 可广泛应用于数字电视、数字音频广播、宽带多媒体及移动多媒体等领域。

目前, DRA已经作为中国移动多媒体广播 (CMMB) 的必选音频标准, 随后, 在我国地面数字电视系统 (DTMB) 、直播卫星系统 (ABS-S) 中验证了DRA标准的可行性, 并且在调频频段数字音频广播 (CDR) 系统中, 采用DRA+标准作为音频新源编码算法使用[5]。

2) AVS标准。

AVS是我国具有自主知识产权的的编码标准, 它能够对数字音视频的海量数据进行编码压缩, 达到了国际的先进水平, AVS音视频编码压缩标准的各类指标甚至超过了MPEG AAC。

4 广播电台数字编码压缩传输系统建设

4.1 数字压缩编码传输

广播电台在完成数字化改造的基础上, 也在实现从基带传输向数字压缩编码传输逐渐过渡, 目标是将立体声广播的音频基带信号 (AES/EBU) 进行MPEG编码和MPEG-2 TS复用, 形成1路或多路标准的多节目流 (MPTS) , 经过传输链路向下一级单位提供广播电台的广播业务。

4.2 ASI架构与IP架构的比较

在数字压缩编码复用系统的选型上, 有ASI架构与IP架构两种方式, ASI架构是广播电视数字化改造后的第一代前端架构, 随着IP技术与业务类型的拓展, 有越来越多的运营商选择了IP架构前端。但ASI架构与IP架构由于采用不同的信号传输类型、物理接口、线缆类型, 所以在系统特点上有所差异, 下面从功能性、集成性、安全性、扩展性四个方面进行比较。

1) 功能性。

编码、复用是一个数字前端必备的两个功能环节, 数字化改造后, 在有线数字电视运营前端机房、电台/电视台传输机房, 都会建设编码复用系统。

就ASI架构而言, 早期是由编码器、复用器等独立设备单元组成, 编码器接收各种类型信源信号 (如卫星接收机输出、电台/电视台制作输出、国干网下传接收等) , 输出ASI码流至复用器, 经过复用器, 将多路单节目ASI码流复用成1路多节目ASI码流输出, 供后端链路使用。随着技术的进步, 设备集成度越来越高, 编码与复用功能可以通过一台高集成度设备完成, 减少了设备数量、线缆数量, 一定程度上降低了系统复杂度。

在IP架构中, 编码、复用设备都是通过IP以太网连接, 目前大多数系统采用编码复用一体机, 支持多种信源业务输入, 完成功能与ASI架构一样。但IP架构中采用的编码复用设备, 一般都可支持ASI与IP方式同步双路输出。

2) 集成性。

ASI架构中, 设备独立性强, 且1个ASI通道只能传送1路TS流, 在广播电视业务中, 1路TS流一般不会超过20套节目, 所以, ASI架构的集成性较弱。

IP架构中, 由于IP通道特性, 在带宽允许的情况下, 1个IP通道可以传送多路TS流, 所以1个通道可以传送几十套甚至上百套节目。

在节目数量较多的情况下, IP架构的系统结构简洁、占用空间小, 管理简化, 集成性优于ASI架构。

3) 安全性。

ASI架构中, 设备之间按照严格的逻辑关系连接构建, 每台设备的上下游连接是确定的, 每个通道都是单向传输, 通道之间完全独立;在IP架构中, 无需考虑设备连线之间的逻辑结构, 直接将IP信号送至交换机的任意端口即可, 通过对信号IP地址的规划配置, 实现信号流的传送, 因为IP为双向传输, 通道之间需要通过VLAN划分等处理才可实现通道间的独立, 同时由于IP传输协议的特性, 在传输数字码流时会出现延迟、抖动现象, TS流的传输将受到网络服务质量的影响, 并最终影响接收质量。

由此可见, ASI架构的安全性、稳定性更加出色。

4) 扩展性。

基于前面几点的分析, IP架构为双向通道, 利用了成熟的IP协议、路由交换及网络技术, 不仅可以完美支持ASI平台的各种增值业务, 并且可方便的支持基于IP传输的各种类型业务, 更加适用于三网融合应用。

4.3 电台采用ASI架构的考虑

在数字电视大规模普及的今年, 几乎所有的有线运营商均采用了IP架构的前端, 这是因为作为运营商前端, 节目数量庞大、业务类型繁多, 可以采用集成度很高的设备, 在系统扩展性、灵活性上都有突出优势。但IP架构在可靠性、安全性方面, 则比ASI略逊一筹。

广播电台作为节目制作单位, 有以下几个特点, 一是作为第一级信源单位, 对信号传输的可靠性要求最高;二是节目数量不多;三是业务类型单一, 为单纯的音频广播节目。

在传统的ASI解决方案中, 设备之间是通过ASI电缆进行连接, 它们之间的连接逻辑是十分严格的, 每条通道之间相互没有交叉, 可以完全确保节目传输的安全性, ASI架构相对IP架构, 系统的封闭性更好, 能够很好的防止安全播出事故的发生。所以, 针对广播电台, 更多采用ASI架构, 能够达到最安全最优质的传输。

4.4 典型广播电台数字传输系统

1) 编码复用与应急系统。

以典型的广播电台传输系统为例, 整个系统由编码复用切换系统和应急系统组成, 其中编码复用切换系统包括编码器1+1备份, 复用器的1+1备份和切换器的1+1备份, 经过主、备适配器传输到下一级单位。

编码复用切换单元将主、备路立体声数字音频基带信号 (AES/EBU) 作为主、备编码器的输入源, 对其进行MPEG1 Layer2编码压缩和MPEG2的码流封装, 压缩后的音频节目SPTS流, 输入到主、备复用器。复用器对输入码流进行统一规划, 包括节目名称, 节目号, 音频PID等, 复用成1路标准的多节目码流 (MPTS) 。主、备编码器和主、备复用器之间水平和交叉连接, 复用器支持端口1+1热备份和编码器的1+1热备份。

主、备复用器和主、备切换器采用水平和交叉连接, 切换器支持主备复用器的设备1+1热切换。切换器对来自主、备复用器的MPTS实现分析和监测, 在特定的报警切换条件下, 实现码流的无缝切换, 并支持断电直通功能。切换条件包括TR101-290标准, 节目丢失, 比特率异常等。

应急系统是编码复用切换系统的又一级保障, 通过编码器编码和复用器的节目拷贝功能, 复用成1路含有多路音频的多节目码流 (MPTS) 。发生故障时, 通过跳线, 实现与编码复用切换系统手动切换。为了保证下一级接收单元和终端接收者的正常接收, 此MPTS和编码复用切换系的MPTS保证完全的一致, 包括PSI/SI信息、音频的PID、总码率等。

2) 码流监测系统。

根据业务传输系统链路, 在编码复用切换系统中共设置了码流质量监测系统, 监测节点包括主备编码器输出、主备复用器输出、应急复用器输出、主备切换器输出, 以提供有效的报警信息及应急处理预案, 保证整个编码复用生产系统的稳定运营。

5 结论

音频技术的数字化时代早已开始, 音频领域的变革在随时随地的发生, 人们对收听质量的要求也越来越高。广播电台的编码复用系统建设, 要从业务需求出发, 选择适合的音频编码技术与传输方案, 服务于广大听众。

参考文献

[1]韩宪柱.数字音频技术及应用[M].北京:中国广播电视出版, 2003.

[2]杨震.数字音频及其在数字电视中应用[M].北京:信息技术&标准化, 2010 (3) .

[3]唐峰.数字音频压缩技术研究[M].北京:中国传媒科技, 2008 (5) .

[4]游余立, 张新刚, 徐茂, 等.GB/T 22726-2008多声道数字音频编解码技术规范[S].北京:中国标准出版社, 2008.

上一篇:Free talk下一篇:语音教学重难点