高清图像

2024-05-14

高清图像(精选六篇)

高清图像 篇1

随着高清电视 (HDTV, High-Defi nition TV) 在全球的普及, 研究和发展超高清电视 (UHDTV, Ultra-High-Defi nition TV) 技术成为了电视技术工作者的新课题。日本的NHK在1995年就开始了超高清电视技术的研究, 并且其定义的超高清格式被国际电信联盟 (ITU) 所认可, 成为新的国际标准。超高清电视技术通过具有4000扫描线的超高分辨率和22.2声道的多声道音频系统, 能够给现场观众带来超过高清电视带来的更加强烈的现实感和临场感, 具有沉浸式的超感官视听体验。

从技术角度看, 电视系统的发展经历了黑白电视、彩色电视和数字电视三个历史阶段, 第四代电视技术——高清晰度电视也已经在全球范围内蓬勃发展, 因此也有人把超高清电视看作第五代电视技术。国际电信联盟发布的“超高清UHD”标准建议, 超高清电视分两个阶段, 第一个阶段的超高清电视的分辨率为3840×2160 (4K×2K) , 也称为4K, 约800万像素;随后将采用更高的分辨率, 即7680×4320 (8K×4K) , 也称为8K, 达到3300万像素, 分辨率为现有全高清电视的16倍。另外, UHDTV系统的基色坐标、标准白、光电转换方程、亮度/色差分量方程等色度学指标也都与ITU-RBT.709、SMPTE RP177等现有标准兼容。

超高清电视技术于2002年进行了第一次公开展示, 在2005年的爱知世博会上进行了半年的演示, 2008年通过卫星和IP网络进行了信号的传输试验。在2012年的伦敦奥运会上, 奥林匹克转播服务公司OBS联合英国主转播商BBC公司和日本NHK电视台, 启用了分辨率为7680×4320以及多达22.2声道的超高清电视技术, 使用世界上仅有的3台超高清摄像机拍摄了开、闭幕式以及田径等项目的部分比赛, 并以超高清的形式转播了奥运会的部分赛事, 伦敦奥运会也成为首届以超高清拍摄的奥运会。

2超高清的优势

现有超高清图像8K的分辨率达到7680×4320, 帧频达到逐行扫描120帧/秒, 超高清图像的水平分解力、垂直分解力以及时间矢量都是现有高清电视的整数倍, 这也是为了兼容现有的高清电视格式, 所以说超高清电视技术也是以高清电视技术为基础而设计的。

根据人类视觉系统 (HVS, Human Visual System) 具有超过180°的水平视角, 而现有的标清电视所能提供的视角 (FOV, Field Of View) 仅为13°, 高清电视为30°。根据ITU-R BT.1845提供的屏幕尺寸和最佳观看距离之间的关系, 在相当大范围的图像对比度和平均亮度值内, 人类视觉在垂直和水平方向上的最小角分辨率为1角分 (arc-min) , 与人眼能够辨别1角分的角所对的内容相符, 从而在人眼所处位置数字源图像像素间距与1角分的角对应的视距为数字图像的最佳视距。最佳视距和水平视角的关系如下:

d为最佳视距, θ为最佳水平视角。

由此可以计算出高清电视和超高清电视的最佳视距和最佳水平视角, 如表1所示。

所以, 在屏幕为500英寸的剧场, 最佳观看距离为3m;在家里通过145英寸的电视观看超高清节目时, 距离屏幕大概为1.5m时才能达到100°的水平视角, 具有更强烈的视觉体验, 如图1所示。

大屏幕给观众带来强烈的临场感和现实感, 音响系统的好坏直接影响到超高清对现场音频的还原情况。高清电视的5.1环绕声主要是用来营造两维平面的声场, 与超高清相适应的22.2声道的音频系统提供了3维立体声场来增强观众的视听感受。22.2声道音频系统包括顶层9个声道, 中间层10个声道, 底层3个声道以及下层两个低音共同构成完整的22.2声道系统, 如图2所示。22.2声道最为突出的是将声场完全三维化, 声音更真实、更具现场感。

注:H为图像高度

3超高清的图像格式

在超高清技术发展的过程中, 首先所面临的主要问题是确定超高清的视音频技术参数以及超高清从拍摄直到显示的解决方案, 包括编辑、播出、存储、压缩、传输等。对超高清来说还要具有兼容性和互通性, 具体来说就是要满足以下基本的要求:

1.图像质量要远超过高清电视;

2.和现有高清电视的兼容性、互通性以及通用性;

3.将来技术的可行性。

因此, 一些研究机构开展了对人类视觉系统和心理感知的研究, 希望能够找到适合人类观看体验的最佳技术参数, 包括空间分辨率、时间分辨率以及色彩还原等, 达到观众对超高清的观感期望, 超高清图像格式具体参数如表2所示。

1.空间特性

对超高清的空间特性的研究主要从人类视觉系统和心理感知两方面来进行。像素数量的大小是超高清图像格式首先要解决的问题, 因为像素数量的多少和图像质量有直接的关系。系统的像素数量或者叫空间分辨率的计算是通过显示设备的视角乘以角分辨率 (每一个角度对应的像素数量) , 所以在不降低图像质量的情况下提高系统的真实感是超高清设计所面临的主要问题, 而增强真实感一个非常有效的方法就是增加视角和显示设备的尺寸, 所以超高清的空间分辨率要综合考虑这两个方面。

因此, 超高清的临场感和真实感是进行主观评价的主要的技术指标, 下面就从这两个方面分别进行详细分析。

1) 临场感

临场感的评估测试是通过把200个测试对象分成5组, 每一组通过不同的视角观看使用摄像机拍摄的4张具有不同视角和不同内容的图片, 然后进行临场感的评估, 没有任何临场感为0分, 临场感非常的强烈为7分, 结果如图3所示。

由图3可以看出临场感随着水平视角的增加而增强, 在80°到100°之间达到了饱和。另外, 由图3可以看出当视角为77°时临场感最强, 但是这个数值针对不同的统计方法是没有意义的, 所以使用拍摄角度为100°的图片进行了相同的评估发现, 超高清的视角应该在80°到100°之间, 相应的观看距离为屏幕高度的0.75倍~1倍之间。

2) 真实感

真实感的评估采用观看六个不同的角分辨率的图片, 然后和实际物体进行对比, 参与测试的测试对象的选出最接近实物的一个图片。评估结果如图4所示。结果表明, 空间分辨率决定了是否能够和实际物体区分出来, 角坐标分辨率越高, 临场感越强。

3) 视角

视角测试是用来测试人类视觉系统的视角极限, 通过增加视角来增强临场感。通过让测试对象观看不同视角的图片, 来测试测试对象的身体摆动的幅度, 从而得出超高清图像的最佳观看视角, 测试结果如图5所示。从图5可以看出身体的摆动幅度和视角成反比, 随着视角的增大, 身体的摆动幅度随之减少, 直到视角为80°左右达到了饱和。

以上的实验结果可以归纳为:临场感在80°~100°之前随着视角的增加而增强;真实感的提升在80°~100°之前随着视角增加而增加;角度分辨率的提升取决于传统的最佳观看距离, 另外还可以提高图像质量, 如图6所示。临场感和视角有直接的关系, 真实感不仅和视角有关系还和分辨率有直接关系。

由上面的研究结果可以得出超高清电视应该具有的水平像素达到8000左右, 结合目前的高清电视系统建议:图像的宽高比为16:9;像素数最好是整数;最后得出超高清电视的像素为7680×4320。

2.时间特性

运动物体的特性通过视觉的运动模糊、频闪效应、闪烁来描述, 这些因素都和视频的时间特性有关系, 包括曝光时间和帧频。运动物体的速度也对运动物体有影响。

1) 运动模糊

运动模糊是景物在图像中的移动效果, 它比较明显地出现在长时间曝光或场景内的物体快速移动的情况下。

通过试验可以来找出运动模糊和曝光时间之间的关系, 图4给出了曝光时间和物体运动速度之间的关系, 通过拍摄静物和运动物体来找出曝光时间和运动物体之间的共同点。我们设物体的运动速率为30°/s, 曝光时间的范围设为1/200s~1/300s之间, 可以得出图7的结论, 运动速度越快, 曝光时间越短。

同样也可以通过提高帧频和快门来降低曝光的时间, 但是这些都是以图像质量为代价的。

2) 频闪效应

图像质量的主观评价采用曝光时间均为1/240s, 帧频为60f/s、80f/s、120f/s, 来确定当帧频为多大时, 所得到的运动模糊的图像为我们所接受的, 如图8所示, 当帧频大于100Hz时所得到的图像质量我们都可以接受。

3) 闪烁

闪烁是经常遇到的一个问题, 通过宽屏幕观看超高清电视会增加闪烁的可能性, 而根据人类视觉特性, 人类对周围的视觉闪烁更敏感。在理论上我们可以用临界融合频率 (CFFs, Critical Fusion Frequencies) 来表示闪烁, 根据人类的感知特性, 临界融合频率随着视角的增加而增加。在视角为30°时, 更适合欣赏高清电视的临界融合频率不小于65Hz, 但在观看视角为100°的超高清电视时, 临界融合频率需要超过80Hz, 也就是说超高清电视需要比高清电视更高的频率, 如图9所示。

当帧频达到120Hz时可以完全消除闪烁, 在没有闪烁的情况下, 由于停留时间导致的运动模糊进一步的减少。

综上所述, 只有当超高清图像的帧频达到120f/s以上时, 可以很大程度上改善低频模式常出现的运动镜头跳停现象以及运动镜头时出现的模糊现象, 能够完全消除高亮度和宽视角情况下的临界闪烁现象;高帧频也带来了更好的图像质量。

3.色彩特性

除了空间特性和时间特性外, 超高清电视对色彩能否正确呈现也作了深入的研究。根据ITU-R Rec.BT.709, 实际物体的饱和度要比高清电视重现物体的色彩饱和度要高;而现有的消费类平板显示器的已经具备超过现有高清电视图像的色彩宽容度。因此, 为了满足临场感和真实感的需求, 超高清电视的色彩饱和度的宽容度应该能够满足重现自然界的所有色彩。

为了达到这个目的, 需要重新考虑基于用户需求并且能够利用现有新技术的色度学原理, 需要满足以下三个方面的要求:

1) 宽色域, 能够覆盖现有的电视相关系统的色域, 并且最接近实物的颜色。

2) 宽色域的色彩编码效率应该可以比得上现有的电视系统。

3) 电视技术宽色域的基色单元物理上能够接受, 显示技术上能够接受整个色域的显示, 而且能够进行图像质量的管理。

根据要求对比具有相当宽的色彩饱和度的方法, 最终采用RGB三基色来表示色彩饱和度。UHDTV系统色域采用了基于CIE1931XYZ的RGB色彩空间, 红基色波长为630nm (x=0.708, y=0.292) , 绿基色波长为532nm (x=0.170, y=0.797) , 蓝基色波长为467nm (x=0.131, y=0.046) , 参考白场和HDTV的Rec.709 (CIE D65) 一样 (都是x=0.3127, y=0.3290) 。参照D65的基准白, 超高清的色域不仅完全覆盖了高清电视的色域, 而且覆盖范围达到显示器99.9%的覆盖范围。因此, 超高清电视色域更宽, 细节显示也更加逼真, 饱和度更高, 更接近物体本身, 如图10所示。

从图10可以看到, 马蹄形的包络线里包含了自然界所有的真实色彩, 最里面的黑色三角形包含了HDTV的色域, 外面的黑色三角形则是UHDTV的色域, HDTV和UHDTV的参考白点都是“D65”。

UHDTV的色彩空间要比HDTV大不少, 许多HDTV无法呈现的色彩都能在UHDTV上呈现。以覆盖范围来看, UHDTV是CIE 1931的75.8%, 相比之下, 而Adobe RGB是52.1%, 数码相机是53.6%, HDTV是35.9%。

视频信号的表述通过亮度、带宽以及色差信号来表示, 然而, RGB信号伽玛校正以及色差信号的带宽受限都会导致亮度信息的丢失, 这也称之为非恒定亮度传输。高清电视信号使用Y', CB', CR'来表示非恒定亮度传输, 因此, 对于超高清电视技术采用线性RGB信号来满足恒定亮度传输。

如果UHDTV采用8位色深的话, 平均色彩错误数是0.78个, 最大色彩错误数是2.05个, 远高于HDTV采用8位色深时候的0.58和1.45。因此UHDTV的色彩编码必须是10位, 如果想更好的话那就要选择12位, 不过即使是12位在个别情况下还是不够用的, 例如在人类视觉系统最低可察觉对比度特征测试的Barten模型中就会出现12位也都不够用的情况。

通过上面的分析, 我们可以得出超高清电视技术的各项技术参数, 这些技术参数也得到了ITU的认可, 已经成为了新的超高清电视技术指标。

4结论

本文详细的描述了超高清电视技术的各项技术指标, 特别描述了图像格式、系统参数以及对系统的要求;更重要的是根据人类视觉系统, 超高清电视是最接近人类视觉系统, 也可能是能够提供强烈的真实感和临场感以及超高图像质量观看体验的2D电视的最终目标。

参考文献

[1]M.Kanazawa, K.Mitani, K.Hamasaki, M.Sugawara, F.Okano, K.Doi, and M.Seino, "Ultrahigh-Definition Video System With 4000 Scanning Lines, "Proc.IBC 2003, 321 329 (2003) .

[2]K.Omura, M.Sugawara, and Y.Nojiri, "Evaluation of Motion Blur by Comparison with Still Picture, "presented at the IEICE General Convention, DS-3-3, pp.S-5 6 (2008) .

高清图像 篇2

这是Basler首款基于Blackfin处理器设计的摄像头。以往的型号都基于FPGA和微控制器, 不过新品设计中面临的挑战决定了这次必须采用不同的方案。如今业界的性能标准已大幅提升, 而企业在定价、功耗和上市时间方面仍承受着很大的压力。Blackfin的强大性能有助于在多视频流压缩、运动检测、分组处理及实时流传输要求下实现高吞吐率。此外, Blackfin卓越的性价比和能效比也令人信服, 摄像头专门采用PoE (以太网供电) , 无需外接电源线, 因而简化了所有节点的设置, 特别是那些供电不便的节点。功能强大的开发工具 (如GNU工具链) 无疑也令擅长开源工具的工程设计团队受益匪浅。

摄像头开发团队进行原型设计时, 首先使用的是VisualDSP++下的ADI EZ-KIT Lite评估板和μClinux下的GNU开发工具。开源社区还提供了各类成熟可靠的Blackfin软件解决方案, 互联网连接领域的解决方案尤为齐全。此外, Basler还能够充分利用ADI和其他第三方开发商的图像和视频压缩软件模块。Blackfin丰富的资源令设计团队得以迅速满足所有设计规格的要求。

这款高端监控摄像头能够通过以太网网络提供多流实时压缩视频。成像器、转换器、Blackfin处理器、存储器、稳压器及FPGA的总体功耗不到5 W。Blackfin执行的任务包括视频采集、压缩、白平衡、光圈控制 (用以获得最佳画质) 、运动检测、事件管理、IP分组处理、实时流传输及网路服务等。

高清图像 篇3

1 总体设计架构

视频监控技术主要应用于智能家居和工业生产领域, 本设计是基于Android移动平台实现实时的视频监控终端, 如图1所示。研究内容主要包括以下几个方面:在Android平台下实现与视频服务器的交互及读入监控采集的视频数据;对读入的视频数据解复用和解码, 将解码后的数据进行播放以及播放过程中的视音频同步。整个视音频监控系统的设计可以分为4个功能:模块嵌入式系统模块、视频采集模块、网络通信模块和客户端。

本文完成的主要内容是基于Android平台的移动终端的实现。Android客户端设计参照Android的系统架构可以分为本地框架和Java框架两个部分。功能模块可以细分为UI媒体播放库的设计以及视音频同步模块的设计。按照目前Android技术的软件开发架构还可以将应用的具体实现细分为表现层、业务层、访问层、数据层[5]。

2 客户端的设计

2.1 客户端的介绍

按照Google官网的介绍, Android系统架构可以分为应用程序层、应用框架层、系统运行库层和Linux内核层。本应用是基于C/S结构[6]开发的, IP摄像头通过Wi Fi连接网络[7], 手机通过服务器获取节目列表和对平台进行一定的操作, 采集多媒体信息的工作由高清摄像头和传声器阵列完成, 音频信息和视频信息采取TS流进行传输。其中视频采取H.264格式或MPEG-2格式, 音频采取AAC格式。

2.2 客户端的软件设计

客户端的设计可以分为4层结构, 分别为表现层、业务层、访问层和数据层, 采用面向对象特性进行设计。

2.2.1 表现层的设计

表现层即客户端界面的设计, 采取目前比较流行的fragment作为activity的一部分, 它把自己的layout嵌入到activity的layout中。Fragment Manager提供了对activity运行时的fragment的添加、删除和替换的操作, 使UI的设计更具灵活性, 可以随时退回到后一个界面而不用退出程序 (fragment是从Android3.0开始支持) 。

2.2.2 业务层的设计

业务层的设计主要可以分为解码、渲染和同步部分。业务层从功能上负责视音频解码、解复用以及视音频同步, 同时负责视音频回放和网络解析。视音频的回放不特别说明, 由video类和audio类负责, 从业务层的功能划分来看, 必然会涉及到多线程, 线程间的通信采用共享内存机制 (ndk库支持常用的一些Linux库, 包含线程库) 。而通过jni技术可以将ffmpeg的函数直接绑定到Java层使用, 但是为了避免不停地从C++层返回Java层, 浪费运行时间, 业务层采用纯C++的设计, 采用面向对象的封装、多态、继承的特征设计业务层。以上各个模块的关系如图2所示。

2.2.3 访问层的设计

访问层主要负责各个功能模块接口函数的调用, 客户端对服务器响应的处理, 以及客户端向服务器发送的指令。

2.2.4 数据层的设计

数据层主要负责客户端对SQLite数据库的创建和管理, 负责保存应用的各种配置文件。

2.3 客户端的运行流程

客户端的运行流程包含界面的登录、配置文件的设置、流媒体的播放, 如图3所示。

2.3.1 用户数据库配置

服务器与客户端分别采用mysql和SQLite数据库用户信息进行保存和处理。其中, 用户第一次登录需要配置网址、端口号和账户信息。

2.3.2 媒体库的初始化

媒体库的初始化包括初始化视音频解码、同步模块和队列。ffmpeg库在解码前, 先通过TCP/IP网络接收网址, 解析多媒体信息, 同时解复用, 最后将音频信息和视频信息分别独立开来。本文采取RTSP作为网络传输协议, 由ffmpeg为客户端提供网络服务, 需要对ffmpeg进行必要的初始化, 同时解析出多媒体的头文件以做下一步的操作, 其中由于渲染模块采取Android系统库进行渲染后, 需要对surface进行必要的初始化, 可以让解码后的转换的RGB数据传入Buffer后, 直接进行渲染。

2.3.3 解码和同步

解码采取ffmpeg库进行软解码, 同时在实时播放不流畅的时候采取系统库的硬解码。在Android中, 通过jni技术调用ffmpeg的动态库, 而Stagefright框架集成到ffmpeg里面, 调用过程是类似的, 如图4所示。

同步采取外部时钟进行同步, 保持视频和音频的不脱节。以视频举例, 每次视频播放都会计算下一帧播放的延迟, 如果视频PTS (Presentation Time Stamp) 快于外部时钟则加倍这个延迟, 如果慢于外部时钟则立即进行下一帧的播放。大概的视频同步图如图5所示, 其中delay为当前帧的pts-上一帧的pts。

音频同步的原理更为复杂, 因为不期望每次发生偏差的时候都进行同步如图6所示, 这样会使同步音频多于视频包, 每次处理声音样本的时候, 需要使用一个synchronize_audio的函数来正确地收缩或扩展声音样本, 同时需要为函数synchronize_audio设置一个最小连续值来限定需要同步的时刻, 而“失去同步”意味着声音时钟和外部时钟的差异大于阈值。这样会在同步时得到N个失去同步的声音样本, 为了不失去多个同步数量的差值, 需要计算一下失去同步长度的均值, 而失去同步的长度远和近的声音样本对于加权的平均值的重要程度是不同的, 这时会使用一个分数系数C, 这个系数来自于等比级数的加权平均值, 比如:diff_sum=new_diff+ (diff_sum) ×c;avg_diff=diff_sum× (1-c) , 而c=exp (log (0.01/AUDIO_DIFF_AVG_NB) , AUDIO_DIFF_AVG_NB设为20, new_diff=当前的音频显示时间-外部时钟。

2.3.4 播放视频和音频

目前Android采取主流播放器渲染的机制是surfaceflinger框架里面的渲染机制, 直接调用surface则加快了渲染的速度, 相对于Android提供的图片显示的方式要快很多。音频则用Audioflinger框架进行播放, 耗时相对于视频不是影响系统效率的主要因素。

3 性能测试和功能验证

本监控实验基于Android平板PC和手机, 高清摄像头, 以及一个Linux服务器进行验证和性能测试。

在实验过程中需要移植ffmpeg到Android平板, 借用了Google所提供的跨平台编译器将ffmpeg开源源代码编译成动态库使用。在本实验中主要测试软件播放一帧图像所需要的时间, 分别在不使用任何优化的软件和使用基于Neon优化指令集、硬解码、各种渲染方法的情况下播放一帧图像所需要的时间。

3.1 测试环境

服务器:Intel (R) Core (TM) i3-2100 CPU@3.10 GHz, 2 Gbyte内存;Fedora14 (内核2.6.35.14-106, fc14.i686, GCC4.5.1, GLIBC 2.12.90) 。

客户端:Nvidia Tegra2@1 GHz, 1 Gbyte内存, Android4.0.3, 屏幕分辨率1 280×800。

摄像头:像素800万, 捕捉幅面1 280×720, 分辨率1 280×720, 最大帧数30 f/s (帧/秒) , USB2.0。

传声器:敏感度100~10 000 Hz, (-40±3) d B。

3.2 测试设计

测试分别检验功能的正确性和性能的有效性, 检验功能主要利用日志进行排错, 性能利用系统时钟算取差值, 而经过观察和测试, 视频监控最消耗时间的是在视频解码和渲染视频上。

测试时分别在视频解码和视频渲染函数的前后两个点取时间戳。使用系统时钟函数打印出时间差值传入一个文本里面, 然后使用脚本语言计算出时间平均差值。测试结果采用不同的720p监控视频进行计算, 减少计算的误差。在正常情况下的软件解码, 720p视频解码平均消耗70 ms, 而Neon平均能节省一般的时间, 大约为30 ms硬解码, 也大约节省一般的时间, Neon指令集优化和硬解码可以让计算减为原来的1/4左右, 即使720p的视频也可以流畅地进行播放, 而720p的监控视频一般是24~30 f/s。

720p视频的渲染方式和时间如表1所示。

可以看出大致的时间消耗不大, 渲染方式不是决定性能差异的主要因素, 其中的Private C++API是本文采取的渲染方式, 它主要使用了Android的surfaceflinger框架, 其中调用了Android系统运行库。

至于同步, 测试采用两种方法, 一是对比pts和外部时钟的差值, 二是主观测试同步的质量。测试方法:主观测试1 000次说话 (可以通过观察嘴型得知) , 测试结果是98.3%的说话是同步的, 而第一种方法可以使用广播的电影来测试。视频经过同步模块的调整后, 与外部时钟的差值大概在30 ms以内。音频播放比较稳定, 差值大概在10 ms以内。

视频监控实验的截屏的图像如图7所示。

4 小结

目前视频监控系统的研究很少有涉及到高清图像传输时移动终端实时进行播放监控视频的问题, 本文设计并实现了基于Android的高清图像的远程监控终端, 并且在笔者教研室的项目中已经开始应用。

参考文献

[1]王建新, 杨世凤, 史永江, 等.远程监控技术的发展现状和趋势[J].国外电子测量技术, 2005 (4) :9.

[2]周建良.远程监控系统研究与应用[D].成都:西南交通大学, 2004.

[3]夏建明.基于TCP/IP的远程监控系统的研究与实现[D].西安:西安理工大学, 2005.

[4]马化腾:未来半年仍是Android发展黄金期[EB/OL].[2013-02-15].http://tech.sina.com.cn/i/m/2012-10-19/10297719312.shtml.

[5]张弢, 杨理想.Android远程监控终端应用的研究与开发[J].现代电信科技, 2012 (5) :45-47.

[6]李琴, 陈立定, 任志刚.基于Android智能手机远程视频监控系统的设计[J].电视技术, 2012, 36 (7) :134-136.

高清图像 篇4

人们对高质量图像和声音的追求是永无止境的。近年来, 随着视频编码和网络技术的快速发展, 人们已不满足于HDTV的图像质量, 转而追求更具临场感及更高清晰度的下一代电视格式。高清晰度电视的分辨率为1 920×1 080, 水平视角大约为30°。实验表明, 为了给观众提供真实的临场感体验, 观看电视的视角应大于100°, 观看距离应为图像高度的0.75倍[1]。要满足上述条件, 分辨率大约为8k×4k, 因而产生了比HDTV具有更大视角更高分辨率的电视标准———超高清晰度电视 (UHDTV) 。超高清晰度电视即为具有极高的图像清晰度和极强的环绕立体声效果的系统。其目标是为观众提供提高的真实感和临场感。

2006年发布的ITU-R BT.1769建议书《Parameter values for an expanded hierarchy of LSDI image formats for production and international programme exchange (适用于节目制作和国际节目交换的、对应于经过扩展的大屏幕数字化成像体系结构的影像格式的一些参数值) 》[2]对超高清晰度系统的图像格式进行了标准化。2012年5月28日ITU-R负责广电业务系统标准拟定的第6研究组下设的拟定基带信号规范的工作组WP6C发布了关于超高清电视的建议书《Parameter values for UHDTV systems for production and international programme exchange (适用于节目制作和国际节目交换的、超高清电视系统的一些参数值) 》[3], 规定了两个层级的超高清电视———UHDTV1 (3 840×2 160) 与UHDTV2 (7 680×4 320) 。UHDTV的主要技术参数参见表1[3]。

注: (1) 表示对于24 Hz, 30 Hz和60 Hz系统, 含帧频除以1.001的数值。

从表1可知, 超高清图像要求其量化比特数为10或者12, 而之前实际的HD及SD系统中, 普遍采用的量化比特数为8, 基于此, 本文采用标准的UHDTV1测试序列, 采用x264压缩编码软件, 计算量化比特数为10和8的各序列在不同码率下的PSNR。以此来研究不同量化比特数对超高清图像质量损伤的影响。

2 峰值信噪比

在图像质量客观评价算法中, PSNR在实际工作中得到广泛应用。主要是由于其计算公式简单, 便于理解和实现。而且, 长久以来, 视频研究者也建立了PSNR的概念, 能够立刻理解其值所代表的损伤程度。另外, 目前并没有其他的度量模型能够得到跟PSNR一样的广泛认同。其计算公式如式 (1) 所示

式中:bits表示量化比特数;MSE为均方误差, 其计算公式如式 (2) 所示

式中:fij, f'ij分别表示原始视频图像和受损视频图像;M、N分别表示图像的高与宽。

3 实验内容

本次实验共用了4个超高清视频信号源, 分别是Park Joy, Ducks Take Off, CrowdRun和In To Tree, 如图1所示。每个序列长10 s, 帧率为25 f/s (帧/秒) , 共250帧, 色度格式为4∶2∶0。对于序列的特性, 按照ITU-R P.910[4]的建议计算了空间信息 (Spatial perceptual Information, SI) 和时间信息 (Temporal Perceptual Information, TI) , 图2给出各视频序列SI, TI的分布。由图中可以看出, 处于右上方的视频有更高的复杂度, 如Park Joy和CrowdRun, 而左下方图像的复杂度较低, 如In To Tree。

本文采用x264对量化比特数为8和10的信号源进行压缩得到不同码率的测试序列, 其相关参数及最终选定码率如表2所示。

4 实验结果及分析

图3为每个序列量化比特数分别为8和10的PSNR对比图。从图中可以看出, 对于Park Joy序列, 相同码率下, 量化比特数为10比量化比特数为8的序列高0.75~0.8 d B。对于Ducks Take Off序列, 相同码率下, 量化比特数为10比量化比特数为8的序列高0.7~0.75 d B。对于CrowdRun序列, 相同码率下, 量化比特数为10比量化比特数为8的序列高0.7~0.8 d B。对于In To Tree序列, 相同码率下, 量化比特数为10比量化比特数为8的序列高0.68~0.77 d B。

图4为4个序列量化比特数分别为8和10的PSNR均值对比图。从图中可以看出, 相同码率下, 量化比特数为10比量化比特数为8的4个序列的PSNR均值高0.71~0.77 d B。由此可以看出, 对于不同复杂度的测试序列, 量化比特数为10的各序列相对量化比特数为8有5%~20%左右的码率节省。分析其原因, 主要是因为在H.264/AVC压缩编码算法中, 量化比特数为10相对于量化比特数为8, 在运动补偿, 帧内预测等方面能提供更高的匹配精度, 从而减小其匹配误差, 即在相同的目标码率下, 得到更高的PSNR值。也即, 采用量化比特数为10, 在相同的目标码率下, 可以采用更小的QP (Quantization Parameter, 量化参数) 值, 等到更好的图像质量, 即PSNR值更大。

5 小结

本文采用x264对量化比特数分别为10和8的超高清视频序列进行压缩编码, 计算并比较其PSNR值。由实验数据得出, 同一序列在同一码率下, 量化比特数为10比量化比特数为8的序列的PSNR值高0.7 d B左右, 也即量化比特数为10的序列相对量化比特数为8有5%~20%左右的码率节省。这主要是因为在H.264/AVC压缩编码算法中, 量化比特数为10相对于量化比特数为8, 在运动补偿, 帧内预测等方面能提供更高的匹配精度, 从而减小其匹配误差, 即在相同的目标码率下, 得到更高的PSNR值。也即, 采用量化比特数为10, 在相同的目标码率下, 可以采用更小的QP值, 得到更好的图像质量, 即PSNR值更大。

摘要:通过挑选比较严格的超高清视频测试序列, 采用x264压缩编码软件, 计算量化比特数为10和8的各序列在不同码率下的PSNR值, 以此来研究不同量化比特数对超高清图像质量损伤的影响。由实验数据得出, 同一序列在同一码率下, 量化比特数为10相比量化比特数为8的序列的PSNR高0.7 dB左右, 也即量化比特数为10的序列相对量化比特数为8的序列码率节省5%20%左右。

关键词:超高清图像,PSNR,量化比特数

参考文献

[1]孙乐民, 薛永林.超高清数字电视关键技术研究[J].电视技术, 2012, 36 (6) :17-20.

[2]ITU-R BT.1769, Parameter values for an expanded hierarchy of LSDI image formats for production and international programme exchange[S].2006.

[3]ITU-R BT.2020, Draft new recommendation--parameter values for UHDTV systems for production and international programme exchange[S].2012.

高清图像 篇5

更低的物料清单 (BOM) 成本和出色的性能

AR0330CS可使数码摄像机设计实现大众市场消费者期望的价格敏感点, 满足人们日益增长的对高品质高清视频的需求。TCL数码科技有限公司总经理彭秀峰表示:“AR0330CS提供了极其丰富的功能、卓越的弱光性能和令人惊叹的总体视频质量。我们之所以选择AR0330CS, 因为它能帮助TCL实现高性能的摄录一体机, 并能够和目前市场上价位高得多的产品竞争”。

Aptina的客户对于该2.2μm像素传感器的早期反馈也非常赞许。由于AR0330CS具有的高性能, 在数码摄像机成像传感器领域, Aptina能够为客户提供他们所期待的至高品质。天彩电子有限公司首席执行官邓荣芳表示:“对于高清视频应用, 日光下生动鲜艳的色彩呈现需求日益迫切, 而这正是我们产品可以利用的AR0330CS强大优势。”

AR0330CS具有外形小巧的CSP封装设计 (6.28 mm×6.65 mm) , 可以开发超小型数码摄像机。

供货情况

高清图像 篇6

新产品采用了NEC电子“单帧超解像技术”独家算法,将1个图像帧数据进行解析、处理,从而改善在图像放大时产生的粗糙边缘。产品具有以下特点: (1) 改善标清 (简称SD, 640×480像素) 的视频及静止画面在全高清电视中放大时产生的模糊粗糙边缘; (2) 可支持10亿色 (30位色彩) 。采用该新产品,用户可构建出能够将由DVD刻录机或数码摄像机拍摄的标清画质及图片在全高清电视中清晰播放的系统架构。

新产品的样品价格为2 000日元/个。2009年7月开始量产,产量约10万个/月。2010年预计产量为100万个/月。

近年来,手机、电视等数字家电中,提高产品像素度也是提高竞争力的手段之一。但以往的数码摄像机、DVD刻录机记录下的资料,解像度相差甚多。例如, 标清与全高清画质之间相差6倍之多,如果仅仅是放大,画面会模糊不清。为改善此类问题,需开发将低解像度画面放大到全画面时的处理技术。为了获取清晰的图像,需增大用于解析画面的数据量,因而需要大容量的外部存储器,从而导致难以实现实时处理。

为解决上述课题,NEC电子与NEC中央研究所共同研究开发了画质改善技术。于2008年5月成功研究出利用1个图像帧数据进行解析即可让图像更清晰亮丽的“单帧超解像”算法。并于2008年11月向市场投入了运用该技术的支持高清电视画质的系统芯片“μPD9245GJ”,受到广泛好评。为顺应广大用户需求,此次推出了全新可支持全高清电视画质要求的系统芯片。

“μPD9280GM”的主要规格:采用NEC电子独家单帧超解像算法;最大分辨率: (1 920×1 200像素) ;图像接口:30位CMOS输入输出;图像数据:可选择RGB或YUV;无需外部帧存储器;主机接口:I2C Slave;最大工作频率:150 MHz (DotClock);工艺流程:0.15μm CMOS;电源电压:3.3 V (I/O) 、1.5 V (Core) ;封装:176 pin LQFP (□24 mm)、引线间距0.5 mm。

本文来自 360文秘网(www.360wenmi.com),转载请保留网址和出处

【高清图像】相关文章:

高清直播05-10

高清演播06-03

高清监控选型06-06

高清视频产品05-14

高清电视技术05-16

高清直播互动系统06-09

历史时间轴高清大图08-19

数字高清电视转播车05-18

高清摄像的技术分析05-20

高清晰度电视05-24

上一篇:电视转播管网系统下一篇:语文教学创新谈