音视频编码标准

2024-07-27

音视频编码标准(精选十篇)

音视频编码标准 篇1

H.264视频编码标准使得视频压缩效率提高到了一个新的水平。自该标准发布以来,H.264以其高效的压缩效率,良好的网络亲和性以及优越的稳健性等优点迅速得到了广大用户的认同。然而,随着终端处理能力以及人们对多媒体体验要求的不断提高,高清、3D、无线移动已经成为视频应用的主流趋势。而现有的H.264编码标准的压缩效率仍然不足以应对高清、超高清视频应用,需要更为高效的编码压缩方案。与此同时,近年许多新型有效的技术在不断涌现,使得新标准的定制成为可能。为此国际电联组织(ITU-T)和移动视频专家组(MPEG)成立了视频编码联合小组(Joint Collaborative Team on Video Coding,JCT-VC)[1],将新标准的定制正式提上日程。

2010年4月JCT-VC第一次会议在德国德累斯顿召开,所收到的27个提案从增加编码复杂度、提高压缩效率,或者从保证编码质量、降低编码复杂度的角度出发[2],讨论如何在H.264/AVC高级档次的基础上进一步提高编码性能。新一代视频压缩标准主要面向高清电视(HDTV)以及视频捕获系统的应用,提供从QVGA至1 080p以至超高清电视(7 680×4 320)不同级别的视频应用。其核心目标在于:在H.264/AVC High Profile的基础上,压缩效率提高1倍,即在保证相同视频图像质量的前提下,视频流的码率减少50%[1]。

2 HEVC编码框架及其关键技术

HEVC依然沿用自H.263就开始采用的混合编码框架[3],如帧内预测和基于运动补偿的帧间预测,残差的二维变换、环路滤波、熵编码等。在此混合编码框架下,HEVC进行了大量的技术创新,其中具有代表性的技术方案有:基于大尺寸四叉树块的分割结构和残差编码结构,多角度帧内预测技术,运动估计融合技术,高精度运动补偿技术,自适应环路滤波技术以及基于语义的熵编码技术。下文将对这个技术方案进行介绍。

2.1 基于四叉树结构的编码分割

为了提高高清、超高清视频的压缩编码效率,HEVC提出了超大尺寸四叉树编码结构,使用编码单元(Coding Unit,CU),预测单元(Prediction Unit,PU)和变换单元(Transform unit,TU)3个概念描述整个编码过程。其中CU类似于H.264/AVC中的宏块或子宏块,每个CU均为2N×2N的像素块(N为2的幂次方),是HEVC编码的基本单元,目前可变范围为64×64至8×8。图像首先以最大编码单元(LCU,如64×64块)为单位进行编码,在LCU内部按照四叉树结构进行子块划分,直至成为最小编码单元(SCU,如8×8块)为止,如图1所示。

对于每个CU,HEVC使用预测单元(PU)来实现该CU单元的预测过程。PU尺寸受限于其所属的CU,可以是方块(如2N×2N,N×N),也可以为矩形(如2N×N,N×2N),现有HM模型的对称PU分割类型如图2所示[4]。

此外,一种新的不对称运动分割预测(Asymmetric Motion Partition,AMP)方案也已经被JCT所接受[5],这也是HEVC与H.264在分块预测技术中最为不同之处。所谓AMP,即将编码单元分为两个尺寸大小不一致的预测块,其中一个PU单元的宽/长为CU单元的1/4,另一个PU对应的宽/长为CU单元的3/4,如图3所示。这种预测方式考虑了大尺寸可能的纹理分布,可以有效提高大尺寸块的预测效率。

2.2 HEVC的变换结构

HEVC突破了原有的变换尺寸限制,可支持4×4至32×32的编码变换,以变换单元(TU)为基本单元进行变换和量化。为提高大尺寸编码单元的编码效率,DCT变换同样采用四叉树型的变换结构。图4为编码单元、变换单元的四叉树结构关系图示例,其中虚线为变换单元四叉树分割,实线为编码单元四叉树分割,编号为各编码单元的编码顺序。采用Z型编码顺序的好处为:对于当前编码单元,其上方块、左方块以及左上方块预测信息(如果存在)总是可以获得。

配合不对称预测单元以及矩形预测单元,新的HM4.0模型还采纳了相应的矩形四叉树TU结构[6],突破了方块变换的限制。图5展示了3级矩形四叉树变换水平TU结构,同理可有垂直分割结构。

尽管TU的模板发生了变化,但其变换核并没有发生实质性的变化。现有的关于不对称变换所使用的变换核是由方形变换核剪裁得到的。通常,n×m的变换系数矩阵的计算公式为

式中:Bn×m为n×m的像素块,Tm,Tn分别为m×m,n×n的变换核,Cn×m为Bn×m的变换系数。

测试结果表明,非正方形四叉树更适合矩形PU和AMP变换,可节省大约0.3%的比特,同时增加2%左右的编码复杂度,对解码几乎没有影响[7]。

采用大尺寸树形编码结构有利于支持大尺寸图像编码。当感兴趣区域一致时,一个大的CU可以用较少的标识代表整个区域,这比用几个小的块分别标识更合理。其次,任意LUC尺寸可以使编解码器对不同的内容、应用和设备达到最优化。对于目标应用,通过选择合适的LCU尺寸和最大分级深度,使编解码器具有更好的适应能力。LCU和SCU尺寸范围可被定义到档次和级别部分以匹配需求。

3 HEVC预测编码技术

HEVC的帧间、帧内预测的基本框架与H.264基本相同:采用相邻块重构像素对当前块进行帧内预测,从相邻块的运动矢量中选择预测运动矢量,支持多参考帧预测等。同时,HEVC采用了如多角度预测,高精度运动补偿等多种技术,使得预测精度大大提高。

3.1 多角度帧内预测

HEVC的帧内预测将原有的8种预测方向扩展至33种,增加了帧内预测的精细度。另外,帧内预测模式保留了DC预测,并对Planar预测方法进行了改进。目前HM模型中共包含了35种预测模式,如图6所示。但由于受到编码复杂度限制,编码模型对4×4和64×64尺寸的PU所能使用的预测模式进行了限制。

原有的HM模型中色度分量帧内预测采用了5种预测模式,分别为水平、垂直、DC预测、亮度模式以及对角模式。JCT-VC第五次会议后增加了以基于亮度的色度帧内预测[8],以取代对角预测模式。在该预测模式下,色度分量使用亮度分量的值进行线性预测,相关系数根据重构图像特性进行计算。该方案在色度分量上取得了8%左右的性能增益,而编码复杂度基本不变。

然而,尽管现有的帧内预测技术已对PU预测方向有所限制,但编码的复杂度仍然很高。不少研究人员提出了快速帧内预测算法,以进一步降低编码的复杂度[9]。

3.2 帧间预测技术

3.2.1 广义B预测技术

在高效预测模式下,HEVC仍然采用H.264中的等级B预测方式,同时还增加了广义B(Generalized P and B picture,GPB)预测方式取代低时延应用场景中的P预测方式。GPB预测结构[10]是指对传统P帧采取类似于B帧的双向预测方式进行预测。在这种预测方式下,前向和后向参考列表中的参考图像都必须为当前图像之前的图像,且两者为同一图像。对P帧采取B帧的运动预测方式增加了运动估计的准确度,提高了编码效率,同时也有利于编码流程的统一。

3.2.2 高精度运动补偿技术

HEVC的编码器内部增加了像素比特深度,最大可支持12 bit的解码图像输出,提高了解码图像的信息精度。同时,HM模型采取了高精度的双向运动补偿技术[11],即无论最终输出图像比特深度是否增加,在双向运动补偿过程都将使用14 bit的精度进行相关计算。

3.2.3 运动融合技术和自适应运动矢量预测技术

运动融合技术(Merge)将以往的跳过预测模式(Skip Mode)和直接预测模式(Direct Mode)的概念进行了整合。采用融合模式时,当前PU块的运动信息(包括运动矢量、参考索引、预测模式)都可以通过相邻PU的运动信息推导得到。编码时当前PU块只需要传送融合标记(Merge Flag)以及融合索引(Merge Index),无需传送其运动信息[12]。

自适应运动矢量预测技术(Adaptive Motion Vector Prediction,AMVP)为一般的帧间预测PU服务,通过相邻空域相邻PU以及时域相邻PU的运动矢量信息构造出一个预测运动矢量候选列表,PU遍历运动矢量候选列表选择最佳的预测运动矢量。利用AMVP技术可充分发掘时域相关性和空域相关性。

值得一提的是,无论是运动融合技术还是自适应运动矢量预测技术,两者在候选运动矢量列表的设计上都进行了精心考量,以保证运动估计的高效性以及解码的稳健性。在早期的HM模型中,两种预测方式所使用的候选运动矢量列表是相互独立的;在JCT第6次会议结束后,新的HM模型中将两者的参考列表构造进行了统一[13],Merge将采用与AMVP相同的方式构造候选运动矢量列表,进行运动信息的推导。

4 环路滤波

1个完整的HEVC的环路滤波过程包括3个环节:去块滤波,自适应样点补偿(Sample Adaptive Offset,SAO),自适应环路滤波(Adaptive Loop Filter,ALF)。去块滤波在H.264的去块滤波技术基础上发展而来,但为了降低复杂度,目前的HM模型取消了对4×4块的去块滤波[14]。自适应样点补偿和自适应环路滤波均为HEVC的采用的新技术。

4.1 自适应样点补偿

自适应样点补偿是一个自适应选择过程,在去块滤波后进行。若使用SAO技术,重构图像将按照递归的方式分裂成4个子区域[15],每个子区域将根据其图像像素特征选择一种像素补偿方式,以减少源图像与重构图像之间的失真。目前自适应样点补偿方式分为带状补偿(Band Offset,BO)和边缘补偿(Edge Offset,EO)两大类。

带状补偿将像素值强度等级划分为若干个条带,每个条带内的像素拥有相同的补偿值。进行补偿时根据重构像素点所处的条带,选择相应的带状补偿值进行补偿。现有的HM模型将像素值强度从0到最大值划分为32个等级,如图7所示[16]。同时这32个等级条带还分为两类,第一类是位于中间的16个条带,剩余的16个条带是第二类。编码时只将一类条带的补偿信息写入片头;另一类条带信息则不传送。这样的方式编码将具有较小补偿值的一类条带忽略不计,从而节省了编码比特数。

边缘补偿主要用于对图像的轮廓进行补偿。它将当前像素点值与相邻的2个像素值进行对比,用于比较的2个相邻像素可以在图8中所示的4种模板中选择,从而得到该像素点的类型:局部最大、局部最小或者图像边缘。解码端根据码流中标示的像素点的类型信息进行相应的补偿校正。

4.2 自适应环路滤波

自适应环路滤波(ALF)在SAO或者去块滤波后进行,目的是为了进一步减少重构图像与源图像之间的失真。ALF采用二维维纳滤波器,滤波系数根据局部特性进行自适应计算[17]。对于亮度分量,采用CU为单位的四叉树ALF结构[18]。滤波使用5×5,7×7和9×9三种大小的二维钻石型模板,如图9所示。滤波器计算每个4×4块的Laplacian系数值,并根据该值将所有4×4块分成16类,分别对应16种滤波器[19],每种滤波器的滤波系数通过自适应维纳滤波器进行计算。

除上述基于像素的ALF分类外,提案[20]还提出了基于区域的ALF分类。此时,每帧将被划分为16个区域,每个区域可以包含多个LCU。每个区域使用同一种滤波器,滤波器系数同样可以自适应训练得到。

对于色度分量,滤波的选择过程却简单许多。首先,色度分量的滤波决策只需要在图像层级上进行。其次,滤波时色度分量统一使用5×5矩形滤波模板,不需要通过Laplacian系数来选择滤波器类型。

5 熵编码

CABAC是H.264的两种熵编码方案之一。现有的CABAC编码器采用串行处理的方式,解码端需要足够高频率的计算能力方能实时地对高码率的码流进行解码,直接导致解码功耗和实现复杂度的增加。为了解决CA-BAC的吞吐能力问题,JCT提出了熵编码模型并行化的要求。所收集的提案大致从3个角度提出了并行化CA-BAC解决方案:基于比特的并行CABAC[21,22,23],基于语法元素的并行[21]CABAC和基于片的并行CABAC。最后,基于语法元素的并行CABAC编码方案(即SBAC)被HM模型所采纳。目前,HM可支持上下文自适应变长编码(CAV-LC)和基于语法元素的上下文自适应二进制算术编码(SBAC),分别用于低复杂度的编码场合和高效的编码场合。

SBAC的目的在于为具有不同统计模型的句法元素提供高效的编码方式。在SBAC中[24],句法元素被分成N个类别,每个类别并行地维护着自己的上下文概率模型及其更新状态,每个类别的句法元素可对应一个或者多个概率表。因此,当各个类别所处理的比特量较均衡时,与原有串行编码器相比,并行编码器的吞吐量将提高N倍。然而实际运用中,各个类别的句法元素比特数不可能均衡,因此编码器吞吐量的提升将小于N倍。目前,HM中每一个句法元素都对应着一个或者多个概率模型,不同句法元素间的初始概率模型可能相同,并且可为每一个语法元素的每一位设计其选择概率模型的规则,以便为编码器提供最准确的概率估计。总体来说,SBAC的编码过程与原有的CABAC编码过程大致相同,都包括语法元素值二进制化、上下文概率模型选择、概率估计与上下文概率模型更新、二进制算术编码4个部分。具体SBAC的句法元素分类办法原则及其概率模型选择办法可进一步参考文献[21,24-27]。

6 总结

目前,HEVC的基本编码框架已经确定,但许多技术细节仍在不断地研究中。专家组的主要力量集中在进一步提高HEVC编码效率以及降低其复杂度上。但除了提高HEVC编码效率以及降低编码复杂度的提案以外,许多研究人员已经开始研究HEVC的可伸缩编码和多视点编码方案,相关研究工作正在有计划地展开。与H.264High Profile的编码性能相比,目前HEVC已经取得了40%左右的压缩性能提升,而编码复杂度也达到了150%左右,不同测试场景的编码复杂度和性能提升程度有较大的差异。降低编码复杂度仍然是HEVC发展的一项重要议题。2011年7月22日,第6届JCT会议结束,本次会议总共提出了700多项提案,这些丰富的研究成果正极大地推动着HEVC前进的脚步。而HEVC的发展与完善必将极大地推动高清、超高清视频的应用步伐,为人类献上更丰富的视觉盛宴。

音视频编码标准 篇2

——虹图高清嵌入式编解码器TMV-HV1001 虹图高清嵌入式编解码器TMV-HV1001是北京图美视讯虹图系列视频编码器产品中的一员。本产品是针对较大规模的专业级数字视频系统应用而设计的专业设备,用于解决视频一级低速率数据的编解码、复用以及网络传输。具有功耗低、数据处理能力强、接口丰富等优点,很好地满足了实时系统控制、工业自动化、实时数据采集、军事系统等有严格要求,并且可靠性要求高的重要设备的需求。

【产品优势】

• 支持全高清视频实时编解码;

• 嵌入式构架;

• 支持2 路VGA输入、2路VGA输出接口;

• 支持2 路HDMI 高清输入、2路HDMI输出接口;

• USB2.0 接口,可插入U盘用于临时视频码流存储;

• SATA接口,用于本地视频存储,适合DVR场合使用;

• 视频编码支持MPEG4-10 AVC Base line,最高1080P 60帧/秒;

• 双路千兆以太网音视频传输;

• 友好的操作界面和便于操作的菜单系统。

【产品规格】

视频输入:2 路VGA接口,2路HDMI接口

视频输出:2 路VGA接口,2路HDMI接口

其他接口:1个USB2.0接口,1个SATA接口

网络接口:2 路千兆以太网

机 箱:采用标准1U机箱

电 源:AC220V

环 境:温度:0℃~70℃ 湿度:85%RH 以下

外形尺寸:480×360×44(宽×深×高(mm))

【应用领域】

可以广泛应用在通讯、网络,适合实时系统控制、产业自动化、实时数据采集、军事系统等需要高速运算的领域,也适用于智能交通、航空航天、医疗器械、水利等模块化及高的可靠度、可长期使用的应用领域。此外还适合课堂录播系统、医疗系统、雷达系统等仪器视频记录系统。

视频编码新标杆 篇3

一直以来,高画质、小体积、串流化是人们对理想高清视频的要求。然而,高画质与小体积却是一对与生俱来的矛盾。如何在高画质与小体积的博弈中寻求突破始终是高清视频编码的努力方向。日前,Rovi推出了新一代高清视频编码标准DivX 10。新标准有何亮点?会带来什么新气象?让我们一探究竟。

高质量编/解码

作为首个免费创建和播放高效视频编码(HEVC/H.265)标准的视频软件,DivX 10推出的新HEVC编码方案的压缩率接近原H.264的两倍。这意味着由H.265编码的视频在同等清晰度下的体积可以减少到原H.264编码视频的一半左右。为此,DivX 10提供了独立的编码转换程序DivX Converter。DivX Converter提供了全新的HEVC 1080P、HEVC 720P、PLUS 4K等编码配置文件(如图1)。

笔者打开一段平均码率14.1Mbps、视频采用H.264按High@L4.1方案编码、帧率29.970fps、大小为100MB、MKV格式1080p的香格里拉风光视频,转换为HEVC 1080p的MKV视频后,大小为50.9MB,缩小近一半。在Mediainfo中查看转换后的视频文件,平均码率为7109Kbps,其中视频编码为HEVC,平均码率5688Kbps;音频为双声道AC-3编码,码率640Kbps,帧率为29.970fps;再打开一段平均码率30Mbps、视频采用MPEG-PS按Main@High方案编码、音频为双声道PCM编码、码率1536Kbps、帧率为29.970fps、大小为1.10GB、MPG格式1080p的烟花视频,转换为HD 1080p的DivX文件后,大小为503MB,同样缩小近一半。在Mediainfo中查看转换后的视频文件,平均码率为13.4Mbps,其中视频编码为DivX 5,平均码率13.2Mbps;音频为双声道MP3编码,码率192Kbps,帧率为29.970fps。用附带的DivX Player打开转换前后的烟花视频,播放截图如图2所示。

可见转换前后截图中的烟花乃至夜空中的烟雾细节相差无几,没有明显的色斑和纹理串扰现象;再次打开一段平均码率17.2Mbps,视频采用H.264按High@L4.0方案编码、码率16Mbps,音频为6声道AC-3、码率448Kbps,帧率29.970fps、大小为124MB、1080p的MTS BDAV视频,转换为HEVC 1080p的MKV视频后,大小为59.7MB,同样缩小了一半。由此可见,在同等质量水平之下,新版HEVC/H.265编码器的确提供了比前辈H.264高出近两倍的压缩率,这是一个很大的改进,表明H.265采用了更先进的压缩和编码算法。从支持格式来看,DivX Converter支持TS、MTS、MKV、MP4、AVI、MPG、RMVB、DIVX等常见视频格式,能输出DIVX、MKV、MP4以及支持iPhone、iPad等移动终端的高清视频文件。

至于DivX Player,在笔者的AMD Athlon Ⅱ X2 240、4GB内存、1TB硬盘、Win 7 SP1的机器上,该播放器能够流畅播放采用HEVC/H.265编码的MKV视频,也能正常显示嵌套在MKV视频流中的SRT字幕文件。播放中的向后/向前搜索、暂停、播放等控制也很顺畅。DivX Player同时也支持AVI、VOB、WMV、MP4、RMVB、MOV、TS、XVID、ASF、QT等常见视频,支持外挂字幕,可以设置字幕的字体、文字颜色和边框颜色,还支持硬件解码加速和字幕同步延迟调整等高级设置,如图3所示。

用Mediainfo分析由DivX Converter生成的MKV视频,可见其MKV封装器为DivXMKVMux 4.0.9.9807。Kmplayer、Potplayer、迅雷看看、百度影音等播放器不能正常播放该MKV视频,表明DivXMKVMux 4.0.9.9807版封装器还不能被其它解码器和播放软件所识别和解码。

跨平台视频解决方案

Rovi为推动DivX 10的发展,同步推出了大量配套软件和工具,初步构建了一个涵盖硬件、软件、终端、视频内容以及版权服务在内的视频产业生态链。其提出的“HEVC 发展计划”旨在让企业充分利用最新压缩标准来降低成本,在带宽资源紧缺环境下为用户提供优化的观赏体验。1080p画质的DivX HEVC视频可以在包括个人电脑、手机、平板电脑以及消费电子设备等多种视频终端上播放。内置的DivX HEVC Plugin浏览器插件可以实现1080p画质的HEVC视频流式播放,优化了网络在线视频的观看体验。为提供更全面的端到端HEVC解决方案,Rovi还同步推出了为专业内容提供商准备的新MainConcept编码开发工具包,能保护多屏终端播放的HEVC文件内容。此外,DivX 10还通过采用DivX DRM加密技术的DivX Video Service服务以及扩展DivX Certification 程序来强化DivX视频文件的安全,为新版HEVC/H.265编码文件的版权保护和内容分发奠定了技术基础。DivX Converter内置的PLUS 4K配置文件可以生成分辨率达3840×2160的DivX Plus 4K MKV极高清视频文件,顺应了当前4K高清视频的发展趋势。

总结

从试用来看,DivX 10的确令人眼前一亮。HEVC/H.265编码标准的高压缩率使得画质与体积的博弈平衡又迈上了新台阶。1080p高画质的在线流式播放将网络视频播放体验提升到了前所未有的新高度。在高清视频编码标准发展相对迟滞的当前,DivX 10的出现无异于一剂强效兴奋剂,使我们憧憬高清视频产业发展的新前景。当然,在试用过程中,笔者也发现了一些不足。比如,在较低配置的平台上,转换HEVC 1080p MKV视频耗时较长;DivX Converter不支持码率、分辨率、帧率的自定义设置,缺乏转换时间等日志信息;新版DivXMKVMux 4.0.9.9807封装器兼容性不佳;HEVC/H.265编/解码器及其内置滤镜、分离器等还不能被第三方播放器和解码软件识别和调用;DivX Player播放某些MTS BDAV文件时有卡顿等现象。总之,DivX 10仍有许多需要改进和完善的空间。在笔者看来,与Premiere、品尼高、会声会影等在内的专业和消费级非线性编辑软件开发商合作也是加快HEVC/H.265编码标准普及、完善和推广的有效途径。

-吴青

音视频编码标准 篇4

AVS+ 是在AVS P2 标准的基础上进一步发展制定的, 相关行业标准GY/T257.1-2012《广播电视先进视音频编解码第1 部分:视频》于2012年07 月10 日起正式执行。 在2014年3 月, 广电总局与工信部联合颁发了《广播电视先进视频编解码 (AVS+) 技术应用实施指南》, 指南中指出今后上星的高标清数字电视频道将采用AVS+ 的编码方式。2014 年11 月, 中央广播电视节目无线数字化全国覆盖工程招标建设, 其中视频编码方式都采用AVS+ 方式。基于此实际应用背景, 本文采用标清视频图像序列进行压缩编码性能的分析实验。

AVS采用基于块的混合编码结构, AVS+ 在兼容AVS P2 的基础上, 增加了4 项增强技术:高级熵编码 (AEC) 、自适应加权量化 (AWQ) 、同极性跳过模式编码 (PField Skip) 和增强场编码技术 (BField Enhanced) 。

2 所用图像质量评价方法

视频质量主要从主观和客观两个角度进行评价, 而评价的内容包括逼真度和可懂度两个方面。国际电信联盟ITU从1999 年起陆续发布了一系列的主观评估的测试标准, 测试方法主要包括ACR测试方法、DCR测试方法和DSCQS测试方法。视频的客观评价是借助计算机机器视觉和数学模型的方法和手段, 来模拟人眼的真实客观评价标准, 最终达到客观的评价标准与人眼主观评价基本一致。客观评价标准有基于误差统计的评价模型、基于HVS模型和基于图像特征统计量三种常用的评价模型。本实验中采用的是DMOS和PSNR两种图像质量客观评价方法。

在测试数字视频质量中, PSNR是最常用的客观测试指标。在测试中对数字电视信号进行量化, 各像素噪声值N (x, y) 是指解码重建图像各像素信号值Y (x, y) 与源图像对应信号值X (x, y) 之差, 各个像素的噪声累积对整帧图像像素总数M求均值即是PSNR。

使用主观评价一般采用打分制, 多位评价者对所看到的视频图像进行打分, 最终将全部的主观评价分数做一个均值, 称为主观评价平均分数, 简写为MOS (Mean Objective Score) 。

而DMOS为负向计分制。

3 实验

3.1 实验序列

利用《ITU-R BT.1788》中提出的TISI时间空间复杂度分析法, 对多个序列进行挑选, 筛选出8 个空间、时间复杂度各有特点, 难度不同的标清视频测试序列 (最易、较易、较难、最难的序列各2 个) 。将此8 个难度不同的序列进行拼接, 拼接时保证一般难、很难的序列不相连, 分别做AVS+ 和H.264 编码。对编码后的图像质量做客观质量测试。

本次实验所用的8 个序列属性如表1 所示。

序列的TI与SI分析数值越大表示序列响应的时间复杂度和空间复杂度越大, 对应于TISI图中越靠近右上角的序列则难度越大, 越靠近左下角的序列难度越易。本次试验中的八个序列的TISI分析如图1 所示。

3.2 实验配置

本次实验中, 使用AVS+ 编码方式和H.264 编码方式, 分别对四个视频序列进行编解码, 对编解码后的图像序列进行图像质量客观评价。两种编码的方式如表2 所示。

3.3 实验结果

在上述配置下, 分别对两种编码后的图像质量进行分析, 结果如表3 所示。可以看出, 八个拼接序列进行AVS+编解码后的PSNR指标总体逼近但略低于H.264 编解码后的结果, AVS+编码的DMOS客观评价得分整体优于H.264 得分。

4 实验结果分析

下面以2.3M为例, 具体逐帧分析比较AVS+ 与H.264 编解码客观评价指标PSNR和DMOS, 并分析编解码性能。

本次实验使用的图像质量分析仪是泰克公司的PQA600B, 此设备对DMOS评价指标的测试是每1/2 帧分析, 而PSNR指标是逐帧分析。实验中拼接的八段视频序列采用难易相间的方法, 按时间顺序, 八个序列依次为:Leaves、Intotree、Parkjoy、Joke、Basketball、Oldtown、Ducktakeoff、Donghua。

PSNR是一个纯客观的评价指标, 如图2 所示, 八个AVS+ 编解码的图像序列得分均逼近H.264 编解码的图像序列得分。

DMOS是个负向打分指标, 即得分越高表明图像质量越差。本实验所用编码器在基于人眼的视觉特性、QP稳定度、MBTree参数控制、加权预测量化系数的优化等这几方面进行了算法的重点优化和提升, 专项提升了基于人眼特性的客观评价DMOS指标。如图3 所示, 在Leaves、Basketball、Ducktakeoff这三个难易程度为较难及最难的序列中, AVS+ 编解码的图像序列DMOS指标明显优于H.264 编解码的DMOS指标。

5 结束语

本文以实验搭建了基于AVS+和H.264 的硬件编解码平台, 采用了PSNR和DMOS两个图像质量客观评价的指标来比较AVS+ 和H.264 的编解码性能。实验结果表明, 在基于人眼的视觉特性、QP稳定度、MBTree参数控制、加权预测量化系数的优化等几方面进行了算法的重点优化和提升后, AVS+ 编码器的编码性能已经能够逼近同等码率和配置下的H.264编码。并且在重点优化后, AVS+ 编码的基于人眼特性的DMOS指标能够优于H.264 编码。

AVS+ 算法复杂度低、 成本低, 为我国自主知识产权, AVS2 编码也在立项研究中。AVS+ 编码技术在不断发展中将逐步实现压缩效率与图像质量的共同提高, 是今后广电发展应用的趋势所在。

摘要:本文基于标清视频测试序列, 搭建了AVS+和H.264的标清视频编解码平台, 采用DMOS和PSNR的图像质量客观评价方法对两种压缩编解码后的图像质量进行分析, 比对了AVS+和H.264压缩编码的性能。

关键词:编码,AVS+,H.264,图像质量客观评价

参考文献

音视频编码标准 篇5

关键词:MPEG4;视频编码;VW2010;SAA7113

中图分类号:TN941.2 文献标识码:A文章编号:1007-9599 (2011) 07-0000-01

MPEG-4 Video Coding Configure Based on VW2010 and SAA7113

Lu Yuan1,Wang Hongyuan1,2

(1.Shenyang Ligong University,Shenyang110168,China;2.Xi’an SICONG Co.Ltd.,Xi’an710043,China)

Abstract:MPEG-4 plays an important role in the multimedia field.Due to its object-based idea,it has the virtue of high compression ratio,scalability,inter-activity with users and so on.In this thesis,some methods to realize the MPEG-4 real-time compress image data based on the VW2010 and SAA7113.

Keywords:MPEG-4;Video coding;VW2010;SAA7113

多媒体数据压缩编码标准MPEG-4具有高压缩比、可扩展性等许多优点,可以解决目前机载视频记录压缩比小、画质差的问题。为此,本文提出了采用VW2010编解码芯片和SAA7113芯片对视频信号进行A/D转换和编码的方案,详尽介绍了两种芯片的配置方案。

一、VW2010固件代码下载

本课题只使用编码部分,所以固件主要使用2部分,一是boot.sre,二是psenc.sre(PS流)或tsenc.sre(TS流)。在本课题中使用PS流。具体的固件下载流程如下:

1.设置寄存器REG_DHIU3,使VW2010处于固件下载状态。

2.设置寄存器REG_DHIU6,设置VW2010的系统时钟为162 MHz;设置寄存器REG_DHIU6,使VW2010处于VW2005工作模式。

3.设置编码软件寄存器。

4.清除FirmwareReadyCode。

5.下载boot.sre和psenc.sre。

6.设置REG_DHIU3来启动VW2010。

7.通过读取SDRAM中的FirmwareReadyCode区来确认固件下载是否成功。

二、SAA7113参数配置

本课题使用SAA7113视频解码芯片对视频信号进行A/D转换和编码,产生符合BT656标准的并行数字电视信号。SAA7113参数配置通过下载enc_mp4ps_pal_02m_com.ini文件完成。

1.控制模式control_mode设为编码模式(ENCODE)。

2.视频流模式stream_type设为PROGRAM_STREAM模式。

3.通过I2C配置寄存器。如表1所示:

表1.SAA7113寄存器配置表

寄存器地址寄存器值寄存器地址寄存器值

0x000xff0x420xff

0x010x080x430xff

0x020xc60x440xff

0x030x330x450xff

0x040x420x460xff

0x050xff0x470xff

0x060xeb0x480xff

0x070xe00x490xff

0x080xa80x4a0xff

0x090x010x4b0xff

0x0a0x800x4c0xff

0x0b0x470x4d0xff

0x0c0x400x4e0xff

0x0d0x000x4f0xff

0x0e0x010x500x02

0x0f0x2d0x510xff

0x100x040x520xff

0x110x0c0x530xff

0x120xc70x540xff

0x130x000x550xff

0x140x000x560xff

0x150x000x570xff

0x160x000x580x00

0x170x000x590x00

0x180x000x5a0x07

0x190x000x5b0x00

0x1a0x000x5c0x00

0x1b0x000x5d0x00

0x1c0x000x5e0x00

0x1d0x000x5f0x00

0x1e0x000x600x04

0x1f0xa10x610x0f

0x400x020x620x91

0x410xff

(4)硬件配置:video_input_device=0xc40242。

(5)码率配置:1.5M/s。

(6)分辨率配置:720×576。

三、结束语

本文对VW2010固件代码的下载和参数的配置及SAA7113参数的配置,都进行了详细的阐述。经在PC机,操作系统为Redhat linux 6.0的环境下测试,结果表明该设计方案简单可行,能在码率为1.5M/s的条件下完成720×576分辨率的图象压缩编码和存储,且图像清晰流畅。

参考文献:

音视频编码标准 篇6

进入21世纪以来,随着信息技术、多媒体技术和计算机网络的飞速发展,人们的生活方式及获取信息的方式方法正在发生改变,处于其核心地位的多媒体信息已成为人类获取信息的最主要载体之一,特别是基于视频图像的编解码技术及网络通信的应用,已经成为当前多媒体技术研究的热点。当前,基于先进视音频编解码技术标注的数字高清电视、数字立体电视、网络流媒体、无线移动视频通信、高清视频监控等应用已经得到广泛应用。数字视频编解码技术标准成为这些应用的核心,高效视频编码技术的研究也成为多媒体技术广泛应用的关键。视频编码的根本目的是在降低编码码率的同时能够提供高质量的视频图像给终端用户,编码和传输人类视觉不能察觉到的或者不感兴趣的信息对于网络带宽和终端设备来说是一种浪费。从本质上来说,压缩机制和视觉系统面临着一个相似问题,即怎样以一种有效的方式来描述视觉对象以消除图像内部的视觉冗余。基于此种思想,从视频图像内容的角度出发,利用人眼视觉理论来指导视频压缩编码,在保持视频图像主观感知效果基本不变的条件下,尽可能地降低编码码率成为未来视频压缩编码技术发展的趋势之一。 因此,本文将从视频编解码采用的关键技术、当前主要的视频编解码标注制定机构及所制定的标注、各类标准的压缩效率与复杂度和未来视频编码技术的发展趋势等几个方面对视频编解码技术进行详细介绍。

2视频编解码框架与关键技术

传统数字压缩编码技术是建立在Shannon信息论的基础上,经过大半个世纪的发展,已经取得了众多重要的研究成果。1948年,Oliver,Pierce和Shannon等人在Pro- ceedings of IRE上发表了The philosophy of PCM[1]一文, 该文利用脉冲编码调制技术对模拟电视信号的数字化处理进行研究,这是现代数字视频压缩编码技术的起源。 1969年,在美国召开的第一届“Picture Coding Symposium” ( 图像编码会议) 预示着数字图像视频编码已经以独立的学科身份跻身于学术界。

视频编码就是在限定失真条件下,通过特定的压缩编码技术消除视频信号间存在的空间冗余、时间冗余、统计冗余和视觉冗余等信息,以最低的编码码率来表示视频信号。

第一代数字视频压缩编码技术是以Shannon的信息论为基础,利用信源符号的统计概率模型,以像素或像素块为单位,采用传统信号分析方法消除视频图像及图像序列中存在的空间冗余、时间冗余和信息熵冗余,以达到压缩的目的。第一代数字视频压缩编码技术是基于像素和像素块的压缩方法,在编码过程中不关心视频图像的具体内容,基本不考虑人眼的视觉特性和视频信息的具体含义及重要程度,在低码率时不能提供较好的视频质量。目前,国际视频编解码标准主要采用了第一代视频编码技术,都是以Shannon的信息论为基础,采用基于变换、量化、预测和熵编码等技术的混合编码框架,图1给出了基于变换/预测的混合视频编码框架图[2],图2给出了从1950年到现在重要视音频编码技术的发展历程。

3主要视频编码标准介绍

1948年,C. E. Shannon在The Bell System Technical Journal上发表的A Mathematical Theory of Communica- tion[3]一文奠定了现代通信的理论基础,现有的视频编码框架都是以Shannon的信息论为基础,采用变换、量化、预测和熵编码等技术的混合编码方案,取得了许多重要的研究成果。20世纪90年代以后,在ISO/IEC和ITU - T等组织的协调下,对不同时期图像和视频编码的研究成果进行了收集、整理、综合、加工,制订了JPEG[4],JPEG2000[5], MPEG - 1[6],MPEG - 2[7],MPEG - 4[8],H. 261[9], H. 263[10]和H. 264 /AVC[11]等三大系列图像视频编码标准。目前形成了以JPEG2000,MPEG - 4,H. 264 /AVC, VC - 1[12]( 微软视频编解码标准WMV9) 和AVS - P2[13]( 我国自主知识产权音视频编解码标准) 等为代表的多个先进视频编解码标准,得到了业界的广泛认可。这些标准融合了各种性能优良的视频图像编码方法,代表了不同时期视频图像编码的发展水平。

随着图像和视频编码与处理算法研究的不断发展, 针对不同的应用需求,近几十年来相继形成了以JPEG - x, MPEG - x,H. 26x,VC - 1和AVS为主的五大系列图像和视频编码压缩标准,图3给出了这五大系列图像和视频编码国际标准的制定时间,大体上回顾了近三十年来图像和视频压缩编码标准总的发展历程。

随着计算机网络技术和移动通信技术的迅速发展, 目前最先进的视频编码标准H. 264 /AVC和AVS - P2,都将满足无线视频编码和传输应用作为自己的主要目标之一。H. 264 /AVC以更高的编码效率和对各类网络的传输适应性的特点满足了无线传输中对带宽资源的限制要求, 成为所有无线视频应用的一个最具吸引力的候选标准。 2004年3月,AVS工作组专门成立了专门的移动视频编码标准小组AVS - M,制定移动视频编码标准AVS - M以满足移动无线环境下的各类视频编码传输应用需求[14]。随着3G的全面应用以及4G标准的大力推进, 目前一些国际知名公司的研究机构、各国科研机构和高等院校都将无线视频应用作为一个重要的领域展开相关研究,他们的积极参与极大地推动了新一代视频编码标准研究和发展。

4主要视频编码标准的压缩率与复杂度对比

第一代采用变换/预测的混合视频编码框架主要是以去除视频信号间的数据冗余来提升压缩编码的效率,较少考虑视觉上的冗余特性,近一二十年来,编码效率的提升主要依赖于压缩编码工具集的不断扩展,随着压缩编码工具集的不断增加,编解码器的复杂度也不断大幅增加, 图4给出了MPEG - x系列编码标准压缩率和编解码复杂度的关系曲线,以1993年推出的MPEG - 1标准为基准, 从图中可以看出当前先进视频编码标准的复杂度不断增加,压缩效率却提升很慢,同时,压缩效率的提高也显著增加了硬件实现的成本,阻碍了视频编码技术在实际标准中推广应用。

当前以JPEG - x,MPEG - x,H. 26x,VC -1和AVS为主的五大系列图像和视频编码压缩标准融合了各种性能优良的视频图像编码方法,采用变换/预测的混合视频编码框架,虽然代表了不同时期视频图像编码的发展水平, 也得到了业界的广泛认可,但是,该技术框架发展到现在遇到巨大瓶颈,主要表现在[15]:

第一,该框架是以去除视频信号间的数据冗余来提升编码效率,较少考虑视觉上的冗余特性,随着编码工具集的不断扩展,数据冗余几乎被去除殆尽,再沿用传统的编码思路其编码效率已很难提升;

第二,传统框架的编码效率提升主要依赖于复杂度的大幅增加,要想进一步提升编码效率需要引入一些复杂度相当高的编码工具,这样就会显著增加硬件实现的成本,最终妨碍视频编码技术的实际应用。

因此,在传统数据冗余几乎被去除殆尽的情况下,再沿用传统的编码思路很难提升其编码效率,必须引入新的编码理论和方法。

5未来视频编码技术的发展趋势

国际标准化组织ISO/IEC MPEG和ITU - T VCEG等非常重视这方面的工作,已于2010年成立专门协作团队JCT - VC( Joint Collaborative Team on Video Coding) 开始了下一代视频编码国际标准H. 265,即高效视频编码( High Efficiency Video,HEVC) 的研究和制定工作,主要包括高性能视频编码( High Performance Video Coder, HVC) 和下一代视频编码( Next Generation Video Coding, NGVC) 。并于2010年4月在德国召开了第一次会议,国际上许多著名的研究机构和公司均已开展相关的研究,一场新的技术竞争正在全球范围内展开。我国在多媒体编码和传输方面的研究历来薄弱,由于没有掌握MPEG - 1, MPEG - 2,MPEG - 4和H. 264 / AVC等音视频编码标准的自主知识产权,导致DVD、VCD、数字电视等产业的发展受到很大制约,为了使移动多媒体业务不再重蹈覆辙,在新一轮的全球技术和标准竞争中占据有利地位,开展移动多媒体编码传输理论与技术的研究就显得非常必要和及时。2002年,在原信息产业部的大力支持下,我国音视频编解码技术标准化组织AVS工作组( Audio Video coding Standard Workgroup of China,AVS) 成立,并制定了相关视音频编解码标准AVS - P2和AVS - P3,现在也已经启动了AVS2的研究与制定工作[17]。

近年来,随着计算机网络和通信技术的飞速发展,移动通信取得了商业运营的巨大成功,无线多媒体通信已经成为未来移动通信的发展趋势。未来通信必将以实现“任何人可以在任何地点、任何时间与其他任何人以任意通信方式进行畅通无阻的多媒体通信”为目标[18]。其中无线视频应用尤为重要,在移动终端上向用户提供视频通信服务正成为3G和4G等移动通信技术的发展方向。据原信息产业部预测,在3G时代,移动增值业务带来的收入将达到或超过运营商总收入的50% 以上,各种基于高速移动通信网络的增值业务层出不穷,其中以移动视频点播、移动视频电话、移动视频监控、视频短消息、移动远程教育等为代表的移动多媒体业务最具发展前景,以无线视频通信为核心的这些多媒体业务将成为未来3G及4G业务的主导。

而在支撑移动多媒体业务的众多技术中,多媒体编码与传输理论和技术则是其中的核心,具有非常显著的地位。由于无线视频应用中存在着无线信道传输带宽波动、 丢包率高、跨区切换频繁以及终端异构等一系列典型问题,它们将最终影响解码视频图像的质量。针对无线视频通信中高误码率问题,在先进视频编码的研究中,视频容错编码是其主要的解决手段之一[19]。早在2005年, H. 264 / AVC及其扩展可伸缩视频编码( Scalable Video Coding,SVC) 的需求文档JVT - N027[20]中明确提出了视频编码的容错需求。我国数字音视频编解码技术标准化组织AVS工作组已经完成了视频标准AVS - P2的制定工作,其制定的面向安防的视频编解码标准AVS - S[21]也在其需求文档AVS - N1400[22]中明确提出了容错的需求; 同时,在2008年6月启动的AVS - P2中专门设立移动档次来研究无视频编码的相关技术,其中对无线视频容错技术也提出了相应要求。但是,当前视频编码标准所采用的容错技术基本上还是靠增加冗余比特来增强视频压缩码流的容错性,容错导致了编码效率的降低,现有视频编码技术并没有很好解决容错性能和编码效率之间的矛盾。 因此,为了满足有质量保证的视频业务在移动通信网络上传输的需求,必须突破传统视频编码思路的局限,引入新的编码思路和技术。

因此,下一代视频编码框架必须要从编码理论上寻求突破,而自从Shannon创立信息论以来,视频编码技术与标准一直是沿着数字信号处理的思路发展。基于像素和像素块的视频处理系统与人眼视觉系统相比,其感知与认知能力相距甚远。因此,在探明人类视觉信息处理的基本生理、心理机理的基础上,建立更加高效的视觉信息编码及处理理论与方法已成为共识。

第二代数字视频压缩编码技术[23]是建立在图像分析与合成、计算机图形学、计算机视觉等理论的基础上,与第一代视频压缩编码技术相比,进一步考虑到了去除视频图像及图像序列中的结构冗余、知识冗余和视觉冗余,以获得更高的压缩效率。但是,第二代数字视频压缩编码中仍有许多编码技术尚需进一步的研究和探索。随着计算机技术、脑科学、神经心理学等学科的进一步发展,基于人眼视觉的编码理论有了较大发展,视觉编码理论认为人眼是视频信号的最终接收者,编码和传输人类视觉不能察觉到的或者不感兴趣的信息对于网络带宽和终端设备来说都是一种浪费,因此,编码过程中应充分考虑人眼视觉特性和视频图像内容本身对编码的影响。第二代数字视频压缩编码理论[24]主要提出了基于对象的编码方法[25]、基于模型的编码方法[26]和基于分形的编码方法[27]等几种编码技术,其中JCT - VC和AVS2目前正在展开基于人眼视觉理论的感知视频编码技术研究[28],代表了下一代视频编码的研究方向,尚未达到成熟阶段,但其中超高清视频编码[29]和立体视频编码技术[30]有望在未来几年得到广泛应用。

6结束语

当前主流视频编码技术仍然是第一代基于像素的编码方法,虽然能较好地消除图像的时空冗余和统计冗余信息,但主要是以较高的计算复杂度来换取较好的压缩效率,基本上没有有效去除其他冗余的机制。第二代数字视频压缩编码技术是建立在图像分析与合成、计算机图形学、计算机视觉等理论的基础上,进一步考虑到了去除视频图像及图像序列中的结构冗余、知识冗余和视觉冗余, 以获得更高的压缩效率,相关标准制定组织正在大力开展下一代高性能视频编码技术标准的制定工作,相信在不久的将来一定会有性能优于当前先进编码方法的新一代图像视频编码技术。

摘要:信息技术和计算机互联网技术的飞速发展改变了人们的生活方式,以视频为核心的多媒体信息已经成为人们获取信息的主要来源,随着视频存储与传输的广泛应用,高效视频编码技术研究已经成为多媒体技术的研究热点。系统讨论了当前流行的视频编码技术标准及框架与采用的关键技术、标准的效率与复杂度的关系,并重点分析了未来视频编码技术的发展趋势。

音视频编码标准 篇7

超高清视频指国际电信联盟批准的信息显示“4K分辨率 (3 840×2 160像素 )”的视频,目前4K超高清为核心的新业态、新产品不断涌现,拓展延伸着传媒行业的发展空间。极高的分辨率带来的是细腻显示效果,同时对编码效率也提出了更高的要求。

评价视频压缩编码性能主要涉及三方面[1]:数据压缩率、图像质量、算法复杂度,通常情况下, 数据压缩率高、图像质量好必然会带来算法复杂度的增加。

本文通过计算AVS+ 与H.264两种标准编码后的图像峰值信噪比 (PSNR) 及相似度 (SSIM),客观比较两者编码图像质量,同时开展了编码视频的图像质量主观评价实验,并对两种编码的差异原因进行了分析。

2实验方法

2.1超高清测试序列的选取

本文中选取了五段EBU的超高清测试序列,分辨率为3 840×2 160,帧频为50 Hz,每段测试序列时长为10 s。测试序列由若干EBU成员和包括Sony、 DVS、Astro Design、TV Logic、CW Sonderoptic、 TPC等企业联合制作,用于视频编解码器等相关设备的科学评估。本次选取的测试序列包含了清晰度、 色彩重现性能、运动估计、运动补偿等多个考察要素, 涵盖了室内外不同的场景,适用于评价编码算法性能,详细特征说明见表1。

本次实验采用AVS+ 与H.264(JM 18.3) 的标准测试软件对表1中的超高清测试序列进行了压缩编码, 并使用标准参考解码器进行解码。编码参数设置如下: GOP长度:24;GOP帧结构:IBBPBBP……; 熵编码采用CABAC编码;打开率失真优化;打开环路滤波。选取编码码率为24 Mbit/s,使用AVS+ 编码后五段测试序列码率波动范围为:(22.78 Mbit/s, 25.99 Mbit/s),使用H.264编码后五段测试序列码率波动范围为:(21.97 Mbit/s,26.02 Mbit/s)。

2.2客观误差统计方法

基于像素差异的视频质量评价方法是指通过计算原始视频与待评价视频之间每个像素点的差异, 然后将差异联合,获得视频客观质量的评价方法。其中,均方差 (Mean Square Error,MSE) 和峰值信噪比 (Peak Signal Noise Ratio, PSNR),其数学定义如式 (1)、式 (2):

式 (2) 中fij和f'ij, 分别代表原始视频图像与编码后的视频图像,M和N分别代表视频图像行和列的像素数。

SSIM方法为基于结构相似度的评价方法,核心部分是计算一个滑动窗口内视频的局部结构相似度。 研究表明,自然界中的景物都有一定的结构特征, 而人眼视觉系统对这一类结构特征的失真具有很高的敏感度。在SSIM中 , 视频场景中物体的“结构信息” 定义为三种相似度:亮度计算因子、对比度计算因子和结构相似度计算因子,它们的乘积即为局部结构相似度。其数学表达式如式 (3):

式 (3) 中,X、Y分别为原图和编码后的图像。

2.3图像质量主观评价方法

ITU-T BT.500标准[2]中实验室观看环境旨在提供对系统进行检验的严格条件。目前搭建的实验室环境条件如下:

(1) 未激活屏幕亮度与峰值亮度之比:0.02;

(2) 在全暗的房间内显示时,仅显示黑电平的屏幕亮度与相应仅显示峰白电平的屏幕亮度之比:0.01;

(3) 图像监视器后的背景亮度与图像峰值亮度之比:0.15。

图像质量主观评价系统由源信号、待测系统以及评价监视器组成。评价终端为两台相同型号监视器,一台播放原始序列,另一个播放编码视频序列。 选取ITU-T BT.500中的DSCQS方法作为主观评价的主要方法,10位评价者坐在距离监视器3~4倍屏高的位置分别观看两种信号并评价打分,如图1所示。

3实验结果分析

3.1客观实验结果

图2为五个视频序列分别采用AVS+ 与H.264编码后的PSNR值与SSIM值。

从图2中可看出,总体而言AVS+ 编码性能与H.264差别不大,对于图像序列1水果转盘、图像序列4公园舞者、图像序列5演播室舞者,两种标准的编码性能比较接近,对于图像序列2彩带、图像序列3瀑布,H.264的编码性能略高。

3.2主观实验结果

按照ITU-T BT.500标准对实验数据进行筛选, 对主要实验结果进行统计分析。通过计算主观图像质量平均差值DMOS,即每个视频序列编码后与原始视频序列的平均得分差值,来衡量视频序列压缩编码前后图像质量的损伤情况,理论上,数值越大表明图像质量下降越多,如图3所示。

从平均得分来看,AVS+ 标准均略低于H.264的主观质量评价,对于图像序列1水果转盘、图像序列4公园舞者、图像序列5演播室舞者,两种标准的图像质量得分相差较小,对于图像序列2彩带、 图像序列3瀑布,AVS+ 相比较于H.264的图像质量损伤情况较大,两种编码方式均出现了一定程度的块效应,AVS+ 编码的图像质量主观感受较差。

总体而言,主观评价试验结果与客观实验结果基本吻合。

3.3算法分析

本次实验中,图像序列2彩带中,彩带细节丰富,伴随无规则、快速运动,同样图像序列3瀑布中,大面积的水波无规则运动,主要测试快效应, AVS+ 算法[3]与H.264算法[4]均开启了环路滤波, 即去块效应滤波,但H.264定义的FIR滤波器空间复杂度更高,明显改善了运动补偿性能,使得H.264在帧间预测的精度更高,AVS+ 算法的滤波强度较小, 运动的匹配精度较低,算法的劣势较为明显;在帧内预测方面,两种算法的主要差距表现在宏块编码部分,在H.264算法中,自适应选择宏块大小,最小单元为4×4,而AVS+ 算法中,最小单元实现的是8×8的宏块大小运算,因此在更小的块处理上, AVS+ 编码性能较差,对运动的纹理细节损失较为严重,这也是AVS+ 算法复杂度低带来的结果。

图像序列1水果转盘、图像序列4公园舞者、 图像序列5演播室舞者中,色彩细节丰富,视频对象主体的运动较为缓慢,这三个序列重点检测清晰度损失、色彩饱和度、色度细节损失等方面,由于图片间相关性较大,在预测和滤波上8×8块与4×4块对图像质量的影响不明显,两种标准的编码性能比较接近。

4结语

本文从客观误差统计分析与图像质量主观评价两方面比较了AVS+ 与H.264两种标准的编码性能, 并从两个标准的算法实现角度对实验结果进行了分析,当图像序列运动较为缓慢,细节较少时,两种编码算法编码性能差异较小,当图像序列存在较为快速的运动,或纹理较为复杂时,H.264的编码性能略优于AVS+。

相比较下,AVS+ 算法的优势在于,算法复杂度较低,实现成本较低,且为我国自主知识产权的编码方式,目前下一代AVS2编码标准已正式立项, AVS2对于常规视频的编码效率比AVS+ 以及H.264的效率提高一倍,是未来编码发展的趋势,能够满足更广泛的要求。

参考文献

[1]毕厚杰.新一代视频压缩编码标准——H.264/AVC[M].北京:人民邮电出版社,2005.

[2]ITU-RSG6.ITU-RBT.500 Methodology for the subjective assessment of thequality of television pictures[R/OL].2006.[2015-07-31].http://www.itu.int/en/ITU-R/Pages/default.aspx.

[3]丁文华,高文,郭晓强,等.GY/T 257.1广播电视先进音视频编解码第1部分:视频[S].北京:国家广播电影电视总局,2012.

图像视频编码 篇8

去时域冗余信息,使用帧间编码技术可去除时域冗余信息,它包括以下三部分:

1.运动补偿。运动补偿是通过先前的局部图像来预测、补偿当前的局部图像,它是减少帧序列冗余信息的有效方法;

2.运动表示;不同区域的图像需要使用不同的运动矢量来描述运动信息。运动矢量通过熵编码进行压缩;

3.运动估计。运动估计是从视频序列中抽取运动信息的一整套技术。

编码方法分类

编码方法大致可分为三类:

1.考虑到图像信源的统计特性采用的预测编码方法、变换编码方法、矢量量化编码方法、子带-小波编码方法及神经网络编码方法等;

2.考虑到视觉特性采用的基于方向滤波的图像编码方法、基于图像轮廓/纹理的编码方法;

3.考虑到图像传递的景物特征,采用的分形编码、基于模块的编码方法。

在IP视频通信应用中,编码方法的选择不但要考虑到压缩比、信噪比,还要考虑到算法的复杂性。太复杂的编码算法可能会产生较高的压缩比,但也会带来较大的计算开销,软件实现时会影响通信的实时性。目前,在众多视频编码算法中,被广泛应用的算法是MPEG和JPEG。

多媒体处理过程算法(JPEG和MPEG1)介绍

1.JPEG

在JPEG图像缩减过程中,将DCT应用到图像的8×8的像素块中。因此如果图像有256×256的像素,我们把它分为32×32的方块,每一块都有8×8的像素,它们将被独立地处理。每一块的64个像素值经DCT变换成一组新的64个值,这64个称为DCT系数的新值给出了一种全新的方式来表示图像。DCT系数表示图像子块的空间频率。DCT矩阵的左上角是低频率部分,右下角是高频率部分(见图)。最左上角的系数称为DC系数,它的值比起8乘8列像素块的平均值只是几分之一。其余系数称为AC系数。

到现在为止,由DCT我们还没有得到任何缩减。但是,自然图像的本质决定了最大能量(信息)落在低频率部分而不是高频率部分。我们可以粗略地表示高频率部分,或把它们都丢掉,这样并不会严重影响到复原的图像的质量。这导致了大量的压缩(有损)。JPEG有损压缩算法包括下列运算:

(1)首先把重量最低的变为零。

(2)然后对剩余的重量量化(也就是用一个离散码中某个最接近的值取代),有些量化比其他的更粗略些,这要根据观察者对这些退化的敏感程度而定。

2.MPEG1

MPEG1是为CD光盘介质定制的的视频和音频压缩格式。一张70分钟的CD光盘传输速率大约在1.4Mbps。而MPEG1采用了块方式的运动补偿、量化等技术,并为1.2Mbps传输速率进行了优化。MPEG1随后被Video CD采用作为核心技术。MPEG-1的输出质量大约和传统录像机VCR,信号质量相当,这也许是Video CD在发达国家未获成功的原因。MPEG1具有以下特点∶随机访问、灵活的帧率、可变的图像尺寸、定义了I-帧、P-帧和B-帧、运动补偿可跨越多个帧、半像素精度的运动向量等。

MPEG—1的视频压缩算法依赖于两个基本技术,一是基于16*16(像素*行)块的运动补偿,二是基于变换域的压缩技术来减少空域冗余度,压缩比相比M-JPEG要高,对运动不激烈的视频信号可获得较好的图像质量,但当运动激烈时,图像会产生马赛克现象。

H.264介绍

由于H.264在制定时就充分考虑了多媒体通信对视频编解码的各种要求,并借鉴了H系列和MPEG系列视频标准的研究成果,因而具有明显的优势。H.264作为最新的国际建议标准,在IP视频监控系统中有着重要的意义。它与目前的Mpeg4和H.263编码相比较,优势表现在以下几个方面:

1.压缩率和图像质量方面

H.264通过对传统的帧内预测、帧间预测、变换编码和熵编码等算法的改进来进一步提高编码效率和图像质量。在相同的重建图像质量下,H.264比H.263节约50%左右的码率,比Mpeg4节约35%左右。

2.网络适应性方面

H.264支持不同网络资源下的分级编码传输,从而获得平稳的图像质量。H.264能适应于不同网络中的视频传输,网络亲和性好。H.264的基本系统无需使用版权,具有开放的性质,能很好地适应IP和无线网络的使用,这对目前的因特网传输多媒体信息、移动网中传输宽带信息等都具有重要的意义。

3.抗丢包和抗误码方面

H.264具有较强的抗误码特性,可适应丢包率高、干扰严重的信道中的视频传输。实际应用中,实时性和较好的图像质量,较低的网络带宽占用以及带宽适应能力是监控系统的主要考虑因素。H.264相比较以前的视频编码标准,主要在网络接口友好性和高的压缩性能上有了很大的提高。综合以上因素在本系统中采用H.264作为视频数据的编码方式。

参考文献

[1]张元伟,刘彦隆.JPEG标准的静态图像压缩算法研究[J].电子设计工程,2010(2).

[2]尹明,章云,蔡述庭.视频编码的自适应图像组结构研究[J].计算机应用,2010(5).

基于编码的视频嵌入视频方法的研究 篇9

视频隐藏的蓬勃发展激起了研究者在视频中嵌入视频的灵感。SWANSON[6]首先提出了在视频中嵌入视频的思路, 利用一种基于高比特信息隐藏算法的向量射线比较法, 将秘密视频信息隐藏于载体视频中完成传输, 避免了单独传输易丢失的缺点;肖柏创[7]等人对YANG3]的算法进行了改进, 实现了高比特率的视频嵌入视频的方案。尽管这些方法都取得了一定的效果, 但都只是针对秘密为原始视频的情况展开讨论, 并未考虑秘密信息为压缩视频码流的情况。视频鲁棒隐藏算法的隐藏容量较小, 宿主视频每帧中隐藏的数据量有限。而视频的数据量是海量的, 如果不对秘密视频进行压缩编码, 那么一帧秘密图像需要隐藏在多帧的宿主视频中, 这样势必会带来实时性不高、秘密视频隐藏帧数少等问题。

针对上述问题, 本文提出了将秘密信息压缩编码后再嵌入视频的信息隐藏方案。该方案将视频的嵌入过程看成是秘密视频隐蔽通信的过程。首先将秘密视频压缩编码成码流, 从而有效地减少秘密视频的比特数。同时为了克服压缩码流误码敏感的缺陷, 应用了纠错和交织编码增加秘密信息抗误码的性能。在嵌入时, 选用鲁棒性较好的变换域的隐藏算法进行嵌入, 进一步增加隐蔽传输的可靠性。

1 视频嵌入视频方案概述

1.1 算法的改进

本文的隐藏算法在对参考文献[3]的算法进行深入研究的基础上对其进行了改进。参考文献[3]的嵌入算法如下:

(1) 将宿主视频按照4×4块大小进行整数DCT变换, 并按照zigzag扫描的顺序选取前8个系数 (c0, c1, c2, …, c6, c7) 组成向量V;

(2) 计算l和lT:

其中, T表示阈值, [.]表示四舍五入操作。

(3) 计算lT′:

其中, 嵌入1时, +0.25;反之, -0.25

(4) 计算l′和V′:

Yang的提取算法如下:

(1) 计算l″和lT″:

秘密信息的值取决于I的数值。

与其他格式相比, 视频在视频中的嵌入对实时性的要求更高。参考文献[3]算法在鲁棒性和图像质量方面都具有良好的性能, 但由于其嵌入的步骤要涉及到zigzag扫描、向量计算等, 若直接将其应用到视频嵌入视频的方案中, 将不利于实时性目标的实现。因此, 本文在保持了原算法性能的前提下, 对算法进行了简化, 缩短嵌入所需的时间。图1是CIF (352288) 格式的News、Moblie和Foreman视频序列按照4×4分块、整数DCT变换后低频在块中的能量示意图, 其中, 比值

从图中可以看出块中的能量集中于直流系数, 占到前8个系数总能量的0.95~0.99, 则, 将提取端的l′、l、lT、lT′等参数带入到V′中, 则:

为了进一步简化式 (6) , 对News、Moblie和Foreman视频序列进行了抗压缩的鲁棒性实验, 秘密信息为随机序列, 其误码均值的结果如表1所示。通过实验数据可以看出, 选用直流系数的鲁棒性和8个低频系数抗压缩的性能近似。因此, 可将式 (6) 简化为:

同理, 接收端中DCT变换后的能量也主要集中在直流分量上。因此, 可以在保证鲁棒性和图像质量等算法性能的基础上, 利用直流系数作为载体完成秘密信息的嵌入, 这样有利于视频实时性嵌入目标的实现。

1.2 视频嵌入算法

秘密视频信息嵌入框架如图2所示。

(1) 对秘密视频采用视频编码标准进行编码。

(2) 利用纠错码提高系统的鲁棒性, 同时利用交织技术防止突发错误的出现。

(3) 隐藏算法:

(1) 将宿主视频按照4×4进行分块, 并进行整数DCT变换;

(2) 选取每块中的直流系数D (i, j) , 进行如下操作:

其中, m表示秘密信息。

(3) 计算l′和V′:

(4) 将V′写回到4×4块中;

(5) 重复上述过程直到秘密信息嵌入完全。

1.3 视频提取算法

秘密视频提取的框架如图3所示。

(1) 提取算法

(1) 将宿主视频按4×4分块, 并进行整数DCT变换;

(6) 重复上述操作直到将秘密信息提取完毕为止;

(2) 交织和纠错解码;

(3) 视频解码。

2 实验结果

实验中, 采用CIF (352×288) 格式视频序列News、Forman、Mobile作为宿主视频, 秘密视频为QCIF (176×144) 格式的视频序列Forman。视频编码采用H.264/AVC编解码参考软件JM8.6, 编码模式采用IPPPPP…的格式。

表2列出了3组不同运动强度视频序列为宿主视频的仿真实验结果, 其中PSNR/dB、TIME/s、BER/%分别表示利用参考文献[3]算法以及本文算法嵌入秘密信息前后载体图像的峰值信噪比、嵌入算法所需的时间和宿主视频经过编码后接收端提取秘密信息的误码率。QP表示编码宿主视频时的量化步长。

当秘密视频未编码时, 隐藏1帧QCIF视频信息需要48帧CIF宿主视频。按照参考文献[3]的算法提出的秘密视频效果图如图4所示。其中参数N、PSNR分别代表每48帧宿主视频隐藏的秘密视频帧数和接收端提取的秘密视频的峰值信噪比, QP表示宿主视频编码时的量化步长。

由于本文算法对采用了压缩和纠错编码, 隐藏视频的帧数与秘密视频编码的步长和BCH的参数有关。当QP=16时, 编码后的秘密视频的PSNR=45.82 dB, 实验结果如图5所示。

从以上的仿真实验可以看出, 应用本文的所提出的算法后, 嵌入隐藏信息的混合视频信号与原始视频几乎没有什么差别, 达到了隐藏信息透明的要求。从表2的实验数据中可以看出, 在相同压缩比的情况下, 本文的算法较之于参考文献[3]的算法缩短了嵌入所需的时间, 且误码率平均减少了76.6%, 具有更好的抗压缩性能。而当综合采用编码和隐藏算法后, 本文算法的优越性进一步凸显, 从图4、图5的实验仿真效果图中可以看到, 在相同压缩比的情况, 隐藏帧数提高了5~11倍, 并且接收端提取秘密信息的质量也获得了明显改善。

本文提出了一种视频压缩码流在视频中嵌入的方案, 为了避免视频压缩码流对误码敏感的缺点, 在隐藏算法上采用了高比特率的鲁棒算法, 通过修改视频的亮度分量Y在变换域中的直流系数来嵌入秘密信息;同时秘密信息在嵌入前采用预处理的策略, 即先对秘密视频进行压缩编码、纠错和交织编码等预处理。通过实验数据可以看出本方案所提出的视频嵌入视频的方法提高了隐藏的帧数及接收端提取秘密信息的质量, 实现了隐秘视频的高效传输, 为视频嵌入视频提供了一种新的思路。

参考文献

[1]LI Y, CHEN H.-X, ZHAO Y.A new method of data hiding based on H.264 encoded video sequences[J].IEEE Int.Conf.Signal Processing, 2010:1833-1836.

[2]ALY H A.Data hiding in motion vectors of compressed video based on their associated prediction error[J].IEEE Trans.Inform.Forensics Security, 2011, 6 (1) :14-18.

[3]YANG M, BOURBAKIS N.High bitrate multimedia information hiding for digital image/video under lossy compression[J].SPIE Journal of Electrical Imaging, 2007 (16) :1-12.

[4]HU Y, ZHANG C, SU Y.Information hiding based on intra prediction modes H.264/AVC[J].In Proc.IEEE Int.Conf.Multimedia and Expo, ICME, 2007:1231-1234.

[5]Ma Xiaojing, Li Zhitang, Tu Hao, et al.A data hiding algorithm for H.264/AVC video streams without intra-frame distortion drift[J].IEEE Trans.Circuits Syst.Video Technol., 2010, 20 (10) :1320-1330.

[6]SWANSON M D, ZHU B, AHMED T H.Date hiding for video-in-video[C].Proceed-ings of the 1997 International Conference on Image Processing.Sanata Barbara′CA, IEEE Comput Soc, 1997 (2) :676-679.

音视频编码标准 篇10

关键词:新版ISRC编码 音像出版 版权保护 数字环境

中图分类号:D923.4 文献标识码:A 文章编号:1007-3973(2012)010-124-02

《中国标准录音制品编码》是一项国家标准,为在中国登记的录音制品和音乐录像制品提供在全世界唯一的标准标识代码。之前,音像出版行业使用的是批准于1992年、并于1993年开始推行的《中国标准音像制品编码(CSRC)》(GB 13396-92),根据产业发展和国际对接的需要,ISRC标准在2009年发布了新修订版本,即《中国标准录音制品编码》(GB/T 13396-2009),并于2010年开始试点实施。

从组建成立中国ISRC中心,到2011年的两阶段试点运行工作,到2012年的全国范围的正式全面实施,新版《中国标准录音制品编码》在近两三年紧锣密鼓声势浩大的推行过程中,收获了不少业界的肯定和支持,但也显露出了某些问题。本文中,笔者即以音像出版行业一线从业者的切身体验,对于目前实行的这部新版ISRC编码进行一些探讨。

1 ISRC标准的源流及中国化

ISRC编码对于录音制品而言,就好像“身份证”一样重要。ISRC其实是International Standard Recording Code(国际标准音像制品编码)的字母缩写,由国际标准化组织(ISO)在1986年公布的国际标准(ISO 3901-1986)中提出并确定的,并于1989年授权国际唱片业协会(IFPI)作为ISRC编码的国际注册机构,负责该编码在世界范围内的推广、管理和实施。

ISRC进入中国是以1992年5月中国国家技术监督局批准的一项强制性的国家标准《中国标准音像制品编码(CSRC)》(GB 13396-92)为标志。该标准规定,自1993年1月1日起中国所有音像出版社都必须在其生产的每一种音像制品(包括唱片、录音带、录像带、激光视盘等)上,对所录入的节目以及节目中每一项可以独立使用的部分编加一个以“ISRC”为标识的国际标准音像制品編码。该标准结合了中国音像出版业当时的实际状况,规定每一种音像制品对应一个编码,可谓“有中国特色的ISRC”。

上述标准实施十余年,渐渐不能适应产业发展的要求,于是2009版《中国标准录音制品编码》应运而生,自2011年4月试点施行,2012年1月1日起在全国范围内正式全面实施。比起1992版本,新版《中国标准录音制品编码》更加适应当前的文化传播环境和音乐娱乐消费方式;对于整个中国音像行业来讲,也更加顺应其日益标准化、产业化趋势要求。

2 新旧版ISRC标准的核心区别

仔细甄别不难发现,1992版ISRC标准的全名是《中国标准音像制品编码》,而2009版ISRC标准的全名是《中国标准录音制品编码》,从“音像制品”到“录音制品”,虽然是细微的一字之差,却反映了新旧编码标准的最大区别:标识对象。简单而言,1992版ISRC标准是每一种音像制品对应一个ISRC编码,针对载体;2009版ISRC标准是一首曲目对应一个ISRC编码,针对内容。

虽然1992版ISRC标准在“主题内容与适用范围”中明确该标准“使每一种音像制品以及它所包含的每一项独立的节目均可获得一个唯一的国际标准音像制品编码(ISRC),并具有明显的类别区别”,在“ISRC 国家码-出版者码一录制年码-记录码-记录项码/类别代码”的12位标准编码格式中,也以“记录项码”来主要区别同种音像制品中“每一项独立的节目”,但在无论是从国家版权管理部门的编码申领发放原则来看,还是从各个出版单位实际操作的约定俗成而言,ISRC编码的“身份认定”功能还主要是针对“每一种音像制品”而言。

而在2009版ISRC标准中,强调了其标识对象为音像记录本身,而非具体的产品或载体,而这一点在1992版ISRC标准的实际应用中体现不足。2009版《中国标准录音制品编码》第一章第二条规定:“本办法所称的制品,是指录制完成的录音或音乐录像节目,与该节目的载体无关。”从编码申领发放原则和实际操作要求中,也特别凸显了这一点。新标准变制品登记为单曲登记,要求出版单位为每一首(段)节目进行编码申报,由33项制品元数据信息及其他补充文件进行区别。可以说,在新版标准中,ISRC编码真正回归了它“标识音像记录”的原初功能。

这样一来,原先在音像制品版权位置也联袂出现、却常常被弱化乃至忽视其地位的ISBN编码终于“正名”,也真正实现了其标识产品的基本功能。而且,基于“录音制品”四字的编码定位,电影、电视剧等录像节目不再使用ISRC编码,只使用音像制品和电子出版物专用书号,即ISBN。就连音像出版单位向新闻出版总署填报的出版统计月(年)报表、录音录像制品复制委托书,其中的原“ISRC”项目也都由“音像ISBN”项目替代。ISRC与ISBN这一对长相相似、功能迥异的“编码兄弟”,藉由2009版《中国标准录音制品编码》的颁布实施,终于区分清楚。

3 新版ISRC标准的重要意义

虽然1992版ISRC编码在第1条“主题内容与适用范围”中即明言:“本编码不仅为音像制品的出版、发行及收藏等部门进行科学管理和信息交换创造方便条件,也有利于音像制品的版权保护和市场管理。”但从实际效果来看,它对于规范音像出版管理功不可没,在版权保护和贸易方面则显得捉襟见肘,在新业态蓬勃发展、国际音像业交流日益密切的今天,已经明显不能适应时代发展的步伐,ISRC编码标准的推陈出新势在必行。

2009版ISRC标准非常明确地将制品登记变为单曲登记,这一核心转变的目标,显而易见是瞄准与国际同业的接轨、与数字环境下新业态的接轨。可以说,编码登记方式的重大变革将有助于搬移制约行业发展的客观障碍,顺应了中国音像出版业产业化、标准化的趋势和要求。

(1)放眼中国音像出版业近年的发展,音像载体不断演进,数字技术和网络传播引领新的业态方向,音乐作品的发行传播方式发生极大变化,原有的市场格局和商业模式也被颠覆。以前,唱片公司的发行行为被俗称为“发片”、“发碟”,强调的是基于传统唱片载体、以“张”或“套”为计量单位的产品概念。但现今改“发片”为“发单曲”,基于网络传播、手机点播等多种新兴渠道,亦可实现录音制品的传播和销售。因此,要实现基于上述数字网络环境的内容传播、销售、跟踪和进一步的版权交易,必须实施单曲登记并享有独立唯一ISRC编码的标准办法。

(2)新编码实施对于与国际ISRC系统对接、与世界唱片出版业贸易交流有着重要的现实意义。正如前文所述,1992版ISRC标准是对ISO 3901-1986《信息与文献——国际标准音像制品编码(ISRC)》的“非等效采用”,注册管理系统不完备,也未加入国际ISRC体系。随着唱片业的发展,国际标准化组织(ISO)已于2001年将ISO 3901-1986修订为ISO 3901-2001《信息与文献——国际标准音像制品编码(ISRC)》,更凸显对单个作品的版权保护。换句话说,从ISRC标准修订这一行为来说,我国自本世纪初便已显落后,这必然为接轨国际唱片业带来障碍。因此,颁布实行新版ISRC标准可谓刻不容缓,这对于音像出版业的对外交流合作有着显而易见的促进作用。

(3)新版ISRC标准亦被期待在版权保护方面有更大的作为。与旧版标准偏重对于音像制品的规范管理相比,新版标准凸显对于单个作品的版权标识,这为版权保护的深入化、细致化奠定了较好基础。如果能够以法律制度完善、保护力度加强的大环境作为配合,这部新标准可期待为版权保护起到很好的促进作用。

除了以上三点,新版ISRC标准在推行过程中,还促进了音像出版内容资源的规范整理工作。根据旧版标准,同一首曲目在不同年代选编入不同专辑再版,即使不做任何改变,也会获得若干个不同的ISRC编码,这与ISRC标识的唯一性和准确性原则相悖。新版标准即有效规避了这种情况。另一方面,由于所有新版标准实行前出版的节目内容都需要重新申报编码,这在事实上促进了音像出版单位对于自家版库资源进行了重新清点和整理,在整理的过程中很多资源就可以得到重新认识和利用,这也算是新版ISRC标准实行的意外之得。

4 在实际操作过程中出现的问题

《中国标准录音制品编码》及其实施办法毕竟面世不久,在与现实接壤的过程中不可避免会有问题出现。笔者根据两年间新编码试行过程中遇到的实际问题进行了总结归纳,在此提出以期探讨。

(1)新版ISRC标准对版权保护以及版权贸易的促进效果还有待强化。目前,新编码的具体实施工作是由新成立的中国标准录音制品编码(ISRC)中心承担,全面负责ISRC编码的分配、管理和相关数据库维护工作。音像出版单位为了获得ISRC编码,要填报制品元数据信息表并提交符合规定的制品。但這样一个数据库平台,虽然要求申报者填报多达33项的繁琐数据表格,但是对于填报内容的真实性不能进行甄别,甚至对于录音制品的音频内容是否重复也无法提供任何技术手段进行区分。如果出现登记者错误填报、甚至恶意抢注非自有节目内容的情况,新编码标准及其平台将作何处置呢?

请看《中国标准录音制品编码》的第三章“ISRC编码申领”,其中第十一条规定:“登记者应保证其填报的申领信息和所提交的制品真实、准确、完整,制品必须与填报的元数据信息保持一致。”第十二条规定:“制品的内容和版权授权应符合相关法律法规的规定,因制品内容违法或版权侵权而产生的后果由登记者自行承担。”也就是说,这其中并没有监管和约束机制,这个数据库平台不能保证其所载内容完全真实合法。那么,在这个平台基础上再谈版权保护和版权贸易,其可信度和效果也许就大打折扣了。

说到版权贸易,我们也注意到,无论是申报材料的文字要求,还是版权信息公示平台的界面设置,都是完全的中文环境。如果要实现国际版权贸易对接,现有中文数据平台不知是否还会进行语言转换,以实现国外用户的方便查询。

(2)新编码实施办法要求的申报手续复杂,过程繁琐,导致出版申报周期畸长,影响音像制品的出版效率。在线填报的制品元数据信息要求内容多达33项,这固然可以有效地对于不同编码节目进行区别,但某些项目设置的必要性还值得商榷。同时,在线填报和制品提交的格式要求都较为苛刻,尤其是在刚刚试行的时候由于缺乏沟通和经验,一次报过率较低,无形中加长了申报周期。习惯了旧版ISRC标准一年一次申请完全年版号的出版单位,在实行初期都纷纷感到难以适应。尤其是曲目容量多至几百首的大部头音像制品,对于漫长的填报申领过程更需要做好充分的心理准备。

以上问题的解决,需要音像出版单位与主管实施部门共同努力,多进行有效的沟通合作。出版企业应积极改变思路,适应新办法新制度;中国ISRC中心则需根据实际应用情况,改进申领方法,完善编码注册实施细则。新版ISRC标准适应音像产业发展的现状和趋势,如能良好有效运行,实现出版生产力的效益最大化,则可望为中国音像出版业的规范发展和健康成长再添新翼。

参考文献:

[1] 《中国标准音像制品编码(CSRC)》(GB13396-92)[S].

上一篇:信息表现下一篇:钳工小孔加工