运动图像压缩编码技术的发展历史

默认分类 未结 1 549
_ddihc_
_ddihc_ 2023-03-18 21:26
相关标签:
1条回答
  • 2023-03-18 22:01

    它是基于波形基的图象压缩方法,其特点:相对简单;编码的基本实体是象素或象素块;基本上不考虑人的视觉系统(HVS)对编码图象的影响;重点在码字分配。第一代编码技术基本上采用了三大编码技术:预测编码变换编码统计编码具体手段有:利用二维DCT减少图象的空间域冗余度;利用运动补偿预测减少图象的时间域冗余度;利用视觉加权量化减少图象的“灰度域”冗余度;利用熵编码来减少图象的“频率域”上统计特性方面的冗余度;2.1.2 1990年, ITU-T通过了H.261建议,是视频压缩40年工作的结晶,主要用于ISDN上的视频电话和电视会议(px64kbit/s);提出CIF,QCIF中间格式:对于PAL和SECAM制式,亮度信号为360象素x288行x25 帧/s,而对于NTSC制式,则为360象素x240行x30帧/s。为方便与这两种电视制式的相互转换,H.261折衷规定了所谓的“通用中间格式”CIF(Common Intermediate Format)为352象素x288行x30帧/s(实际上每秒可取30、15、10、7.5帧)。由PAL/SECAM转CIF要作帧内插,而由NTSC变为CIF要作行内插。各国都应将图像信号转换到CIF格式后再发送,以便不受各地区不同电视制式的影响。至于输入输出电视信号的标准,例如是复合的或分量的、模拟的或数字的、以及完成中间编码格式与所需信号格式之间的转换方法,协议不作规定。H.261将每帧CIF格式的原始图像,划分为12个大小为176象素x48行的宏块组(GOB),每个宏块组再划分为33个16x16的宏块(MB,Macro Block)。而每个宏块则有4个8x8的亮度像块和两个在空间位置上与之相应的***差像块复合而成。数据结构分为四个层次:图象层:块组层宏块层块层2.1.3 1996年,ITU-T正式通过了H.263建议,是H.261的重要发展,可用于极低比特率的编码器,目的是能在普通公用电话网或移动电话网上传输视频信息。相对于H.261,它做了如下修改和扩充:利用了半象素运动补偿提高预测误差精度;有5种源视频格式(sub-QCIF, QCIF, CIF, 4CIF以及16CIF), 还提供了4种有效的压缩编码方法供选用,以提较好的图象质量:1)UMV(无*运动矢量模式):可以提高图象边缘运动补偿效果,改进边缘图象质量;2)ADV(高级预测模式):提高预测精度,减少方块效应;3)PB帧模式:可以增加帧速率,减少噪声影响;4)SAC(基于句法的算术编码模式):在图像主、客观质量不变的前提下可显著地减少编码比特数;(根据有关报告,在64Kbps以下速率,H.263的PSNR比H.261高3-4dB)2.1.4 1998年1月公布的H.263+草案,目标是:扩展应用范围和提高压缩效率,在图象格式、编码模式和增强信息三方面增加了12个新的选项,几个主要的选项如下:1) UMV扩展:支持RVLC(可反转的变长码),可以双向解码,增强对信道误码的适应能力;2) 去块效应滤波模式(Deblocking):有效减小量化引起的方块效应;3) 参考帧可选择模式(RPS: Reference Picture Selection):增加灵活性,降低码率;4) 改进的量化模式(MQ:Improved Quantization):宏块级可以任意指定量化因子,对***度可用更小的量化因子, 可以不对DCT系数的量化结果限幅。5) 时域、SNR、空域可伸缩性模式(TSSS:Temproal, SNR, and Spatial Scalability):对于Internet这样的复杂网络环境和无线链路等误码率较高的信道非常有用;(可分级Profile/Level)2.1.5 2000年10月公布H.263++,目的是进一步提高压缩率,提高传输误码情况下的传输质量,其中比H.263+多加了三个选项:Annex U: Enhanced Reference Picture Selection Mode,在这个附录中提出在运动估计中采用多个参考帧的思想;Annex V: Data partitioning,主要是提高在传输误码情况下的传输质量;Annex W:Additional Supplemental Information,提出隔行扫描图像的编码能力以及定点IDCT的规范说明;2.1.6 将于2002年7月定稿的H.26L:目的是获得更有效的图象压缩率,提高传输误码情况下的图象质量,支持一些新的功能。2.1.7 1991年,MPEG正式公布MPEG-1标准,包括系统、视频、音频三部份,图象质量略超过VHS(Video Home System),码率<1.5Mb/s,视频编码和H.261基本一致,图象采用SIF格式(352X288X25或 352X240X30),图象模式有I,P,B,D。2.1.8 1993年公布 MPEG—2,视频算法作为H.262建议,覆盖了一个视频和音频编码应用的广泛范围,克服并解决了MPEG-1不能满足日益增长的多媒体技术,数字电视技术、多媒体分辨率和传输率等方面的技术要求的缺陷。MPEG-2系统支持五项基本功能:1) 解码时多压缩流的同步;2) 将多个压缩流交织成单个数据流;3) 解码时缓冲区初始化;4) 缓冲区管理;5) 时间识别;为了缓和通用性和特殊性的矛盾,针对不同的应用,规定了若干档次(profile),每一档次又划分成若干级别(level)。在MPEG-1的基础上作了许多重要扩展和改进:1) 增加了“按场编码”模式,同时在“按帧编码”模式中,允许进行以场为基础的运动补偿和DCT,显著提高了压缩编码效率;2) 扩大了重要的参数值,允许有更大的画面格式,码率和运动矢量;3) 增加了“可分级性”,允许通过部分解码从一个编码数据流中得到不同质量或不同时空分辨率的视频信号;4) 增加了半象素运动估计;注意:MPEG-1和MPEG-2是系统级标准,不仅有视频编码,还有音频编码,和系统层的协议内容,包括复用和同步时基;而H.26X只是视频编码标准,组成系统应用还需要一系列的ITU-T建议与之配套,如H.324, H.320, H.323。在H.26L中引入了同步时基参数。

    解决方法,据我了解的:国际标准化组织于1988年成立了一个致力于制定有关运动图像压缩编码的组织MPEG (Moving Picture Experts group),意思是“运动图像专家组“. 这个专家组的任务是给用于数字存储介质、电视广播和通信的运动图像和它的伴音制定一种通用的编码方法.MPEG组织在工作一开始就考虑到相关标准化组织的研究成果,如JPEG和H.261标准.运动图像可以看成是静止图像的一个序列,所以运动图像的帧内编码技术就采用了JPEG推荐的离散余弦变换DCT技术.此外MPEG又加进了帧间压缩编码技术.1992年MPEG正式推出了MPEG-1标准草案,1993年正式通过.由于多媒体技术、数字电视技术、多媒体通信以及交互电视技术的发展,MPEG-1在视频音频分辨率和传输率方面已不能满足要求,所以ISO/IEC在1994年又推出了ISO/IEC13813 MPEG-2 运动图像及其伴音通用压缩编码标准.MPEG-2已经被国际上公认为HDT***源压缩编码的标准.数字电视从传输方式上分为卫星数字电视广播、有线数字电视广播和地面数字电视广播,虽然它们的信道编码方式不同,但是信源均采用MPEG-2标准编码.

    0 讨论(0)
提交回复