信源编码数据压缩课程课后题与答案第四章.doc

上传人:坚持 文档编号:4209063 上传时间:2019-10-04 格式:DOC 页数:15 大小:746.57KB
下载 相关 举报
信源编码数据压缩课程课后题与答案第四章.doc_第1页
第1页 / 共15页
信源编码数据压缩课程课后题与答案第四章.doc_第2页
第2页 / 共15页
信源编码数据压缩课程课后题与答案第四章.doc_第3页
第3页 / 共15页
信源编码数据压缩课程课后题与答案第四章.doc_第4页
第4页 / 共15页
信源编码数据压缩课程课后题与答案第四章.doc_第5页
第5页 / 共15页
点击查看更多>>
资源描述

1、信源编码 Assignment of CH4 1、详细解释下面概念: (a)绝对掩蔽门限; 图 1.听觉区域图 图 1 是人类的听觉区域图,横坐标表示声音的频率,从 20Hz 到 20000Hz; 纵坐标代表音量的大小,单位是 dB。图中被 Threshold of Hearing 和 Threshold of Feeling 两条曲线所围成的部分就是人耳能够听到的声音区域。在 Threshold of Feeling 之上的声音,人耳已经不能承受;在 Threshold of Hearing 之下的声音, 人耳感知不到。而最下面这条曲线,就是绝对掩蔽门限,代表了某一频率的纯 音,人耳能够感知

2、到的最小的 dB。 (b)临界频带; 临界频带称为 Critical Bandwidth,当噪声掩蔽纯音时,起作用的是以纯音 频率为中心频率的一定频带宽度内的噪声频率。如这频带内的噪声功率等于在 噪声中刚能听到的该纯音的功率,则这频带就称为听觉临界频带。 临界频带表征了人类最主要的听觉特性,它是在研究纯音对窄带噪声掩蔽量 的规律时被发现的,在加宽噪声带宽时,最初是掩蔽量增大,但带宽超过某一定值 后,掩蔽量就不再增加,这一带宽就称为临界频带。 (c)听觉门限; 由掩蔽效应产生的各种掩蔽门限叠加在绝对掩蔽门限后的掩蔽门限,成为 听觉门限。即一段音频中各个频率处人耳能够感知到的最小音量。 图 2.掩

3、蔽效应叠加在绝对掩蔽门限 由图看出,在频率为 1000Hz 附近,有一个接近 80dB 的大信号掩蔽掉了附 近频率处的小信号,产生了新的掩蔽门限(蓝色线处),于是人耳能感知到的 声音响度在该频率附近发生了变化,不在是绝对掩蔽门限了。叠加后的门限曲 线就被称为听觉门限。 (d)掩蔽效应。 听觉中的掩蔽效可以指人的耳朵只对最明显的声音反应敏感,而对于不明 显的声音,反应则较不为敏感,前者称为掩蔽音,后者称为被掩蔽声。其主要 可以分为两大类:时域掩蔽效应和频域掩蔽效应。 图 3.听觉掩蔽效应 一个强纯音会掩蔽在其附近同时发声的弱纯音,这种特性称为频域掩蔽, 也称同时掩蔽。如,一个声强为 60dB、频

4、率为 1000Hz 的纯音,另外还有一个 1100Hz 的纯音,前者比后者高 18dB,在这种情况下我们的耳朵就只能听到那 个 1000Hz 的强音。 除了同时发出的声音之间有掩蔽现象之外,在时间上相邻的声音之间也有 掩蔽现象,并且称为时域掩蔽。时域掩蔽又分为超前掩蔽和滞后掩蔽,产生时 域掩蔽的主要原因是人的大脑处理信息需要花费一定的时间。一般来说,超前 掩蔽很短,只有大约 520ms,而滞后掩蔽可以持续 50200ms。 2、详细说明: (a)什么是心理声学模型,它的输入和输出分别是什么? 在人耳的声域范围内,声音听觉心理的主观感受主要有响度、音高、音色 等特征和掩蔽效应、高频定位等特性。心

5、理声学模型是对人听感的统计性质的 数学表述模型,它解释人各种听感的生理原理。心理声学模型可以在主观听感 劣化不多的条件下,大大降低数字音频信号传输的带宽。它主要基于人的听觉 器官的生理结构和感知模式,通过对数字音频信号的相应处理,去除不可闻的 信号成分及引入不可闻的畸变,达到普通熵编码无法达到的压缩比率。 它的输入是音频原始样本数据,输出是听觉掩蔽门限或者信号掩蔽比 (SMR)。 (b)心理声学模型在音频编码中的作用? 心理声学模型在音频编码中的作用主要是基于其模仿人类听觉器官原理和 感知模式的前提下,指导人们进行音频信号编码的思路和方向。它通过对原始 音频样本数据进行分析,计算语音的掩蔽门限

6、,并根据掩蔽门限控制量化编码, 除不可闻的信号成分及引入不可闻的畸变,尽可能地减少数据量,达到普通熵 编码无法达到的压缩比率。 3、(a)MPEG-1 音频编码分几层,各层在编码效率、算法复杂度和算法延迟 上有和区别? MPEG-1 音频编码共有三层,分别为 MPEG-1 Layer1、MPEG-1 Layer2 和 MPEG-1 Layer3,高层兼容低层。其中第三层协议简称 MP3。 MPEG-1 Layer1 采用每声道 192kbit/s,每帧 384 个样本,32 个等宽子带, 固定分割数据块。子带编码用 DCT 离散余弦变换和 FFT 快速傅立叶变换计算 子带信号量化比特数。采用基

7、于频域掩蔽效应的心理声学模型,使量化噪声低 于掩蔽值。量化采用带死区的线性量化器,主要用于数字盒式磁带。 MPEG-1 Layer2 采用每声道 128kbit/s,每帧 1152 个样本,32 个子带,属不 同的分帧方式。采用共同频域和时域掩蔽效应的心理声学模型,并对高、中、 低频段的比特分配进行限制,并对比特分配、比例因子,取样进行附加编码。 Layer2 广泛用于数字电视,CD-ROM,CD-I 和 VCD 等。 MPEG-1 Layer3 采用每声道 64kbit/s,用混合滤波器组提高频率分辨率,按 信号分辨率分成 632 或 1832 个子带,克服平均 32 个子带的 Layer1

8、,Layer2 在中低频段分辨率偏低的缺点。采用心理声学模型 2,增设不 均匀量化器,量化值进行熵编码。主要用于 ISDN 综合业务数字网音频编码。 由此看出,MPEG-1 Layer1 的编码效率较低,算法复杂度低,算法延迟低; MPEG-1 Layer2 的编码效率比前者强,算法复杂度也高于前者,延迟亦高; MPEG-1 Layer3 的编码效率最高,算法复杂度也最高,延迟最高。 (b)画出 mp3 音频编码编解码算法框图,并详细说明其工作原理。 子带滤波器组 M D C T 心理声学模型F F T P C M 音频 采样信号 比特和比特因子 分配与编码 哈夫曼编码 比特流组装 信掩比 边

9、信息 已编码 数据流 图 4.mp3 编码框图 比特流 分解 哈夫曼解码 已编码 数据流 反量化 M D C T 反变换 边信息 子带滤波器组 P C M 音频信号 图 5.mp3 解码框图 从整体来看,MP3 编码算法流程刻大致分为混合滤波器组(包括子带滤波 器组和 MDCT),心理声学模型,量化编码(包括比特和比例因子分配和哈夫 曼编码)等三大功能模块,计算都十分复杂,实现 MP3 编码的关键也在于这三 个功能模块。 混合滤波器组这部分包括子带滤波器组和 MDCT 两部分。子带滤波器组编 码完成样本信号从时域到频域的映射,并将规定的音频信号通过带通滤波器组 分解成 32 个子带输出。子带滤

10、波器组输出的 32 个子带时等带宽的,而由心理 声学模型得出的临界带宽则不是等带宽的,所以为了使得进行编码的各个比例 因子带与临界频带相匹配,需要对每个子带信号做 MDCT 变换。将子带滤波器 组的输出送到 MDCT 滤波器组后,每组将细分为 18 条频线,共产生 576 条频 线。然后利用心理声学模型中计算出来的子带信号的信掩比,决定分配给 576 条谱线的比特数。 心理声学模型利用了人耳听觉系统的遮蔽效应特性,移除大量的不相关信 号,从而达到压缩音频数据的效果。为了精确地计算遮蔽阈值,要求信号有更 好的频域解析度,因此在使用心理声学模型前先对信号进行傅立叶变换。 MPEGI 提供了两种心理

11、声学模型,第一种模型计算简单,在高比特率编码时 提供适当精度,第二种模型比较复杂,一般在较低比特率编码时使用。MP3 编 码中一般使用心理声学模型二。心理声学模型的目的就是求出各个子带的掩蔽 域值,并以此控制量化过程。心理声学模型实现过程一般是先用 FFT 求出信号 的频谱特性,根据频谱特性找出各频率点上的音调成分(有些称为音乐成分) 和非音调成分(或称噪音成分);根据掩蔽域曲线确定各个音调成分和非音调成 分在其它频率点的掩蔽域值;最后求出各频率点的总体掩蔽域,并折算到编码 子带中。对于子带滤波器组输出的谱值量化后产生的噪声,如果能够被控制在 掩蔽域值以下,则最终的压缩数据被解码后的结果与原始

12、信号可以不加区分。 一个给定信号的掩蔽能力取决于它的频率和响度,所以心理声学模型的最终输 出是信掩 SMR,即信号强度与掩蔽阈值的比率。 量化编码使用一个三层迭代循环模型来实现比特分配和量化。这三层包括: 帧循环,外层循环和内层循环。帧循环复位所有的迭代变量,计算能够提供给 每节数据的最大比特数,然后调用外层迭代模型;外层迭代模型首先使用内层 迭代模型,内层迭代模型对输入矢量进行量化,通过递增量化步长使量化输出 能够在一定的比特位数限制之内被编码。哈夫曼编码对量化的最大值有限制, 所以需要判断所有的量化值是否超过限制,如果超过限制,则内层迭代循环需 要递增量化步长,重新量化。然后确定哈夫曼编码

13、的位数,使其所占的比特数 小于由帧循环计算出的每节编码所能提供的最大比特数,否则也要增加量化步 长重新量化。当量化满足要求后,存储最终的比例因子数值,跳出外层循环, 并在帧循环中计算存储每节数据所用的比特位数。 在 MP3 编码中,输入的数字音频信号即 PCM 采样信号进入子带滤波器组 后,被分成 32 个子带信号, MDCT(改进离散余弦变换)把子带的输出在频 域里进一步地细分成 18 个频线,产生 576 个频线。然后利用心理声学模型计算 出子带信号的信掩比,根据这些信掩比决定分配给 576 个频线的比特数,分别 对他们进行比特分配和可变步长量化。量化后的样值再经过无失真的哈夫曼编 码,以

14、提高编码效率,并与比特分配和量化产生的边信息一起组成一帧数据。 MP3 编码的一帧数据包括两个组,每组有 576 个频线和与他们相关的边信息, 边信息被存储在每一帧的帧头中。解码端,即是对编码过程的逆过程,对这样 一帧一帧组成的比特流,MP3 解码器可以独立的进行解码,而不需要额外的信 息了。 4、(a)什么是预回声(pre-echo)? 图 6.预回声现象 音频信号中会出现这样的情况:一段较低的声音之后突然出现了高音部分, 特别多见于敲打乐器的音频序列中,具有突发和幅度大的特点,这样的信号称 为暂态信号。在后期对其进行 MDCT 时频变换的时候如果不特殊处理,会产生 较大的量化误差,再经过反

15、变换量化误差就会扩散到时域范围,产生噪声,如 果这个时候前掩蔽效应不能遮蔽,这种噪声就会被人耳感知,由此产生了预回 声现象。如下图所示:一段原始的音频信号,图(a)中所示里面含有大量的暂 态信号,按照一般的编码流程之后再经过解码,解码出来的音频信号如图(b) 所示,可以清晰的看出在图(b)重建原音频信号中原本静音的地方出现了部分 噪声,这就是量化之后噪声在时域扩散所引起的,也就是预回声现象。 (b)音频编码中为何要进行预回声处理? 由上一题可得知,产生这种预回声现象的原因是音频编码在频域进行,时 域中采用块加窗处理,如果时间窗选择的不合适,也就是对信号分析时的时间 分辨率不足就会造成预回声的产

16、生。而这种现象如果没有处理得当,最后重建 信号时,人耳是可以分辨出来的。所以如何避免这种现象的产生或者产生之后 进行及时的弥补显得尤为重要。 (c)MP3 和 AAC 等音频编码算法中是如何进行预回声处理的? 为了防止人耳可感知预回声现象,一方面可以从其产生的原因方面入手解 决,可以通过合理的分配编码比特减少量化产生的噪声,另一方面可以从产生 的结果方面入手解决,如果已经产生了量化噪声,那么采取措施例如对其进行 时域整形,充分利用前面介绍的声音掩蔽特性等,使得量化噪声控制在人耳可 感知的听觉阈值以下。目前几种主流的音频标准中采用不同的方法用于防止产 生预回声。 (1)增益控制技术 这种技术是在

17、音频信号进行时频变换前就对其进行增益控制,使得声音中 的暂态信号或者突发信号的幅度变小,信号整体趋于平坦,这样可以有效的减 少预回声现象。当然需要将这个增益传输给解码端,当解码之后的音频再通过 逆增益恢复到原来的幅度。我国制定的 AVS 音频编码标准中就采用了这项技术, 其具体做法是对输入的 PCM 音频信号中的暂态信号在编码前就进行时域增益 控制,整段暂态信号都乘以一个比例因子 A,这样所有的信号的幅度值都按照 比例统一的减少了,就不需要在变换时对暂态信号和平稳信号不同处理了,统 一进行编码即可。在解码端,需要对解码之后的信号乘以 1/A,比例因子的倒 数就可以恢复原来的音频信号。 (2)长

18、短窗型切换技术 这种技术充分利用了声音的时域掩蔽效应,使得信号时域分辨率提高了进 而抑制了预回声的产生。当出现暂态信号时,采用短变换窗可以保证量化噪声 限制在较短的时间范围内,不会扩散到变换窗之外,这样可以利用人耳的前向 掩蔽特性,使得人耳感觉不到。如果是平稳信号,就选择长窗来提高频域分辨 率,进一步提高编码效率。例如在 MPEG-1 第三层的音频标准中就采用了这种 技术。MP3 编码标准采用子带编码技术,将时域信号划分为均匀的 32 个子带 信号后再对其进行 MDCT 变换。MP3 标准提供了四种窗型可供选择:起始窗、 短窗、正常窗、和终止窗。其中长窗共有 36 点,而最短的短窗只有 12

19、点。窗 型如下图所示: 图 7.MP3 标准中的四种窗型 上述四种窗型的转换条件如下图所示: 图 8.MP3 标准中窗型转换图 由上图可以看出在不同条件下采用不同的窗型进行变换。当信号平稳时采 用正常窗进行变换,当由平稳信号到出现暂态信号时就用起始窗进行过渡,暂 态信号用短窗进行变换,当由暂态信号到出现平稳信号时就用终止窗进行过渡, 平稳信号用正常窗进行变换。这种多窗切换技术充分地衡量了编码效率和编码 质量。当出现暂态信号使用短窗进行变换的时候以增加算法的复杂度换取编码 质量。当出现平稳信号时使用正常窗进行变换以提高编码效率。 (3)瞬时噪声整形技术 TNS(Temporary Noise S

20、haping ) 这种技术根据输入信号的时域特点,提高预测增益,控制由暂态信号等产 生得量化噪声的瞬时形状,只需要编码预测残差,从而解决掩蔽阈值和量化噪 声的错误匹配的问题。由于时域和频域具有对偶性的特点,在频域上对频谱数 据进行预测而在编码解码器输出端可以调节量化误差的时域形状以适应输入信 号的时域形状。这样可以有效地把量化误差置于实际信号之下,并且可以利用 暂态信号或冲击信号的掩蔽效应使得噪声不为人耳所感知。它可以有效地减少 信号帧内和帧间的冗余度。MPEG-2 AAC 音频编码标准采用了这种技术,有效 的控制了预回声现象。 (4)比特池技术 这项技术是从预回声产生的原因方面入手,尽可能的

21、减少量化误差,这样 就需要更多的比特数来编码。目前多种音频标准中都采用了这种技术,在音频 编码时每一帧所使用的实际比特数不是固定的,而编码码率一定的情况下,有 的音频帧编码时就会节省下来一部分比特,将这部分比特放到比特池中,其实 就是存储起来,当其他音频帧出现例如暂态信号有量化误差时可以使用它们, 提高了量化精度,有效的抑制了预回声现象的产生。 5、查阅资料,综述目前 ITU-T、MPEG、AVS 等组织音频编码算法进展情况。 音频编码标准主要由 ISO 的 MPEG 组来完成。MPEG-1 是世界上第一个高 保真音频数据压缩标准,其最出名的当属 MP3 格式。MPEG-1 是针对最多两声 道

22、的音频而开发的。但随着技术的不断进步和生活水准的不断提高,有的立体 声形式已经不能满足听众对声音节目的欣赏要求,具有更强定位能力和空间效 果的三维声音技术得到蓬勃发展。而在三维声音技术中最具代表性的就是多声 道环绕声技术。目前有两种主要的多声道编码方案:MUSICAM 环绕声和杜比 AC-3。MPEG-2 音频编码标准采用的就是 MUSICAM 环绕声方案,它是 MPEG-2 音频编码的核心,是基于人耳听觉感知特性的子带编码算法。而美国 的 HDTV 伴音则采用的是杜比 AC-3 方案。MPEG-2 规定了两种音频压缩编码 算法,一种称为 MPEG-2 后向兼容多声道音频编码标准,简称 MPE

23、G-2BC;另 一种是称为高级音频编码标准,简称 MPEG-2AAC,因为它与 MPEG-1 不兼容, 也称 MPEG NBC。 MPEG-4 的目标是提供未来的交互多媒体应用,它具有高度的灵活性和可 扩展性。与以前的音频标准相比,MPEG-4 增加了许多新的关于合成内容及场 景描述等领域的工作。MPEG-4 将以前发展良好但相互独立的高质量音频编码、 计算机音乐及合成语音等第一次合并在一起,并在诸多领域内给予高度的灵活 性。其中 AAC 高级音频编码就是一种由 MPEG-4 标准定义的有损音频压缩格 式,由 Fraunhofer 发展,Dolby, Sony 和 ATMOS 值为 4.173

24、,达到了长途通信质量。 G.723.1 标准:随着互联网技术的快速发展和多媒体通信业务的飞速增长, ITU-T 对 8kbit/s 以下的高质量语音编码方案给予了极大关注。由 ITU-T 的第 15 小组 1995 年提出的 G.723.1 标准是极低速率多媒体通信标准系列 H.324 中的有 关语音编码的一个标准。G.723.1 编码器采用了线性预测分析合成的技术,对 8kHz 取样的 16bit 精度的 PCM 数字音频进行处理,以尽量减少实际语音与合成 语音之间经听觉加权后的差分信号的能量为准则来进行编码的。在 G.723.1 标 准中提供了两种可选速率,分别为 5.27kbit/s 和

25、 6.3kbit/s。和同样速率的其他语音 编码器相比,这两种编码器都具有较高的语音质量,较低的编码时延(3040ms)。 高速率提供更好的重建语音质量,低速率的算法计算量低,给系统设计者提供了更 多的灵活性。 G.729 标准:G.729 标准是国际电联电信标准部门第十五研究组(SG15) 在 19931996 年期间在语音编码方面取得的最大标准化成果。G.729 协议定义 了 8kbit/s 码率的共扼结构代数码本激励线性预测(CS-ACELP)语音编解码算 法。模拟信号经过电话带宽滤波,以 8kHz 采样,再转换为 16bit PCM 码,送入 编码器编码,输出比特流参数,解码器对比特流

26、参数解码,以同样方式转换为 模拟信号。其他格式的信号都要预先化为 16bit PCM 码,解码后再转换回来。 G.729 标准主要应用有:个人移动通信、低 C/N 数字卫星系统(包括陆地移动卫星 通信、海事卫星通信、一般航空卫星通信等)、高质量数字移动无线通信 DOME、存储/检索以及分组语音和数字租用信道等。由于 G.729 编解码器具有 很高的语音质量和很低的延时,被广泛地应用在数据通信的各个领域,如 VoIP 和 H.323 网上多媒体通信系统等。G.729 协议应用广泛,它学习简单,易于上 手操作,许多语音通信系统皆有使用。后来 ITU-T 推出了一系列 G.729 的扩展 标准,比如

27、:G.729A、G.729B、G.729AB 等等。而 G.729A 是 ITU 最新推出的 语音编码标准 G.729 的简化版本。 G.729.1 是一个 8-32 kbit/s 嵌入式语音和音频编解码器,可以与 G.729、G.729A 和 G.729B 进行比特流的互操作,其官方名称是基于 G.729 的嵌 入式可变比特率编解码器。该编解码器旨在提供比现有 G.729 语音编码标准更 好的话音质量和更高的灵活性。G.729.1 在比特率、声学、带宽和复杂性方面都 具有可扩展性。此外,它还提供各种编码器和解码器模式,包括支持 8 和 16 kHz 输入/输出采样频率,与 G.729B 兼容

28、,但算法延迟更低。G.729.1 的比特流 结构有 12 个分层。8 kbit / s 的第一层(核心层)遵循 G.729 的格式。第二层 (增加了 4 kbit / s,总共 12 kbit / s)是窄带增强层。第三层(又增加 2kbit / s, 总共 14kbit / s)是带宽扩展层。其他层是宽带增强层。G.729.1 输出带宽在 8 和 12 kbit / s 时为 50-4000 Hz,在 14 至 32 kbit / s 时为 50-7000 Hz。G.729.1 也 称为 G.729 J 或 G.729EV,其中 EV 代表嵌入变量(比特率)。 关于中国自主的音视频标准机构,

29、数字音视频编解码技术标准工作组(简 称 AVS 工作组),由国家原信息产业部科学技术司于 2002 年 6 月批准成立。 工作组的任务是:面向我国的信息产业需求,联合国内企业和科研机构,制 (修)订数字音视频的压缩、解压缩、处理和表示等共性技术标准,为数字音 视频设备与系统提供高效经济的编解码技术,服务于高分辨率数字广播、高密 度激光数字存储媒体、无线宽带多媒体通讯、互联网宽带流媒体等重大信息产 业应用。自 AVS 工作组 2002 年成立以来,至今,已制订了两代 AVS 标准。第 一代 AVS 标准包括国家标准信息技术 先进音视频编码 第 2 部分:视频 (简称 AVS1,国标号:GBT 2

30、0090.2-2006)和信息技术 先进音视频编码 第 16 部分:广播电视视频(简称 AVS+,国标号:GB/T 20090.16-2016)。 AVS+的压缩效率与国际同类标准 H.264/AVC 最高档次(High Profile)相当。 目前已经有上千套 AVS+的高清内容上星播出(详见 AVS+上星节目表)。 第二代 AVS 标准,简称 AVS2,首要应用目标是超高清晰度视频,支持超 高分辨率(4K 以上)、高动态范围视频的高效压缩。 2016 年 5 月,AVS2 被国 家新闻出版广电总局颁布为广电行业标准高效音视频编码 第 1 部分:视频 (行标号:GY/T 299.1-2016

31、)。2016 年 12 月,AVS2 被国家质检总局和国家 标准委颁布为国家标准信息技术 高效多媒体编码 第 2 部分:视频(国标号: GB/T 33475.2-2016)。同时提交了 IEEE 国际标准(标准号:IEEE1857.4)申请。 国家广播电影电视总局广播电视计量检测中心的测试结果表明:AVS2 的压缩 效率比上一代标准 AVS+和 H.264/AVC 提高了一倍,超过国际同类型标准 HEVC/H.265。AVS2 还支持:三维视频、多视角和虚拟现实视频的高效编码; 立体声、多声道音频的高效有损及无损编码;监控视频的高效编码;面向三网 融合的新型媒体服务 。AVS2 产业应用在:

32、(1)超高清晰度视频广播 国家新闻出版广电总局和工业和信息化部“AVS 技术应用联合推进工作组 ”已 经确定 AVS2 首先应用于 OTT 超高清视频服务,2017 年进行超高清电视广播 试验,2018 年用于“世界杯”超高清转播。 (2)互联网图像与视频 在中国网络电视台(CNTV)的统一组织下,AVS2 网络电视直播解决方案已在 CNTV 的 CDN 和 P2P 直播平台上完成搭建和测试,并在里约奥运会开始前正 式上线,对部分奥运赛事进行了网络直播。腾讯音视频实验室基于 AVS2 内核 自主研发了一种新的图片编码格式 TPG,大大提高了图片的压缩率。 (3)虚拟现实(VR)和 3D 视频

33、AVS 工作组在国际音视频产业论坛暨 AVS 标准 15 周年年会宣布我国将制定虚 拟现实(VR)系列国家标准和国际标准,同时启动有关人工智能相关标准的研 究和制定工作。 (4)视频监控 AVS2 针对监控视频设计了场景编码模式,压缩效率比 HEVC/H.265 高出一倍, 将带来巨大的产业价值。 参加标准制定的不少企业已经或正在实施开发 AVS2 产品,例如:深圳海 思的 AVS2 解码芯片;北京博雅华录得 AVS2 编码芯片;数码视讯、柯维新和 上海国茂等企业的广播级 AVS2 超高清实时编码器,这些产品正在逐步推向市 场。未来将有更多 AVS2 产品推出,例如 AVS 的编解码器、AVS

34、2 编转码器、 AVS2 终端设备、AVS2-IPTV 设备、AVS2 视频监控设备、AVS2 编辑制作设备 和系统、AVS2 测试设备及软件等。 AVS2 音频标准立足提供完整的高清三维视听技术方案,与第二代 AVS 视 频编码(AVS2 视频)配套,是更适合超高清、3D 等新一代视听系统需要的高 质量、高效率音频编解码标准。该标准具有技术先进、内容全面、系统整合度 高、适应面广、使用灵活等特点。将应用于全景声电影、超高清电视、互联网 宽带音视频业务等多个领域。AVS2 是我国音视频产业跨越发展乃至主导国际 市场的重要机遇。AVS2 能够以更低的成本支撑我国音视频产业的高速发展, 并支持我国音视频监控企业占领和主导国际市场。

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育教学资料库 > 参考答案

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。