数字音频信号

2024-10-22

数字音频信号(精选9篇)

数字音频信号 篇1

1 序言

随着广播设备数字化技术的飞速发展, 广播发射机节目源已从原来的模拟音频信号逐步过渡到了数字音频信号。数字信号有诸多优点, 主要表现在数字信号对干扰不敏感、基本上与传输距离无关、可以再生、可由处理器进行修正以及更好地集成等。数字音频的标准有SPDIF、AES/EBU、M ADI等, 其中, AES/EBU又称为AES3, 是音频工程协会和欧洲广播联盟共同制定的标准, 它是传输和接收数字音频信号的数字设备接口协议。

我台广播节目传输的数字音频信号采用的就是AES/EBU标准, 其节目传输示意图如图1所示。从图1中我们可以看到, 从卫星接收机解码输出的AES/EBU数字音频信号, 经音频分配器后, 其中一路经平衡/不平衡转换器, 将数字音频信号由110Ω平衡信号转换为75Ω不平衡信号后通过同轴电缆送到发射机;另一路110Ω平衡数字音频信号送到数字音频光端机, 通过光缆送到发射机。

2 数字音频信号的传输

从目前来看, 传输AES/EBU数字音频信号不外乎如下几种方式, 即:屏蔽双绞线电缆传输、同轴电缆传输和光纤传输三种。下面结合我台数字音频传输实例, 分别介绍三种不同的传输方式。

2.1 双绞屏蔽线电缆传输

用双绞线屏蔽电缆传输模拟音频信号是最早使用的手段之一, 它的优点是:在传输距离较短时, 铺线较容易, 比起其他传输手段来说, 投资相对少, 技术较成熟, 维护方便等。其缺点是:传输距离较远时频响较差。

模拟音频的频响为20Hz到20kHz, 它可以通过双绞线屏蔽电缆从一处传输到另一处。由于音频电缆上所使用的插头从RCA到专业的X LR接插头, 种类繁多, 因此, 当人们刚开始考虑专业数字音频信号的传输时, 就很自然地选择使用带有XLR插头的双绞线屏蔽电缆。数字音频双绞电缆与标准模拟音频双绞电缆的区别关键在于特性阻抗指标。AES/EBU标准由于公差范围宽, 特性阻抗范围可以从88Ω到132Ω;标准模拟音频电缆的特性阻抗从45Ω到70Ω。如使用模拟音频电缆线传输数字音频信号, 因阻抗不匹配, 会导致信号反射及抖动, 从而在接收端产生误码, 由于这个原因, 推荐使用100Ω至120Ω的屏蔽双绞线数字音频电缆用于数字音频传送 (电缆的阻抗不是直流阻抗, 而是高频信号下的交流阻抗, 万用表是测量不出来的) 。数字音频信号通过平衡屏蔽的双绞线电缆从一个发送器传输到另一个接收器的距离可达100m。

图2是AES数字音频双绞线传输的电路示意图。在AES数字音频信号传输中, 通常使用RS-422A数据通讯的标准驱动器和接收器芯片, 而使用变压器耦合可获得较好的共模拟制, 且避免了信号的大地回路, 电缆较长时也可使用均衡补偿。

2.2 同轴电缆传输

如果通过某种方法将AES数字音频信号电平变为1V, 阻抗变为非平衡75Ω, 那么就可以将数字音频信号如同视频信号一样传输。图3为使用同轴电缆进行数字音频传输的原理示意图。其传输规范为AES发布的一份文件AES3ID, 在该文件中, 描述了同轴分配装置的优越性, 还包括了电缆、电缆平衡器以及接收器电路等方面的信息, 在接收器的信息中, 还包括当需要将AES3格式的信号长距离 (1000m) 传输时或在模拟视频分配设备的环境中使用时, 标准AES3设备与电缆系统进行转换的变换器。我台广播节目通过平衡至不平衡变换器将110Ω阻抗变换为75Ω阻抗, 并通过同轴电缆进行节目传送, 其稳定传输距离已达500m, 平衡/不平衡转换器原理图如图4所示。

需要指出的是, 平衡和不平衡传输系统不能直接对接, 原因主要有两个:

(1) 电平不匹配

AES数字音频信号是TTL的5V电平, 遵循RS422的接口, 而BNC的AES/EBU接口的电平是0.5V, 比较低幅度的信号送入XLR的5V接口容易发生电平不翻转的问题 (AES/EBU平衡的接收器最低的输入幅度要求大于200mV, 0.5V的BNC接口外加线路损耗, 尤其是低频的电阻损耗和高频的介质损耗, 往往中长线路不能保证其衰减控制在-6dB以内) 。此外, 用平衡直接连接到不平衡, 输入信号太大, 加重了发送端的负载。

(2) 阻抗严重不匹配

75Ω与110Ω直接对接, 在整个传输系统中会出现回波, 它重叠在原信号上, 使得传输系统的孔径变小 (眼图抖动变大, 开度减小) , 当小到接收器不能正常解码而时常出现误码时, AES/EBU每个子帧的校验位将出错, 接收器会将这个错误子帧丢弃, 造成音频传输错误。

在平衡和不平衡传输系统之间通常要加装变压器, 用来进行电平和阻抗的转换。

2.3 光纤传输

光纤传输信息时, 是将电信号转变为光信号, 然后在光导纤维内部进行传输, 因此光纤传输具有很强的抗干扰性、保密性和可靠性;它的传输损耗小, 传输容量大, 不会因大气条件变化而带来质量损伤, 也不存在带宽瓶颈问题;它还具有体积小、重量轻、铺设容易等一系列优点。目前, 光纤传输设备使用简便, 没有同轴电缆的均衡需求, 光纤传输设备几乎不需维护, 且可靠、稳定、便宜, 因此, 采用光纤通讯技术, 可以大大提高广播电视节目的传输质量。目前, 一条单模光纤可以传输2.488Gb/s的数字信号。采用1550nm光波长时, 中继距离可在100km以上, 图5是数字音频光缆传输的原理图。

采用光缆传输在发送与接收端需要增加额外的光端机, 相对于无源的电缆传输, 也增加了一个故障环节, 但其在抗干扰性能和传输距离上却有着电缆无法比拟的优点。

3 数字音频信号的测量

AES/EBU数字音频信号可采用平衡传输方式, 也可采用非平衡传输方式, 虽然这两种传输方式输入/输出接口的阻抗和电气特性有所不同, 但是两种传输方式所传输的数据帧结构却是一致的, 都是遵循AES/EBU帧结构标准。

3.1 电气特性

数字音频信号采用不同的传输方式, 其对应的接口和电平都各不相同, 表1为采用平衡双绞线进行数字音频传输时的电气接口参数, 表2为采用同轴电缆进行数字音频传输时的电器接口参数。

3.2 数据帧结构

要对数字音频信号进行测量, 首先要了解AES/EBU数字信号的结构特点以及各个校验位与状态帧的含义, 测量时可采用专用设备, 也可采用数字存储示波器来完成。在AES/EBU数据帧中包含了时钟信息、音频数据帧、非音频数据三种数据类型, 下面将分别对这三部分数据信息进行介绍。

3.2.1 时钟信息

在AES/EUB数字音频信号中, 采用“双相位”编码方式, 将信号的时钟信息嵌入AES/EBU数字音频信号流中。

在“双相位”编码方式中, 把每一个逻辑“1”和逻辑“0”位所占用的时间称为一个“时间片”, 在逻辑“0”位时, 只在“时间片”的开始与结束处信号进行高、低电平的跳变;在逻辑“1”位时, 不仅在“时间片”的开始和结束处信号进行高、低电平的跳变, 同时还要在“时间片”的中央再进行一次高、低电平的跳变。如一段001010的数据经过“双相位”编码后的电平图如图6所示。

在图6中, 时间片1、2、4、6中传输的是“0”, 时间片3、5中传输的是“1”, 则除了在时间片的开始和结束处分别有一个电平的跳变外, 在时间片的中央还有一个电平的跳变过程。

通过这种传输编码方式有以下两方面的好处:第一, 接收端可以从传输的信号中重建信号的传输速率, 从而得到所接收信号的时钟信息;第二, 通过这种传输编码, 可以消除传输链路上由于“常1”或“常0”而造成的积累电平, 使传输链路上的电平处于0V。

3.2.2 音频数据帧

在AES/EBU数字音频信号中, 音频信息以数据帧的方式传输, 其中每个音频数据帧包含左、右两个子帧, 并以串行的方式排列传输, 左子帧在前、右子帧在后。左、右两个子帧的结构是一致的, 其构成如图7所示。

从图7中可以看到, 在左、右子帧中各占有24bit的长度的音频数据, 其内容为一个采样信号的量化数值。LSB为最低有效位, MSB为最高有效位。24bit音频数据表示最高的量化深度为24bit, 同时在传输量化深度为16或20bit的音频数据时, 可以采用最低有效位向右移动相应位, 将最低有效位左边的数据位给予置“0”的方式来完成。图8为一个音频数据是16bit长的左、右子帧示意图。

图7、图8中, 各字段和字母的含义如下。

(1) Preamble:标识数据。其编码方式不遵循“双相位”编码规则, 也是在AES/EBU信号流中唯一不遵循“双相位”编码规则的数据。其占有的时长为四个“时间片”, 在这四个“时间片”长的脉冲中, 会出现一个或两个持续时长为1.5个“时间片”长度的逻辑“1”或逻辑“0”脉冲。如图9所示。

Preamble通常有如下三种类型的标识数据:

(1) X类型的标识数据, 表示在标识数据后跟的是左声道的音频帧;

(2) Y类型的标识数据, 表示在标识数据后跟的是右声道的音频帧;

(3) Z类型的标识数据, 表示在标识数据后跟的是一个左声道的音频帧, 同时也表示是一个新的状态数据块的开始。

(2) V:有效位 (Validity bit) 。其功能主要是确认传输数据的有效性。如果有效位被置为“1”, 表示接收到的数字音频信号不适合转换成模拟信号, 在其它情况下, 比如传输的数据产生了一些错误或在帧中传输的数据不是线性的PCM音频数据, 都会使有效位置“1”。

(3) U:用户数据位 (User-bit) 。在AES/EBU信号中没有使用。

(4) C:通道状态位 (Channel-status bit) 。在AES/EBU数字音频信号协议中, 规定每192个音频数据帧为一块, 块中包含有192个左帧、192个右帧, 每个块的开头标识为Z类型的标识数据。在块中所有的左帧和右帧内的通道状态位就分别组成了一个192bit长度的左状态信息数据和右状态信息数据, 也就是说, 单个帧中的通道状态位是没有意义的, 一个音频块的数据类型、采样频率等信息是通过块中所有帧的通道状态位组合起来实现的。

(5) P:奇偶校验位。为该子帧的奇偶校验位。

3.2.3 非音频数据

如上所述, 每个音频块含有192个帧, 其中所有的左帧和右帧内的通道状态位, 组成了一个192bit长度的左状态信息数据和右状态信息数据, 这192位作为192/8=24个字节, 对块中的音频数据进行说明, 表示了所传数据的采样频率、量化深度、循环校验码等信息。

3.3 数字音频信号的码率

我们知道, 一个音频数据块有192个帧组成, 每个帧由两个子帧组成, 帧在使用的采样率下重复。第一个子帧包含来自通道A中的采样数据或是立体声中在左声道的采样数据;第二个子帧为通道B或是立体声右声道的采样数据, 每个子帧含有32bit的数据。在48kHz采样频率下, 其码率为:

帧中的一个数据比特持续时间为:1/3.072Mbps=325.5ns, 每个音频帧包括64bit, 每个音频帧的持续时间为:325.5ns×64=20.83μs, 在双相标志码编码后, 数据传输率将提高到两倍, 即:3.072×2=6.144Mbps, 一个双相标志码比特单元时间为325.5ns/2=163ns。

知道了码率和数据比特和音频帧的持续时间, 在使用数字存储示波器进行测量时, 就能根据要测量的内容调整时间参数了。比如要查看一个音频帧, 那么我们可以根据音频帧的持续时间20.83μs, 将扫描时间调整到大于21μs等。

3.4 专业数字音频测试仪器

目前, 许多厂家针对AES/EBU数字音频生产出了一些专业测试仪器, 这些仪器可按AES/EBU和S/PDIF (IEC60958标准) 标准, 对数字音频信号进行电学和定时同步 (抖动) 分析以及其他测量;仪器可通过对“连通性”的检查, 再结合其内置的自动测试程序, 可在各种环境和场合下快速且可靠地完成正常/失效的判断指示, 提供比示波器更专业的测量和检查手段, 以确保数字音频系统的可靠运行。

有些仪器还具有详细诊断功能, 比如, 音频、通道状态数据内容及电学参数等诊断, 其中电学参数包括:信号源及同数据相关的抖动、振幅和眼图闭合诊断等。甚至有些仪器还提供了信号发生器功能, 可通过一系列特别设计的AES/EBU标准数字音频接口测试信号, 包括:信号源恶化的信号、与数据相关的抖动信号、用于bit误码检测的伪随机序列信号 (PRS) 等, 用来测试传输通路的可靠性和传输媒介的损耗情况。

4 小结

随着电台广播节目数字化的普及, 数字音频已逐渐取代了模拟音频的传输与调度, 为充分发挥数字音频的优势, 只靠使用万用表简单地测试信号通路的连通与否, 已无法满足数字音频信号传输的要求。只有明确了数字信号传输的电气特性和数据帧结构, 才能发现数字信号传输过程中出现的问题并及时进行处理, 用以确保广播传输发射工作高质量、不间断地运行。

摘要:本文结合实际应用讲述了AES/EBU数字音频信号的三种传输方式和传输方式之间的转换方法, 并对AES/EBU数字音频信号的电气参数和数据帧结构进行了详细的描述。

关键词:AES/EBU,数字音频信号,传输方式,数字帧结构,测量

数字音频信号 篇2

河南人民广播电台 马胜豪

九十年代中期以来,随着采用数字技术处理音频信号技术的出现和成熟,尤其是计算机软硬件技术和多媒体技术的日趋完善,各种性能优、功能齐、质量好和自动化程度高的数字化产品纷纷面市。一股采用数字音频技术和设备代替传统的模拟音频产品的浪潮,在国外发达国家的推动下,正在我国广播电视界逐步形成,预计到二十一世纪初叶将会全面替代传统的模拟音频产品。现结合我台使用的LINK99数字音频自动播控系统对数字音频工作站所采用的技术进行剖析。

一、为什么数字化广播是发展趋势:

采用数字化技术后节目与传统的模拟信号节目相比, 具有下述主要优越性:

1、 减少了节目制作过程中的失真,提高了节目品质;

2、 同一网络上的.工作站可共享节目资源,提高了资源的利用率;

3、 快捷的非线性编辑功能;

4、 实现无带化播出,节约成本;

5、 及时准确的节目传递;方便灵活快速的节目查询;

6、 实现音频素材无损耗传输保存,高保真重复拷贝;

《音频信号数字化》教学案例 篇3

《音频信号数字化》是浙江教育出版社出版的《多媒体技术应用》第三章第四节“声音素材”的第1课。本节知识涉及声音数字化的基本概念、声音素材的获取和使用、声音文件的格式转换等内容。本课要求学生学习音频信号数字化的基本概念, 让学生在理解采样频率、量化位数、声道数等概念的基础上, 掌握WAVE格式音频文件所占存储容量的计算方法。

学习对象分析

本课的授课对象是浙江省长兴县金陵高级中学高二的学生。学生来自实验班, 目前已学习了“信息技术基础”模块的“算法与程序设计”的部分内容, 具备一定的观察、分析和动手实践能力。但对“多媒体技术应用”的相关知识大部分学生知之甚少, 对计算机中的二进制、数字化等内容认知度较低。因此, 在本课教学时, 多数学生缺少“音频信号数字化”学习的前导知识, 而如何让学生理解数字化过程中“量化”与“量化位数”的概念, 则是本课的一个挑战。

教学目标

知识与技能目标:理解音频信号数字化的基本概念;掌握WAVE音频文件存储容量的计算方法。

过程与方法目标:体验声音数字化的过程, 发现数字音频参数与文件存储容量的关系, 培养发现问题、分析问题、总结问题的探究式学习方法。

情感态度与价值观目标:借助认知经验和探究能力的体验式任务, 进行“观察→发现→总结”, 培养递进式的探索发现意识;通过数字化过程的体验和探究, 激发探索信息数字化的兴趣。

教学重点、难点

重点:掌握WAVE音频文件存储容量的计算方法。

难点:采样频率和量化位数的理解。

设计思路

本课的内容贴近学生的生活, 容易引起他们的学习兴趣, 调动其课堂参与度, 但在数字化概念欠缺、前导知识不足的情况下, 如何深入浅出地引导学生理解相关概念是本课实施的重心。基于以上分析, 教学中我采用“以学生实验探究为主, 教师讲解引导为辅, 用‘倒序’的方式引导学生进行探究式学习”的思路进行教学设计。

教学过程

1.课题导入

教师让学生观察耳机 (计算机教室中不常配备耳机) , 并与电脑连接;探究认识耳机上按钮的功能。

学生尝试操作, 并交流相关按钮的功能。

教师概括本课的学习方法:观察、实践、交流。 (板书)

师:今天我们学习的知识将和耳机有关, 这就是《多媒体技术应用》第三章第四节声音素材中的内容。 (PPT投影章节名称, 并板书课题——音频信号数字化)

设计意图:开门见山, 引出本课时的学习方式, 提出课题。

2.实验探究

任务1:记录 (老师给大家发了4个音频文件, 如图1, 同学们可以对它们进行试听和观察, 并将结果记录在任务单中) 。

学生试听音频文件的音质, 观察音频文件的容量, 记录数据。

教师巡查, 观察学生的记录情况, 根据任务的完成度, 用问题引导课堂。

问题1:4个文件的容量怎样? (大小不一)

问题2:4个文件中音质最好的是哪个?最差的是哪个? (有1个明显差, 音质好的较难分辨)

问题3:猜想一下, 这几个音质究竟是怎样的关系? (根据容量来作出判断)

学生根据记录结果, 回答问题。

师:造成这种区别的原因是什么呢?下面我们通过一款音频编辑软件Audition, 来对它们进行观察和对比, 找找原因在哪。

教师演示Audition软件, 并让学生观察音频的状态参数。

设计意图:观察已有结果, 引导学生发现问题。其中, 问题2中关于哪个音质最好的不同回答将为下一任务的展开埋下伏笔, 从而引导学生选择1个音频文件作为参照, 用比较的方式来辨别。

任务2:比较 (学生记录、比较数据, 观察, 分析, 得出初步结论) 。

教师在学生每次比较时巡查引导, 及时掌握其完成度, 设置探究问题, 引导学生归纳探究结果。

1比较文件1和文件2。

初步得出结论:采样频率影响了文件容量。

探究1:采样频率是什么?

教师演示Audition, 让学生观察单位时间内的采样点。

学生对比文件1和文件2单位时间内采样点的数量, 并归纳:单位时间内采样点的数量越多, 波形越光滑 (音质越好) , 需要存储的点越多 (容量越大) 。

师生共同得出结论1:采样频率越高, 容量越大、音质越好。 (板书)

2比较文件1和文件3。

初步得出结论:量化位数影响了文件容量。

探究2:量化位数是什么?

教师演示Audition中量化等级的变化, 学生观察、交流后对量化等级进行归纳:量化区间等级划分越细, 采样点描述得越精确, 音质越好, 容量越大。

师:量化等级和量化位数两者有什么关系?

教师讲解n位和2n的对应关系, 初步建立数字化存储的印象, 师生共同得出结论2:量化位数越大, 容量越大、音质越好。 (板书)

3比较文件1和文件4。

学生自主比较, 观察声道数, 归纳声道数对音质和容量的影响, 得出结论3:声道数越多, 容量越大、音质越好。 (板书)

设计意图:对发现的问题寻因, 激发学生进一步探究的兴趣, 并在对比和交流中突破难点, 培养学生发现问题、分析问题的能力。

3.阶段发现

任务3:结果 (结合任务单和板书, 汇总、分析实验探究的结论, 观察影响声音音质和大小的参数, 并得出它们的关系——正比例关系) 。

教师在板书上用“×”连接三者, 并提出问题。

问题4:对于声音容量而言, 除这三个参数外, 还有哪个参数会影响其大小呢?

学生回答问题。 (时间)

教师板书声音容量大小的计算公式, 学生学习音频文件存储容量的计算方法。

设计意图:整理、归纳分析结论, 探究其本质原因, 突出重点。

4.应用体验

任务4:应用 (按要求录制一段声音, PPT展示要求, 如图2) 。

教师演示麦克风的检查方法和录音的基本操作。

学生录制一段音频, 试听录制效果, 体验音频数字化的过程。

教师巡查并解决录音过程中出现的问题, 掌握任务完成度, 提醒学生观察、记录录音参数, 并根据参数计算音频文件容量。同时, 根据学生录音过程中发现新问题的情况和课堂剩余时间, 设置探究问题, 延伸知识。

探究3:录音音量大小对音频文件容量有影响吗?

探究4:计算得到的理论大小和存储时的实际大小为什么会有区别?

设计意图:通过录音体验, 对音频数字化过程进行溯源, 验证实验探究所得知识, 建立理论与实践的对接。

5.分析总结

任务5:小结 (师生回顾音频数字化录音的过程, 分析音频数字化过程, 小结本课学习内容, 教师布置课后巩固练习, 如图3) 。

设计意图:回顾、总结、梳理知识要点;实现知识的巩固和提升。

教学反思

本节课的亮点主要有三个:第一, 教学主线的设计脉络清晰, 以发现、寻因、究底、溯源和巩固为主线有效地串联课堂各环节, 充分体现出生本、生态的特点。课堂具有较强的迁移性, 内容安排便于后续课时的教学。第二, 课堂任务的设计有意义、有梯度, 既符合学生的认知规律, 又体现了知识的内在规律。第三, 课堂任务完成度极高, 圆满完成了教学任务。本节课的不足之处主要是在教学互动时略有欠缺。在课前, 我未考虑特定环境对师生的影响, 造成课前时间的过多消耗, 进而影响了课堂上的学习氛围;课堂上个别知识点 (如采样频率) 的讲解稍显繁琐, 不敢放手, 错失了发掘学生自主学习的机会。

比赛课源于自身教学的日积月累, 精雕细琢, 但在教学内容之外, 我又不得不重提两个词, 那就是预设和心态。好的课堂有充足的预设, 也伴随着生成, 但由于学科特性, 又往往会有意外产生, 如课堂中教学软件的安装故障等。面对这些意外以及比赛的压力, 我们是否有足够强大的内心来容纳和解决呢?

附录:《音频信号数字化》学习任务单

1.记录

试听、观察以下的4个音频文件, 并完成下表。

2.比较

通过音频编辑软件Audition打开音频文件, 观察状态栏参数, 完成以下表格。

(1) 文件1和文件2的比较。

结论1:_________________________。

(2) 文件1和文件3的比较。

结论2:______________________________。

(3) 文件1和文件4的比较。

结论3:_________________________。

3.结果

WAVE格式音频文件的存储容量=。

4.应用

按要求录制一段音频, 根据参数计算该音频文件的存储容量, 并通过音频编辑软件观察该音频文件的存储容量, 完成下表。

5.小结

数字化音频的简单加工_教学设计 篇4

【教学内容分析:】

本节内容是教育科学出版社出版的普通高中课程标准实验教科书《信息技术基础(必修)》第五章《多媒体信息加工》第2节“数字化音频的简单加工”的内容。

数字化音频信息已成为信息社会中人们进行信息交流的重要手段和信息表达的重要方式之一。有关数字化音频信息加工的内容,教材分 “数字化音频的采集”和“数字化音频的简单加工” 2个内容进行阐述。其中“数字化音频的采集”从信息的需求出发,讲授音频采集信息的一般过程并且能运用多种工具与方法实践音频信息的采集。“数字化音频信息的简单加工”运用Cool Edit Pro在对音频信息进行简单音效处理的基础上进行两个音频信息的合成。通过上述两项内容的学习,使学生在体验音频信息处理魅力的同时,培养学生科学地运用多媒体技术的意识与能力。

【教学对象分析:】

通过上一课时的学习,同学们已初步掌握数字化音频信息采集的一般方法,也感受到了音频信息的魅力及信息技术中对音频文件的采集。由于好奇心的趋使,学生也急切得想通过信息技术将所采集的音频信息进行加工,使其更完美,因此本课就“趁热打铁”与学生一起对所采集的音频文件进行加工。本节内容的实践性比较强,学生对此非常感兴趣,但是学生之间认知能力和基础水平的差异也很大,所以在教学中我注重分层次教学,并以任务驱动为主,学生实战实练,让每个学生都有所收获。

【教学目标分析:】

【知识与技能】

1.了解常见的音频加工软件

2.熟悉并了解CoolEdit中的相关界面及基本操作

3.掌握CoolEdit中音频文件的插入及其音频信息的合成操作

4.能对音频文件进行简单的编辑操作如“剪切”、“淡入淡出效果”等

【过程与方法】

1.通过音频文件的简单加工过程的学习,使学生掌握音频文件加工的一般方法 2.在音频信息的加工过程中,学会发现问题、解决问题最终形成完美的数字音频文件

【情感与态度】

1.通过自制“老鼠爱大米”的手机铃声,提升学生的音乐欣赏能力

2.将“语文学习”与信息技术学习进行有效的整合,通过配乐诗《匆匆》的合成加深学生对信息技术的认识与了解

【教学重点:】

音频信息的导入、CoolEdit中音轨的概念以及音频文件的合成与保存

【教学难点:】

音频信息的“剪切”、“移动”、“淡入淡出”效果以及“音量控制”等操作

【教学资源环境:】

微格实验室,投影仪及PPT课件、教案等。

【教学方法:】

任务驱动为主,教师演示及学生互助为辅等,以问题或生活案例引导学生思考分析,教师再进行归纳总结。

【教学过程:】

一、情境引入

教师给学生播放网络流行歌曲“猪之歌”和“老鼠爱大米”。问:大家知不知道这两首歌最早是在哪流行起来的,它们的演唱者或者说创作者又是谁呢?

答:是在网上流行起来的,香香和杨臣刚唱的。师:大家回答地很对,但大家知道吗?其实他们和大多数网友一样都不是专业的音乐人,他们是利用电脑,选择了合适的声音加工软件,对声音进行加工,而合成制作了自己的音乐作品,那么同学们想不想了解一下他们是怎样用电脑软件来制作音乐作品的呢?想不想自己也来搞一下音乐创作呢?那么首先来给大家介绍一下几种常见的音频加工软件吧!

教师简单讲解一下常用音频加工软件:

师:今天我们主要运用上述那么多软件中的一种也是最常用的一种音频加工软件Cool Edit来自己搞一下创作!首先我们要到网上搜索并下载该软件,同时下载该软件的汉化包。安装该软件,并安装其汉化软件,以方便使用。

生:仔细看老师如何安装并汉化,以便课后自己去机房实践。

师:老师先演示一下如何启动Cool Edit,以及来简单介绍一下它的操作界面和一些基本加工。

Cool Edit界面和加工简介 :

师:通过切换按钮我们来看一下单轨和多轨操作界面是怎样的。

单轨界面 多轨界面 师:探讨归纳一:基本加工

探讨归纳二:简单合成

探讨归纳三:精细加工

实例 1 尝试自制手机铃声

师:现代社会,手机铃声已经不止是来电的提示音,而成为了一种代表个人品味的文化。同学们,当听到别人手机响着好听的铃声,在众人羡慕的目光中悠然自得的拿出手机接通电话时;当你在为网上下载不到新曲铃声而着急时,你是否想到过我们可以自己制作呢?下面我们以前面的歌曲《老鼠爱大米》为例,通过加工制作成为一首好听的铃声。首先看一下大概的制作流程: 步骤一:如何将音频文件插入音轨? 实现方法:

单轨界面:打开文件按钮,选择音频文件,直接将文件添加到单轨中。(注意左上角是单轨还是多轨按钮。)步骤二:如何截取片断? 实现方法:

单轨界面: 左键选取一段音频,右键菜单“复制为新的”。步骤三:如何淡入淡出? 实现方法:

单轨界面:方法一:选中区域,“效果”-“波形振幅”-“渐变” -“淡入/出”卡-预置中的Fade In或Fade Out -也可自行调整滚动条的数值-“确定”

方法二:选中区域,“效果”-“波形振幅”-“音量包络”-选择一种选项-“确定”

步骤四:片断重复或多段拼接,如何实现? 实现方法:

单轨界面:选中区域,右键“复制”,选择好插入点,右键“粘贴”

(可让学生尝试多个音乐片段的拼接。)步骤五:分享音频,如何输出成MP3格式? 实现方法:

单轨界面:“文件”-“另存为”-选择文件类型,保存位置,起名 实例 2

合作完成配乐诗朗诵《匆匆》 教师准备素材:《匆匆》朗诵原始录音.wav 伴奏 天鹅湖.mp3 合成的诗配乐.mp3(给学生听一下成品)

师:制作了好听的铃声之后,我们来把这两段音频合成一下,使它变成一首

配了音乐的诗朗诵。看一下操作流程: 步骤一:录制原声

利用耳机、麦克风和Windows系统自带免费软件录音机进行录音,深情朗诵诗歌《匆匆》,并保存为wav格式。步骤二:对录音进行加工

对《匆匆》朗诵录音进行简单加工,如:去除噪音、对录音的音量进行适当的增益或衰减调整、也可以添加相应的效果,如添加回声、进行淡入淡出、自动降噪等,最后保存为mp3格式。步骤三:导入背景音乐

将Cool Edit软件调整到多音轨状态,选取第二音轨,并将工作点定位到入点上,在该音轨中调出快捷菜单,选取“从文件中导入波形文件”命令,将背景音乐(“天鹅湖.mp3”)首先导入到音轨中。步骤四:导入人声音频

在反复监听背景音乐的基础上定位黄色旋钮到人声应该开始的位置,在第一音轨的相应位置导入已加工过的《匆匆》朗诵录音。步骤五:修改和调整

仔细监听合成的效果,对工作点进行精确的调整,使人声和背景音乐在节奏、旋律、情绪等方面相一致,并对背景音乐和人声音量等声音参数进行调整,使整体听起来和谐、统一。步骤六:保存

导出合成的波形文件,导出的格式是可以调整的,如选择MP3格式。学生思考:下列哪些行为属于侵犯他人版权行为?

A、课后老师把录制的学生演唱作品发布到因特网上 B、两位同学共同创作的作品,其中一位同学签署了自己名字拿去发表 C、从网络上下载MP3歌曲,刻录成CD出售 D、翻唱他人的歌曲,发布到互联网翻唱网站上

【全课总结】

1、常见的几种音频加工软件:(录音机、绘声绘影、Windows Movie Maker、Gold Wave、Cool Edit、Adobe audition)

2、Cool Edit软件的界面认识以及基本操作:

3、音频信息的插入:(多音轨操作、文件的插入、直接录音操作)

4、音频信息的编辑:(音轨信息的选取、移动、裁剪、分段、音量调控、淡 入淡出操作、自动降噪、添加回声等)

5、多轨道音频的合成

6、音频信息的保存;(音频信息的文件类型MP3、WAV等)

【拓展提高】

1、以小组为单位,用Cool Edit软件完成一个作品,可以是诗朗诵,也可以是歌曲作品,可以发布到互联网上大家分享。音乐翻唱网 http:// 中国娱乐基地:http://

数字音频信号 篇5

关键词:数字音频信号眼图传输系统

1 前言

无线局大功率广播发射台站的主要作用是:利用中短波广播发射机实现对音频信号的远距离传输。发射机的音频调制信号来源较多, 通常接收数字卫星广播信号, 经解码、解复用后, 由数字音频传输系统送到各大功率调幅广播发射机的低频输入端, 作为调制信号, 经D/A转换后, 由广播发射机进行幅度调制发送至各服务区。数字音频信号的传输质量, 直接影响着发射机的播出效果。

为了能够优化节目传输质量性能, 提高节目收听效果, 充分了解数学音频信号传输性能, 维护好数字音频信号的传输链路是安全传输发射的一项重要任务。而眼图无疑是评估数字通信链路质量最有效、简单的方法之一, 它会在很大程度上将数字传输信道上各类参数展示在我们眼前。通过眼图我们可以对接收滤波器的特性加以调整, 以减小码间串扰, 改善系统的传输特性。通过眼图, 我们还可以估计系统的防噪声能力和信道受到噪声干扰的情况。

2 数字信号的基带传输

数字音频信号首先是数字信号, 它的传输系统包括了基带传输和载波传输。数字基带信号都是矩形波形, 在研究频谱时常常只画出能量最集中的频谱范围, 但这些基带信号在频域内实际上是无穷延伸的。如果直接采用矩形脉冲的基带信号作为传输码型, 由于实际信道的频带都是有限的, 则传输系统接收端所得的信号频谱必定与发送端不同, 这就会使接收端数字基带信号的波形失真。因此常采用滤波器产生出平滑波形进行传输。

如图1所示:数字基带信号的产生过程可分为码型编码和波形形成两步。码型编码的输出信号为δ脉冲序列, 波形形成网络的作用则是将每个δ脉冲转换为一定波形的信号。

根据奈奎斯特第一准则:当数字信号通过传输系统时, 接收波形满足抽样值无失真传输的充要条件是仅在本码元的抽样时刻上有最大值, 而对其他码元的抽样时刻信号值无影响, 即在抽样点上不存在码间干扰。也就是说:如果信号经传输后整个波形发生了变化, 但只要其特定点的抽样值保持不变, 那么用再次抽样的办法, 仍然可以准确无误地恢复出原始信码, 因为信息完全携带在抽样幅度值上。

因此, 在大多数有线传输情况下, 信号频带不是陡然截止的, 而且基带频谱也是逐渐衰减的, 这与设计时所确定的滚降系数有关, 如图2所示:当输入端信号为“1”时, 其输出波形如图2 (a) 所示, 该码元y (t) 只要在t0时刻为判决时刻, 就能恢复出信号, 在下一个码元判决时刻t0+Tb到来时为0, 就不会造成串扰。

3 眼图的形成及其测量

尽管数字信号的传输相对于模拟信号而言, 有极大的优势, 但要使其达到理想的传输特性任然是很困难的, 甚至是不可能的, 因为码间串扰和噪声对系统的影响无法彻底消除。

为了对系统性能有一个直观的了解, 可利用示波器, 再现码元传输效果, 从而对系统性能进行估计, 这就是眼图法, 示波器所获图形即为眼图。

具体做法如下:取一台带有时域分析功能的示波器, 将待测信号加到该示波器的输入端, 同时把位定时信号作为扫描同步信号, 也可以调整示波器的水平扫描周期, 使示波器的扫描周期与接收码元的周期同步。从而估计出系统性能的优劣。对于二进制数字信号而言, 示波器的图形与人眼想象, 所以称为“眼图”。利用带时域分析的示波器, 使用连续比特位的眼图生成方法, 能快速测量眼图和抖动。如图3所示, 第一步示波器采集到一长串连续的数据波形;第二步, 使用软件恢复时钟, 用恢复的时钟切割每个比特的波形, 最后一步是把所有比特重叠, 得到眼图。

眼图显示了数据波形图可能取得的所有瞬时值, 在完全随机输入情况下, 各个波形叠加后会在眼图中形成若干眼孔, 眼孔的开启状况能充分说明传输信号的质量, 在有符号间干扰和噪声的情况下, 眼图由许多有一定偏移的线条组成, 看起来犹如构成眼图的线条变宽了, 这等效于眼图聚焦点扩散, 水平和垂直方向眼睛的张开程度都减小了。在无码间串扰和噪声的理想情况下, 波形无失真, 眼开启的最大, 当有码间串扰时, 波形失真, 引起眼部分闭合。若再加上噪声的影响, 则使眼图的线条变得模糊, 眼开启的小了, 因此, 眼张开的大小表示失真的程度。由此可知, 眼图能直观地表明码间串扰和噪声的影响, 可评价一个传输系统性能的优劣。当把眼图抽象为一个模型时, 可以由眼图获得以图4信息:

(1) 最佳抽样时刻应选在眼图张开最大的时刻, 此时的信噪比最大。

(2) 眼图斜边的斜率反映出系统对定时误差的灵敏度、斜边越陡, 对定时误差越灵敏, 对定时稳定性要求越高。

(3) 在抽样时刻, 上下两个阴影区的高度称为信号失真量, 它是噪声和码间串扰叠加的结果, 当码间串扰十分严重时, 眼睛会完全闭合, 此时信息码元无法经过抽样判决准确恢复, 因此必须对码间串扰进行纠正。

4 眼图在数字音频信号传输中的作用

在基层台站中, 我们从卫星接收天线接收数字音频信号, 在远离接收端的发射机房, 我们采用光传输系统进行传输, 在离接收端较近的发射机房, 采用数字音频电缆进行传输。系统中涵盖了光传输、电传输等设备。随着使用时间的推延, 设备和线路的老化, 元器件性能发生变化等原因, 势必造成系统性能有所下降, 这时候对系统建立一套行之有效的测试, 分析方法将对系统的维护, 保证信号的有效传输起到重要的作用。而利用眼图测量法, 是检验系统传输性能最简便及行之有效的方法之一。

我们知道, 在数字音频信号的传输中, 主要的测试指标有:数字信号的幅值;传输阻抗、信号延时、抖动等。在实际应用中, 传输系统异常的表现形式多种多样, 但最本质的表现均为数字音频信号的传输误码。

通过眼图的张合, 可以判断传输系统误码率程度, 从而采取有效措施, 提高传输质量。

数字信道的干扰主要有加性干扰和乘性干扰。加性干扰表现在眼图上, 主要改变图形的纵向张合度, 它往往是由于地阻抗耦合、漏电流等因素产生的干扰, 叠加在了信号上。此时, 可能是因为线路老化引起, 可加强屏蔽、接地、隔离、滤波或更换传输线, 加强线间转换匹配等方法加以抑制。而由于传输线的衰减、时延和阻抗失配等因素引起的反射干扰和码间干扰将使信号眼图产生畸变, 这类信号称为乘性干扰, 它往往使码元间产生抖动。此时可以观察:周期性抖动, 常来自于开关电源和串扰, 而随机抖动, 可考虑基准时钟和锁相环PAL电路。

通过对传输线路的分段测量和定期测量所得基础数据的积累和比较, 可以更准确地掌握传输设备的运行规律, 从而进一步总结维护经验。

5 结束语

在实际使用中, 大多数数字音频信号的传输异常故障, 通过示波器, 利用眼图的日常测量可以预防, 同时, 我们也可以利用眼图, 了解系统的传输性能是否有所下降, 并及时加以处理, 从而保证了信号传输的高品质。

参考文献

[1]张卫纲.通信原理与通信技术[M].西安电子科技大学出版社, 2003.

[2]李建兴.现代通信系统与仿真[M].机械工业出版社, 2005.

数字音频信号 篇6

1 视音频信号的数字化过程

模拟视音频信号实现数字化需完成取样、量化、编码三个过程,称为脉冲编码调制PCM (Pulse Code Modulation)。

取样,是指在时间(或空间)上用有限个取样点来代替连续无限的坐标位置。根据奈奎斯特取样定理,取样频率必须大于等于2倍模拟信号的最高频率,在接收端通过低通滤波器恢复离散的模拟样值序列。

量化,是对取样得到的样值序列的幅度进行离散化处理,将连续变化的无穷多个样值的幅度用有限的近似样值的幅度来表示,把离散脉冲的幅度进行舍零取整的过程。量化的级数的多少取决于量化比特数的多少,量化比特数越多,量化级越多,产生的量化误差越小,解码后恢复的模拟信号失真也越小。一般每增加或减少1 bit,就使量化信噪比增加或减少6 dB。对于音频和视频信号,通常采用非均匀量化,小信号时量化间隔小些,大信号时量化间隔随之大一些,使信噪比趋于一致。

编码是指用一组组二进制数依次表示一个个量化后的脉冲幅度值,并把它们排列起来组成数据信息流的过程。

2 视音频信号的编码技术

2.1 视频信号的编码方式

视频信号的编码分为复合编码与分量编码两种。

复合编码是将复合彩色全电视信号直接进行数字化,编码成PCM信号。由于取样频率与副载波频率间的差拍造成的干扰影响图像质量,复合编码已经淘汰。

分量编码是对三基色信号R、G、B分量或者是对亮度信号Y和两个色差信号R-Y和B-Y分别进行数字化,编码成二进制的脉冲编码调制PCM信号,然后以时分复用的方式混合在一起,构成PCM分量编码信号。其优点是编码与电视制式无关,便于电视制式转换和统一;由于对分量分别编码,采用时分复用方式混合在一起,从而有效地避免了亮/色互相串扰,可获得高质量的图像。

2.2 视频信号的取样格式

视频信号数字化时分为625行/50场制式和525行/60场制式。一副完整的图像都是通过两场隔行扫描完成的,一幅图像既有水平扫描又有垂直扫描。取样点通常采用正交结构,为了满足正交结构,要求取样频率必须是行频率的整数倍。为了实现两种扫描制式的兼容,采用同一种取样频率,即625行频和525行频的整数倍,同时还要满足奈奎斯特取样定理,确定亮度信号取样频率为13.5MHz。

由于色差信号的带宽比亮度信号的带宽窄的多,为了降低码率,在分量编码时两个色差信号的取样频率可以低一些。为了满足不同应用场合对图像质量的要求,亮度和色差信号的取样频率可以有不同的比例组合,即不同的取样格式。通常将3.375 MHz作为最低的基准频率。

4:4:4格式,即Y:(B-Y):(R-Y)=13.5 MHz:13.5 MHz:13.5MHz,适用于高质量图像信号源;

4:2:2格式,即Y:(B-Y):(R-Y)=13.5MHz:6.75MHz:6.75MHz,适用于标准清晰度电视(SDTV)演播室中;

4:2:0格式,即Y:(B-Y):(R-Y)=13.5 MHz:3.375 MHz:3.375 MHz,其实质上为4:1:1格式,适用于SDTV信源编码中。

2.3 数字电视信号的码率

国际电信联盟的无线电委员会(称为ITU-R)数字演播室标准CCIR-601,确定了以分量编码4:2:2标准作为演播室彩色电视信号数字编码的国际标准,对彩色电视信号的编码方式、取样频率、取样结构等都做了明确的规定。625行/50场和525行/60两种制式的亮度信号每行取样点分别为864个和858个,有效取样点数均为720个,取样频率为13.5MHz,行逆程取样点数分别为144个138个。两个色差信号每行分别取样432和429行,有效取样点均为360个,取样频率为6.75 MHz,行逆程取样点分别为72个和69个。

标准清晰度数字电视(SDTV)的码率=亮度信号的码率+2个色差信号的码率=13.5 MHz×10 bit+2×6.75 MHz×10bit=270 Mbit/s (取10 bit量化)

高清晰度数字电视(HDTV)的码率=亮度信号的码率+2个色差信号的码率=1485 Mbit/s (亮度信号取样频率为74.25MHz,取10 bit量化)

2.4 音频信号的数字化

音频信号都是复合信号,基本参数有频率、幅度和带宽。频率决定音调高低,幅度决定声音的大小或强弱,带宽决定音频信号的频率范围。人耳能听到的最大频率范围是10 Hz~20kHz。衡量音频信号数字化有三个指标:取样频率的大小、量化比特数、声道的多少。取样频率通常为11.05kHz、20.05kHz、44.1kHz、48 kHz等,常采用8比特和16比特量化;声道数可分为单声道、双声道(立体声)、环绕立体声(5声道)。

数字音频存储量=取样频率×量化比特数×声道数/8bit (字节)

3 压缩编码技术

压缩编码技术就是在发送端对数字信号进行变换处理的一种方法,其目的是去掉数字信号中冗余信息(数据),尽可能地降低信号的数码率,形成一个传输效率更高的数字信号。数字信号首先进入预测编码器,消除数据中的统计相关冗余,包括空间相关与时间相关冗余,再经过变换编码,把时域信号变换为空间域(频域)信号,实现码率的压缩。之后再通过量化编码、熵编码及缓冲器进一步压缩数码率,并保证数码率以平稳的速率达到与信道容量相匹配。缓冲器输出的信号再通过多工时分复用器与伴音、同步及其他辅助数据信号组成复合信号,最后送入信道编码器。

预测编码:又称差分脉冲调制编码(Differential Pulse Code Modulation,DPCM)。利用某种数学模式和已经传输的像素值(数据)进行预测,预测出一个与当前传输的像素值相接近的估计值,进而把当前要传输的像素值减去预测值,得到一个误差值,将误差值编码后传输出去。在接收端将收到的误差值解码后,再与预测值相加,即可得到当前要传输的像素值。

变换编码:基本思想是不直接对空间域图像数据进行编码,而是首先将原来空间域上的图像数据变换到另一个正交向量空间(变换域或频域)中,得到相应的一组变换系统,然后对这些变换系数进行量化、编码和传输,又称为正交变换编码。常用的变换编码有离散傅立叶变换和离散余弦变换DCT (Discrete Cosine Transform)。为了避免傅立叶变换的复数运算,常采用DCT变换,将一幅图像分为多个8×8个像素样值的子像块,即64个点的离散信号,通过DCT输出64个正交基信号,每个正交基信号的幅值称为DCT系数。由于高频分量DCT系数经常为0,仅对低频分量系数进行量化编码,大大压缩了数据量。

熵编码:又称统计编码,是一种无损编码。常用的有霍夫曼编码,先把信源符号按出现的概率由大到小顺序排列,然后按相反的顺序分配码字的长度。缺点是要求事先知道各信源符号出现的概率,否则效率会明显下降。

数字视频的运动补偿编码:是一种帧间预测编码,具有较大的数码压缩率,是运动图像视频编码国际标准(H.261、MPEG-1、MPEG-2)采用的关键技术之一。帧间预测编码基本原理是选择前一帧作为预测参考帧,在传输前一帧的基础上,只要传输前帧与后一帧对应像素的差值信号,在接收端只要将前一帧与差值相“加”,同样能得到后一帧。

运动补偿编码主要解决两个问题,即运动估计和运动补偿。运动估计就是对运动物体从前一帧到后一帧位移的方向和像素数做出估计,也就是求出运动矢量。运动补偿就是对运动物体的位移量进行补偿。

摘要:本文介绍了视音频信号的数字化过程,对视音频信号数字化的编码方式、取样格式和压缩编码技术要点进行分析。

关键词:视音频信号,数字化,压缩技术

参考文献

[1]吴恩学.数字电视实用技术[M].北京:教育科学出版社,2009.

数字音频信号 篇7

随着数字电视的普及, 越来越多的演播室, 工作站、转播车等视音频制作系统采用数字接口对视音频信号进行传输。庞大的系统及设备的多样性, 要求保障各设备之间的同步是系统正常工作的先决条件。

传统模拟视音频设备之间的同步是由记录载体中记录的时间码来实现的, 但在数字领域却不是这么简单, 它引入模拟系统中没有的时钟概念, 正是通过时钟才能确定各数字音频设备的数字信号码的起始点, 避免整个系统由于同步不正确而造成的信号失落或引入数字噪声。

数字音频信号标准有很多标准, 例如:SPDIF、AES3/EBU、midi等等。在电视行业所从事的工作当中接触最多的是AES3/EBU标准, 由美国声学工程协会和欧广联共同制定 (以下简称AES3) , AES3标准是1985年首先发布的, 在标准执行一段时间后, 实践当中发现由于接口和电缆特性阻抗之间的匹配问题造成数字信号在线缆传输过程当中极易发生畸变, 影响时钟信号再生, 误码率升高。为此1992年对原标准进行修改, 修改后的数字音频AES3标准主要参数:量化比特:16~20bit取样频率:30~50kHz, 通常采用32k Hz, 44.1k Hz, 48k Hz三种, 44.1kHz用在CD音质, 48kHz用在广播电视领域较多。

2 数字音频信号AES/EBU及其接口

帧结构如一帧包括两个子帧 (Sub Frame) (子帧A和子帧B) , 一个子帧包括来自一个音频源或声道的样值数据20bit、同步数据4bit、附加数据 (辅助数据) 4bit、有效比特 (V) 1bit、用户比特 (U) 1bit、声道状态比特 (C) 1bit和奇偶校验比特 (P) 1bit, 一子帧总共32bit一帧64bit。音频每192个帧构成一个块 (Block) 。在数据流中由一个标志符Z标识每个块的开始。

帧结构为每帧包含2通道音频, 每通道32bit, 共64bit;数据结构如图1所示。

一个子帧为32bit, 也就4Bytes, 两个字帧形成一个8Bytes帧, 192个帧形成一个块, 一个块为192×8=1536 Bytes, 每个块总共可以传输192个双声道Sample (192对子块) 。

一帧的数据 (包含两个声音采样) 在一个采样周期内被传送出去, 其数据率是随选取的采样率来决定的。

虽然可以选择不同的取样频率, AES/EBU实际建议采样频率为48kHz, 这样既能保证得到高质量的数字音频信号, 又能保证音频采样频率和视频采样频率保持简单的换算关系, 视频信号处理器内部的27MHz主振荡器经过1125/256分频产生6.144MHz作为AES3的参考主时钟 (相应的AES3码率3.072MHz=6.144/2.数字音频的取样频率4.8kHz=6.144/128) , 有利于解决数字视音信号之间的同步问题。

这样的话以48kHz取样频率所产生的数字码率为3.072MHz=48k Hz X64bit, 如果按通常要求线路传输保证基带频率的5次谐波不产生失真, 那么线路带宽必须大于15MHz, 已经超出标准模拟清晰度电视信号的带宽, 这样的带宽对传输数字音频信号的通路、连接件都有着更高的要求, 其中AES/EBU和接口有关的参数见表1。

从表中可以看出AES3-1992实际上是针对一直使用的模拟音频物理接口标准的, 但标准明确提出要用数字音频线进行连接, 且只能点对点, 不能并接, 若需要并接时必须加分配放大器, 这一点与模拟音频的传输不同, 这是因为传统的模拟音频信号对线缆的阻抗特性没有太高要求, 长距离传输以及电缆分布电容的影响往往更多的是造成信号幅频特性的下降, 而数字信号传输对电缆阻抗特性要求较高, 任何造成时钟信息精度下降的因素都可能影响数字音频信号正确的编解码。数字音频以48kHz取样为例, 其带宽达到3.073MHz=48kHzX64bit, 其波长比模拟声频信号要短得多, 如果不严格要求传输电缆和连接器件的特性阻抗匹配, 势必影响数字信号的传输。

对于AES-ID标准 (ID:Information Document) , 是对AES-1992的一种补充, 数据传输格式与AES3相同, 重点是接口和电器特性的不同, 它是沿用专业视频设备的BNC传输接口, 由于上述原因早期生产的模拟视频电缆和接口已不适应传输AES-ID标准的数字音频信号, 必须采用改进过后的精密数字视频电缆。由于接口小、传输距离长, 可嵌入视频信号内同步传输, AES-ID接口目前使用范围越来越广, 很多只处理音频信号的设备也开始使用此标准接口。需要注意的是对于AES3-1992与AES3-ID标准接口相互连接时, 必须利用阻抗转换器, 而不能简单地利用连线转接。

3 数字音频信号的测量单位监视

音频测量通常用电平来表示, 单位:dB (分贝) , 这是因为音频信号有着很宽的动态范围, 用dB表示可将电压或功率的测量值用对数的函数形式来表示。因为人耳的听觉与音频信号幅度呈对数关系, 使用dB, 还便于我们定量地改变音频信号幅度。

在音频测量中也对dBm作了规定。0dBm是以600Ω作为负载阻抗, 在其上加0.775V电压, 相应功率1mW为基准功率。这样, 在使用这个等式时, dBm就相当于施加在600欧负载上的电压产生的功率与施加标准0.775V电压值产生的功率比。您可以计算出音频测量中常用的dB测量值, 它们用如下等式来表示:

在早期的音频系统连接中, 要求音频设备输入输出之间严格的按照阻抗匹配原则, 输出接口的内阻和输入接口的内阻相等, 为600Ω。随着技术的发展, 现在的音频设备连接, 已经形成低阻输出高阻输入的配接方式, 往往是输出阻抗在100Ω以下, 输入阻抗在10000Ω以上, 这种连接方式既方便了设备连接, 又为设备的级联提供方便。相应的电平测量单位也发生了变化, 往往不再采用dBm, 而用dBμ进行表达, 只对负载电压进行比较, 而不考虑负载的阻抗大小。若要使0dBμ=0dBm, 前提是跨连600Ω负载。

当采用1kHz标准测试信号, 负载有效电压为1.228V, 此时的电平值为20lg1228/775=4dBμ。

这就是目前世界大部分国家都在使用的专业设备电声系统参考电平。

在消费类电子领域里, 参考电压由0.775V改为1V, 相应的电平值单位为dBV。可以看出输入电压不变的情况下, 在专业领域电平显示的dBμ数值要大于显示的dBV数值。

最简单的音频监视形式是使用能够显示音频信号幅度的电平表。有两种类型的电平表, 即VU (Volume Unit) 表和PPM表 (Peak Program Meter) , 二者之间有着明显的差别。

VU表和PPM对音频节目素材表现出不同的响应。VU表显示的是音频信号的平均音量电平, 它具有对称的上升和降落时间, 其积累时间相对较长 (典型值为300ms) 。积累时间主要由表内指针结构的机械惯性所决定。VU表虽然反映着信号的平均值, 但其刻度是按照正弦波信号的有效值校准, 实际上是一种准平均值 (实际值为准平均值的0.9倍) , 表盘上有对数和百分比数两种刻度, 把大约满刻度的3/4处定位为基准电平 (0VU或100%处, 从基准点到满刻度有3dB的红色警示区域) 如图2所示。

PPM表显示的是音频信号的峰值音量电平, 它具有较快的上升时间 (10ms) 和较慢的降落时间 (2.85s) , 其积累时间为10ms。也是按照正弦波信号有效峰值校准的, 有着相应的红色预警区, PPM中的电子电路用以补偿机械摆动的惯性。由于存在着这些差别, 因此VU表和PPM对音频节目素材一般有着不同的响应。

在PPM表中又分为模拟PPM表和数字PPM表, 两者在数值上和VU表的对应关系也不尽相同。DPPM是根据量化后数据所能表示的最大极限值, 标称为满刻度电平0dBFs (Fs:即Full scale满刻度) , 没有VU和模拟PPM的警示区。

在用音频测试序列对系统进行调整时, 在使用相同的音频节目的情况下, 由于声音信号的峰值不同PPM应当比VU表有较低的读数才能使二者等效。使用VU读数时, 实际读数的大小往往能直接反映出听觉强度变化的真实大小, 但反映不出声音信号峰值变化的情况, 无法判断在某一时刻峰值是否已经超出动态范围;相对来说PPM表能对节目峰值电平给出更为可靠的控制, 它的缺点是表头所显示的数据不一定反映出音频信号的响度。

4 数字音频设备基准电平

目前世界上对于数字音频基准电平主要有两个不同标准, 一个是欧广联的EBU R-2000标准, 规定数字音频基准电平为-18d BFs, 主要在欧洲和日本使用, 另一个为美国电影电视协会的SMPTE RP155-1997标准, 其规定音频基准电平为-20dBFs, 我国采用的数字音频基准电平与全美SMPTE RP155-1997标准数值上一样。

不同的设备厂商采用的标准也不尽相同, 比如SONY设备采用SMPTE RP155-1997, 以-20dBFs为基准, 而松下设备以EBU R-2000-18dBFs为标准, 这种标准之间的差异给实际工作带来不便, 三者之间的对应关系见表2。

从表中不难看出EBU R-2000标准中音频指标的动态储备明显要小于SMPTE RP155-1997标准, 这种标准间的差别直接的影响就是在用户素材交换过程中声音的基准值不确定, 难免造成声音指标的忽大忽小, 为保证音频信号不产生衔接失真, 必须确认素材的基准电平, 在带头录制一定长度的标准千周信号就是为用户在编辑素材之前确定基准电平时使用。

为避免由于采用标准的不统一给使用者造成不便, 不少厂商在设备内部设置不同菜单选项以方便用户根据实际情况进行调用。

5 数字音频设备之间的同步

随着数字化的普及, 现在广播电视行业已经拥有了大量的数字音视频设备, 但就数字音频设备同步来讲, 已经不同于传统的模拟音频, 保证模拟音频同步的时间码同步在音频数字化之后其作用在不断减小。数字音频同步一般指数字音频设备之间同步和数字音频与数字视频之间同步两个方面。

字时钟在音频领域里的应用。

每台数字音频设备当它本身输出一定码流数字音频信号时, 相应的取样频率已经决定了其时钟的频率, 当把这段数字音频信号进行复制编辑时, 所使用的编辑设备两者之间必须同步。有一台设备提供主同步时钟, 另一台设备作为从同步时钟。

按照视频业界的AES3标准来传输数字音频已经延续多年。在AES3标准中, 其接口为串行数据码流, 没有单独的时钟信号, 为使接收机恢复数据, 应当从传送的数据码流中抽取时钟信息。为此, 只需采用一种简单的编码方案即可实现, 这种编码称为双相标志编码, 如图3所示。

在双相标志编码中, 每隔一个比特周期发生一次电平转换, 当数据值为“1”时, 则在后半个比特周期内再一次发生电平转换。采用双相标志编码, 可以很容易地从数据中抽取时钟, 并且使信号传输具有最少的直流分量。由于双相标志编码是用电平的转换来表示数据值, 因此这样的编码信号对极性也不敏感。

如果系统中只有两台设备作简单的输出与接收时, 由于编码的格式采用双向标志编码, 两者之间的时钟很容易同步。把数字音频输出设备的时钟设为内部时钟状态, 数字音频输入设备的时钟设为外同步状态, 使输入信号设备本身的时钟锁定于输入信号的取样频率, 形成两者之间的同步。

在多设备搭建的数字音频系统中, 为了使所有设备与同一时钟进行锁定, 这些设备就需要有专门的时钟参考信号的输入接口。这个接口就是WORD参考信号接口, 一般设备上标注为:WORD REF或WORD SYNC。

WORD同步信号是一个占空比为50%的方波, 其频率等于设备的取样频率, 物理接口使用BNC连接件, 匹配阻抗为75欧, 信号电平为5V左右的TTL信号。

由于WORD信号的频率与AES3/EBU信号的帧频相等, 使用它作为系统中所有形成AES3码流信号设备的参考信号不仅能保证每台设备的取样频率一样, 也能保证他们输出的AES3信号每帧的相位相同。而且由于WORD信号频率比AES3帧频较低, 信号幅度较高, 更能满足长距离传输时对时钟信号的要求。

在只为做单纯性音频节目系统当中, 除了一些简单的只用AES3连接输入输出接口的音频设备外 (数字压缩器、混响器、效果器等) , 其他所有进出系统的声音信号记录回放设备、音频信号采集设备 (音频放机/录机、数字话筒放大器, 模数转换器等) 都应当配备WORD接口, 选择好合适的主时钟信号, 使这些设备接收主时钟设备输出的WORD信号。只有系统当中所有设备的时钟完全锁定于WORD信号, 才能保证多声道信号处理设备 (调音台、工作站等) 从任何信号源得到的数据量是一样的, 确保数字音频信号能够在系统中正确的传输使用。

字时钟在视频领域里的应用按照视频业界的AES3标准来传输数字音频已经延续多年。AES3标准支持多个取样频率, 这些频率可以是32kHz、44.1kHz (CD用) 和48kHz (专业用) , 其中后者在视频设施中获得广泛应用。所以现在很多数字音频设备都具有将AES3码流锁定到视频同步信号的功能。往往用视频同步信号 (黑场、或三电平信号) 代替WORD信号为数字音频设备提供同步基准。在物理接口上两者都同样为BNC接头, 但传输的信号不同。

对于SDI或是HSDI, 无论是嵌入方式还是非嵌入方式, 视频信号每一帧对应有多少音频采样点都有严格的规定。无论或多或少都会造成在视音频切换当中音频数据的丢失, 影响音频的编解码, 严重的会造成数字噪音“咔咔咔”现象。

在电视节目制作当中, 声音的同步总是要跟随图像一致, 音频系统中的参考时间码必须和视频同步信号之间进行锁定, 这在SMPTE和EBU相关技术标准中有严格规定。

最后合成的声像信号中声音相对于图像的滞后时间能保证在一帧之内, 已基本满足观众对声像同步上的要求, 但在目前音视频具有各自通道的情况下, 往往视频处理环节 (特技、效果、上下变换等) 多于音频, 音频反而在时间上超前视频图像, 这种现象比音频滞后视频更加敏感, 也更难以接受, 解决的办法只有加存储器。至于嵌入和非嵌入音频的选择应当根据实际需要而定。

摘要:数字音频信号的大量使用, 对广播电视制作的要求也越来越高, 本文对实际工作当中数字音频信号的一些应用特点, AES/EBU及其接口, 数字音频信号的测量单位监视, 数字音频设备基准电平, 数字音频设备之间的同步等基本知识进行简单介绍。

数字音频信号 篇8

该模拟音频处理模块, 主要由贝塞尔滤波、音频信号平衡非平衡变换、音频加直流、自动功率补偿、数字控制音频衰减、音频末级处理等功能模块组成, 主要给下一级的A/D转换电路提供含有直流及抖动信号成分的单端非平衡音频信号及B- 信号。

1贝塞尔滤波器电路

贝塞尔滤波器电路, 主要完成滤除干扰信号及对过大音频进行限幅的作用, 能滤掉音频频带以上的频率成分, 而且不会引起过冲。当音频信号很强时, 会造成强烈的限幅, 只要滤波器匹配适当, 方波过冲并不明显。

2音频信号的平衡不平衡变换电路

音频信号的平衡不平衡变换电路, 完成输入音频的平衡非平衡变换, 即音频前端送过来的平衡音频信号, 通过平衡非平衡转换电路, 转换成便于处理的非平衡单端音频信号。

3音频+ 直流电路

从10kW DAM数字调制发射机的工作与案例中得知, 开启或关闭的功放数量与发射机的输入音频幅度有关, 为了保证发射机无音频调制时的静态载波功率, 系统采用音频+ 直流的方式, 保证18个左右的大台阶功放的开启, 保证发射机无音频输入时的静态功率, 因此, 音频+ 直流电路, 保持发射机静态输出载波功率, 直流分量决定发射机的载波功率, 音频分量用于调制发射机。

4自动功率补偿电路

自动功率补偿电路, 为了避免外部供电电压影响发射机输出功率, 根据电源采样参数及发射机功率采样参数, 通过模拟乘法器, 产生音频+ 直流的动态控制信号, 对发射机功率进行动态补偿控制。自动功率补偿电路, 通过动态功率补偿的方式, 维持发射机的额定功率输出。

5数控衰减器

数控衰减器, 通过数控电位器, 对音频信号幅度进行控制线性控制, 在保持恒定输出阻抗的同时, 还响应保护信号、完成数字音频存储器清零等任务。

6音频末级电路模块

该模块的功能有两个, 一是给A/D转换器提供音频+ 直流+ 抖动信号, 二是给B- 电源提供音频+ 直流信号, 用于B- 信号的产生。

音频+ 直流信号上叠加抖动信号, 能优化发射机的噪声性能。当适叠加抖动信号后, 能使发射机的信噪比提高几个dB。抖动信号的频率固定在72kHz, 恰好可以滤除被输出带通网络, 以免产生不需要的寄生信号。叠加抖动信号之所以能提高发射机的信噪比, 是因为在A/D转换过程中, 存在 ±1的数码不确定性, 当模拟输入变化时, 由于存在这个不确定性, 在DAM数字调制发射机的调制包络上, 引起不可能被带通滤波器滤除的尖状缺陷, 而抖动信号可以减轻这个噪声。

音频+ 直流信送给B- 电源后, 产生B- 信号。B- 信号参与48个功放的开启或关闭过程的控制。

摘要:音频处理板是DAM10k W发射机的模拟音频处理模块, 主要对发射机输入信号进行预处理, 将一个含有直流及抖动分量的音频信号送给模数转换板, 与此同时, 还输出B-采样信号任务, 本文主要分析了该音频处理模块的原理及作用, 供同行们参考。

音频信号内容比对实用算法 篇9

1.1信号传输拓扑示意图

广播电视信号制作好以后, 通过各种媒介传输到覆盖设备的前端, 进行编码调制后送达最终受众的终端。覆盖方式主要包含无线覆盖 (发射机房) 、有线覆盖 (有线电视网络) 、互联网覆盖 (网络数字媒体) 、卫星覆盖等, 示意图如下:

一般来说作为覆盖设备的机房, 其信号源都需要有来自不同路由的主、备路, 如图中所示。主、备路由有各种不同的组合, 如双光纤 (路由不同) , 或一路光纤、一路微波, 也有些机房还会使用接收自卫星的信号作为备用信号源, 如图中的“发射机房”。

1.2 非法信号入侵的途径

如图1所示, 以“发射机房”为例。由于传输路途可能很遥远, 实际上每一种传输路径都有可能被插播。光纤可能被窃听, 获取传输格式, 然后切断插入非法信号;微波传输, 在靠近的地点使用大功率非法信号波束照射接收天线, 可能压制合法信号;卫星接收的信号源, 当卫星被非法信号攻击时, 也可能被非法插播。

虽然实现上述插播方式有一定难度, 遭遇到的可能性不高, 但安全播出的要求很高, 还是需要对一切可能的安全播出隐患做出防范对策。

2 防非法插播的技术策略和关键算法

2.1 技术策略分析选择

如果直接对信号源的内容意义进行分析, 判断其内容是否符合政策和宣传要求, 那么按现有的计算机软件软件技术而言, 不仅难度非常高, 而且准确率和实时性也很难满足要求。但是考虑到实际上信号源有多路的情况下, 我们可以用更简单的办法来判断是否有哪路信号路径被插播。那就是把同一节目的来自不同路由的信号源拿来进行内容比对, 如果所有路由的信号内容全部相同, 那么说明信号是安全的;否则, 说明其中必有一路信号被非法插播, 这时就要马上输出报警信息, 等待人工对信号内容进行识别判断。如果信号源路由超过2路, 也可以先把内容与众不同的那一路排除出去, 从内容相同的信号源中选一路输出去播出, 然后再报警请求人工监听的最后裁决。

使用内容比对的方法, 我们不需要对信号内容的意义做出判断, 只需要对不同信号源的内容是否一致做出判断即可, 这样对技术上的要求就降低到了可行的程度。

2.2 音频信号内容比对的依据

可用的技术手段, 无非是用于音频信号处理的电路硬件和对采样数据进行分析的软件。关键在于对信号源内容是否一致的特征提取。如果对某路音频信号源的信号波形用示波器进行观察, 可以发现每当播音员讲话或播放音乐时, 示波器上都会出现相应的波包, 而当出现节目间隙、语言语句之间的间隙、音乐之间的间隙的时候, 示波器上的波形就近乎一条直线 (幅度近乎零) 。如图2~图5所示:

我们可以把语音节目的内容, 看成是由各种不同时间长度和幅度变化规律的波包, 以及各种不同时间长度的间隙组成的信息系列。这种系列与节目内容一一对应, 相同的节目内容必有完全相同的系列, 而不同的系列则意味着不同的节目内容。图2展示了两路内容相同、没有时延差的语言信号的信息系列, 图3是内容不同的信息系列。

因此, 我们就把对内容的判断转化成对音频信息系列的比对判断, 如果信息系列完全相同则内容相同, 否则内容不同。从图2~图5可以看出来, 只要比对的信号中有一路是纯语言类, 内容相同与否其特征非常明显;音乐 (或带音乐背景) 类信号之间, 以及与准白噪声之间的波包特征差别较小甚至难于分辨。

2.3 具体电路和关键算法

来自不同路由的音频信号可能存在时间延迟, 即不同步的问题。因此在进行信号比对之前必须先把两路信号的时间点“拉”齐, 一般是把先到达的信号延时然后与后到达的信号对齐在同一时间点。假设最大可能的信号时间延迟为5秒, 用于信号比对的时长为3秒, 下面讨论不同处理算法的资源开销。

2.3.1 直接对音频信号高速采样的比对方案

直接的音频信号采样, 为了不漏掉任何一个信号上升下降细节, 采样率最好是最高信号频率分量的十倍以上。调频立体声的音频信号最高频率达15 KHz, 采样率需要达到150 KB/S。因为比对前不知道两路信号哪一路的延时更多, 所以实际需要截取的信号时长是比对时长与最大信号延时时长之和, 即8秒。每一路信号8 s时长的采样数据个数为8*150K=1200K。为了得到信号比对的结果, 需要对每一路信号的采样数据逐个后移, 取其后3 s的数据与另一路信号的前3 s数据进行逐个比对, 因此最大的比对次数为2*5*150K*3*150K=6.75*1011次, 而每次比对都需要取数、运算、比较判断、统计存储等操作, 最少也需要10个指令周期, 就算都是单时钟周期指令, 总共也需要6.75*1012个时钟周期, 这一切需要在3秒内完成, 所以每秒需要最少2.25*1012个时钟, 即时钟频率要达到2250GHz。这还只是进行两路信号的比对运算量, 如果要求更多路信号的比对, 运算量还要大得多。这样的运算速度对于单核的芯片是很难完成的, 需要多核的高速芯片并行计算才可能实现。因此这种方案成本太高, 现实可行性差。

2.3.2 先对信号进行包络检波, 再低速采样的比对方案

如果先对音频信号进行幅度变化的包络检波——简单的预处理, 那么虽然我们失去了波形的瞬间 (毫秒级) 幅度变化细节, 但是还是可以保留语句、音乐等间隙和幅度变化的整体趋势等最重要的特征信息, 而这些信息对内容比对来说就已经足够了, 这样做的结果就是可以极大降低比对所需要的运算速度。下面以图6的预处理电路参数为例说明:

上图中的检波电路可以消除检波二极管死区电压的影响, 即使只有几十毫伏的音频信号也能得到正常的包络输出。包络跟踪的R1C1=47 ms, 因此采样周期可以取5 ms, 即采样速率200 B/S。对于时长3 s、最大可能延时量5 s的两路音频数据进行完整比对所需要的最大比对次数为2*5*200*3*200=1.2*106次, 需要的总时钟周期数为1.2*107, 如果运算时间最长为3 s, 则时钟频率要求为最小4MHz。这样的运算速度要求还不到上一方案的百万分之一, 使用价格便宜的51系列单片机就可以实现了。当然, 使用运算速度更快的芯片或DSP可以获得更快的反应速度, 实时性更令人满意。

2.3.3 采样数据的比对处理和判断基准

在两路音频信号之间进行采样数据比对, 还要考虑信号本身的幅度问题。内容相同的信号幅度不一定相同, 但对采样数据进行比对时, 其比例应该是相同的, 这一比例值可以取一段时间长度 (例如8 s) 中两路信号最大采样值之比为“比例参考值”。

对于语言类信号, 使用图6的信号预处理电路, 如果对一段时间长度3秒的采样数据进行逐一比对, 大量的实验表明:1) 如果内容相同, 则采样数据值之比与“比例参考值”误差10%以内的比对结果 (简称“比例一致性”) 个数, 可以占总比对个数的80%以上。这个结论在反复的实验中至少有99%的准确性。2) 如果内容不同, 则“比例一致性”个数, 占总比对个数的50%以下。这个结论在反复的实验中至少有95%的准确性。3) 如果把“比例一致性”的个数是否占总比对个数65%以上, 作为语言类节目内容是否相同的判断基准, 则准确率可达99%以上。4) 对报警实时性放宽要求, 可以极大降低误报率。每增加一次 (3秒) 比对内容不一致的累积才报警, 误报率可以降低100倍。

以上算法的准确性主要受信号的信噪比影响。信噪比20 dB以下的时候, 当信号幅度小的瞬间噪声电平的影响比率增大很多, 影响了其判断的准确度。为了修正这种影响, 可以适当调整“比例一致性”的标准, 例如当采样值为最大值的十分之一以下时, 改用与“比例参考值”误差30%以内作为“比例一致性”的参考标准。

2.3.4 音乐节目信号之间内容比对的优化方法

从图4看到, 音乐节目或含有音乐背景的节目, 其波包的特征比较不明显, 以上述算法去判断准确率是比较低的。因为音乐信号由各种不同的乐器组合而成, 不同乐器其频谱是不同的, 所以可以按频谱对总信号进行分频率段滤波筛选, 分别进行检波采样, 然后再用上述算法判断, 这样做以后准确率依然可以很高。例如可以把300 Hz以下的为一段 (分出鼓类乐器) , 500 Hz~2 000Hz为一段 (中音乐器) , 3 000 Hz以上为一段 (高音乐器) 。分得越细准确度越高, 但是计算量越大, 要求的芯片处理速度越高。

2.3.5 准白噪声信号的识别

某些情况下, 当节目信号丢失时, 信道完全由噪声占据, 表现为幅度连续的宽频谱的“沙沙”声, 这里称之为“准白噪声”。“准白噪声”与音乐信号在总波形的波包特征上差别不大, 很难直接识别出来。但是, 如果按频谱对总信号进行分段筛选, 分段后的波包特征, 音乐信号与准白噪声信号之间的差别还是很明显的。准白噪声信号无论是总信号波包还是分频段的信号波包, 都显示出很“木”的特征, 即起伏很小而且一直不变, 信息含量很低;而音乐信号在分频段之后, 其波包显得很活跃, 并时刻在随着内容的不同而变化着。根据这些特征可以对某路信号是噪声还是音乐节目作出准确的判断。

3 实用系统的组成与应用

现代化覆盖设备的信号源, 已经有很多是数字音频信号, 这种情况可以从其音频分配器的分配口取出后进行数/模转换, 然后再进行内容比对处理, 判断结果作为报警触发信号或自动切换的依据。如图7所示:

图中, 语言类节目只需要用到“总包络检波”的采样数据。“频率段n”是用带通滤波器实现的, 用于音乐类节目的比对和噪声信号的识别。

该比对系统不仅可以应用于中波和调频广播, 也可以对电视节目的伴音进行比对, 通过对伴音内容一致性的识别来判断电视节目是否被插播, 因为节目的语言被插播其后果远超图像被插播。

上一篇:组织机制下一篇:预防措施体系