数字音频传输

2024-06-15

数字音频传输(精选9篇)

数字音频传输 篇1

1 技术路线方案论证

本项目对目前的无线传输系统进行研究, 并结合音频信号的特点, 建立系统模型, 对系统的各个部分进行分析, 给出系统设计的基本原则。对其进行论证、优化, 给出最终结构。本项目用低功耗MSP430系列单片机和无线收发芯片组建数字音频无线传输系统。

2 硬件选择与设计

MSP430F1121型单片机驱动电压范围为1.8V-3.3V, 功耗极低 (在1M主频、2.2V供电电压、工作模式下负载电流仅仅160u A) , 而且其价格非常低廉, 适合本设计需求。

本设计中采用的MSP430是一种特别强调低功耗的单片机, 它提供丰富的软硬件组合形式, 能够达到最低功耗并发挥最优系统性能。通过不同的配置, MSP430可以提供6种不同工作模式:一种活动模式、5种低功耗模式。设置控制位MSP430可以从活动模式进入到相应的低功耗模式;而低功耗模式可通过中断方式回到活动模式。

不同的短距离无线通讯协议都有其特定的适用范围, 因此选择合适的通讯协议对于解决实际问题至关重要。Zig Bee技术适用于少量数据无线传输, 另外Zig Bee技术功能强大的同时稳定性稍有欠缺。对于无线话筒这种时断时开的链接形式, 在系统配对时存在延时, 用户体验欠佳。WIFI技术, 功率过大, 且实现起来硬件成本过于高昂不适合本课题。Ir DA红外传输技术适用于点点带宽传输, 且其带宽较低也不适用。其他的一些数字无线通信技术还有蓝牙 (Bluetooth) 和NORDIC的低功耗通信技术。蓝牙技术的最高理论带宽只有1Mbps。CD音质音频的传输速率就达到1.5Mbps以上, 因此蓝牙技术也被排除在外。NORDIC技术方案的功耗比较低, 且大部分通信协议均由硬件完成, 外围电路和软件开销较小, 实现起来比较简单, 综合考虑本课题决定采用NORDIC无线通信技术方案。

对于常见方案是将声音信号经过AD转换成数字信号, 然后通过射频收发信号。CD音质音频的传输速率就达到1.5Mbps, 如此大的数据吞吐量, 一般的无线传输芯片难以达到, 且成本过于高昂。因此必须对数字信号进行压缩处理, 如果将所有的音频数字信号交由单片机处理, 则数据量非常庞大。普通的单片机无法胜任, 且存在音频数据的压缩等一系列问题。如果完全重新开始进行算法设计的话, 无论从成本和时间来考虑都是不合实际的。在当今这个高度分工的社会, 利用现有的技术是理想的选择。

NORDIC公司的n RF24系列芯片, 是目前资料能查到的2.4G频段无线传输最理想的芯片。经过多次比较n RF24Zl芯片是一款性价比比较高的芯片, 且符合本方案的要求。n RF24Zl是Nordic半导体公司推出的单片式CD音质无线数字音频芯片, 其具有4Mbps的速率, 且功耗仅为蓝牙芯片组的一半。片内集成了电压管理器, 能够最大限度的抑制各种噪声。同时工作电压为2.0~3.6伏。n RF24Zl有12S串行接口和S/PDIF接口两种数字音频接口, 提供了与各种AD和DA芯片之间的无缝连接, S/PDIF接口提供了与PC和环绕设备的直接接口。通过SPI或I2C接口来对芯片进行控制, 同时还提供了控制信息如音量、平衡、显示等双向传输的功能, 是一个使用、性能、成本相结合的数字音频芯片。

因此在整个方案中, 单片机的主要任务是完成音频芯片的初始化和系统工作的简单控制, 如音量调节和无线功率调整等等。由A/D转换的数字音频信号不经过单片机处理而是通过接口直接送至n RF24Z1, 然后经过调制发送出去。在接收部分调制的信号直接由n RF24Zl发至D/A转换芯片, 然后将音频信号由扬声器或者耳机输出。另外只要设计好晶振, 电源等一些辅助的外围电路, 系统就能正常工作了。

3 电路设计

n RF24Z1及其外围电路包括n RF24Z1芯片、电源、晶振、天线等几个主要部分。电容C1、C2、C3主要是平抑电源波动、避免电磁干扰;C9、C10为晶振Y1的匹配电容;ANT外接50欧的2.4G天线。n RF2401及其外围电路如下图1所示:

4 软件设计

软件设计的主要的思路在于系统开启后不断检测按键的状态, 一旦检测到按键按下则进行录音, 实时将声音进行压缩和传送。接收端接收对方发送的数字音频信息进行播放。系统状态切换流程如下:

5 小结

本项目的数字音频无线传输系统具有以下技术特点:采用最新2.4G无线传输技术, 44.1K采样率, 24bit AD采样实现无损高保真数字音频传输, 16个可选工作通道。发射CD音频完全不需经过压缩处理, 接收音频端直接接收音频信号。做到无线跟有线的音质相同。

摘要:数字音频无线传输系统是传输声音信号的音响器材, 由发射机和接收机两大部分组成。发射机将声音信号转换为数字信号, 通过无线电波发射出去。接收天线将收到的无线数字信号转换为音频信号送到外设备, 完成音频信号的无线传输。现行的无线音频传输系统要么功能强大全面, 但是价格高昂。要么功能简单, 效果恶劣, 无法使用。对于教学系统来说, 前者资源浪费, 后者不堪使用。本项目的目的就是针对课堂教学开发出一个低成本、高质量, 切合实际的无线音频传输系统。略加改良, 本体统可以在家庭影院, 卡拉OK, 校园广播等等领域应用, 市场前景广大。

关键词:音频,无线,传输

参考文献

[1]马跃坤, 应时彦, 杨文君, 肖林荣.基于n RF24LE1的无线数据传输系统实现[J].浙江工业大学学报, 2010 (06) .

[2]高光天, 薛天宇, 孟庆昌, 等.模数转换器应用技术[M].北京:科学出版社, 2001.

数字音频传输 篇2

(一)存储信息

相比较而言,数字音频技术优于其他音频技术的一点是其数字化技术,数字化技术能够全面突破传统音频技术工作方式存在的不足之处。数字化音频技术管理与计算机数据存储器类似,能够实现音频资源的存储和共享,不仅能够方便使用者快速找到自己需要的信息,还能够加强对音频信息的管理,实现广播电视现代化管理。因此,数字化广播电视工程必将成为未来电视广播领域的重要发展趋势。

(二)广播系统

数字音频技术中的数字广播系统方面的技术,主要涉及到压缩编码数字、无线传输以及运用组网等,压缩编码数字音频信号主要是依据人耳的特点,对音频码率进行调整和优化,我们的耳朵在受到强度差别较大的音频信号的影响过程中,对音频较低的信号反应并不强烈。因此,将这种特性应用到数字音频广播传输系统中,能够有效避免电视广播工作中的问题,为电视广播工作可持续发展奠定基础。

二、广播电视工程数字音频技术的应用发展

(一)数字调音台

数字调音台作为现代电视广播工程中的重要组成部分,对广播电视节目具有十分重要的作用。因此,在数字调音台处理过程中,不仅要确保原有功能,提高广播电视节目的整体质量,避免电视节目中耳朵噪音、串音等问题的出现,还要将数字技术融入到调音台中,发展新型数字调音台,增加切换模块等功能,丰富数字调音台功能,促使数字调音台能够适应更多的环境,满足个性化需求,发挥通路多,且体积小的作用。

(二)音频嵌入技术的应用

音频嵌入技术以其独特的优势在广播电视节目制作过程中得到了广泛应用,通过运用数字音频技术并建立数字音频工作站,不仅能够有效提高节目制作质量,还能够节约大量时间和人力,提高电视广播工作效率。在视频数据信息传输过程中,音频信号仅能够在特定范围内进行信号传输,也就是嵌入音频。因此,嵌入音频主要是指将数据信息嵌入到特定范围之中,在进行视频传输过程中,通过嵌入音频技术,能够实现声音与画面同步进行,在提高电视节目质量过程中具有十分重要的作用。目前,嵌入音频技术主要应用于电视节目的前期与后期制作过程中,随着科学技术的不断发展,为电视广播工作提供了更多帮助,促使广播电视技术的发展逐渐细化,电视节目制作也会实现数字化建设,并将嵌入音频技术推广和普及。另外,广播电视的管理过程中,要结合自身实际情况与未来发展目标,制定科学、合理的发展战略,建立以嵌入音频技术为基础的管理系统,通过这种方式,不仅能够实现实时监督和控制,还能够确保数据信息的完整性和准确性。从而推动我国广播电视进一步发展。

(三)数字音频技术在广播电视工程中的发展

数字音频信号的传输与测量 篇3

随着广播设备数字化技术的飞速发展, 广播发射机节目源已从原来的模拟音频信号逐步过渡到了数字音频信号。数字信号有诸多优点, 主要表现在数字信号对干扰不敏感、基本上与传输距离无关、可以再生、可由处理器进行修正以及更好地集成等。数字音频的标准有SPDIF、AES/EBU、M ADI等, 其中, AES/EBU又称为AES3, 是音频工程协会和欧洲广播联盟共同制定的标准, 它是传输和接收数字音频信号的数字设备接口协议。

我台广播节目传输的数字音频信号采用的就是AES/EBU标准, 其节目传输示意图如图1所示。从图1中我们可以看到, 从卫星接收机解码输出的AES/EBU数字音频信号, 经音频分配器后, 其中一路经平衡/不平衡转换器, 将数字音频信号由110Ω平衡信号转换为75Ω不平衡信号后通过同轴电缆送到发射机;另一路110Ω平衡数字音频信号送到数字音频光端机, 通过光缆送到发射机。

2 数字音频信号的传输

从目前来看, 传输AES/EBU数字音频信号不外乎如下几种方式, 即:屏蔽双绞线电缆传输、同轴电缆传输和光纤传输三种。下面结合我台数字音频传输实例, 分别介绍三种不同的传输方式。

2.1 双绞屏蔽线电缆传输

用双绞线屏蔽电缆传输模拟音频信号是最早使用的手段之一, 它的优点是:在传输距离较短时, 铺线较容易, 比起其他传输手段来说, 投资相对少, 技术较成熟, 维护方便等。其缺点是:传输距离较远时频响较差。

模拟音频的频响为20Hz到20kHz, 它可以通过双绞线屏蔽电缆从一处传输到另一处。由于音频电缆上所使用的插头从RCA到专业的X LR接插头, 种类繁多, 因此, 当人们刚开始考虑专业数字音频信号的传输时, 就很自然地选择使用带有XLR插头的双绞线屏蔽电缆。数字音频双绞电缆与标准模拟音频双绞电缆的区别关键在于特性阻抗指标。AES/EBU标准由于公差范围宽, 特性阻抗范围可以从88Ω到132Ω;标准模拟音频电缆的特性阻抗从45Ω到70Ω。如使用模拟音频电缆线传输数字音频信号, 因阻抗不匹配, 会导致信号反射及抖动, 从而在接收端产生误码, 由于这个原因, 推荐使用100Ω至120Ω的屏蔽双绞线数字音频电缆用于数字音频传送 (电缆的阻抗不是直流阻抗, 而是高频信号下的交流阻抗, 万用表是测量不出来的) 。数字音频信号通过平衡屏蔽的双绞线电缆从一个发送器传输到另一个接收器的距离可达100m。

图2是AES数字音频双绞线传输的电路示意图。在AES数字音频信号传输中, 通常使用RS-422A数据通讯的标准驱动器和接收器芯片, 而使用变压器耦合可获得较好的共模拟制, 且避免了信号的大地回路, 电缆较长时也可使用均衡补偿。

2.2 同轴电缆传输

如果通过某种方法将AES数字音频信号电平变为1V, 阻抗变为非平衡75Ω, 那么就可以将数字音频信号如同视频信号一样传输。图3为使用同轴电缆进行数字音频传输的原理示意图。其传输规范为AES发布的一份文件AES3ID, 在该文件中, 描述了同轴分配装置的优越性, 还包括了电缆、电缆平衡器以及接收器电路等方面的信息, 在接收器的信息中, 还包括当需要将AES3格式的信号长距离 (1000m) 传输时或在模拟视频分配设备的环境中使用时, 标准AES3设备与电缆系统进行转换的变换器。我台广播节目通过平衡至不平衡变换器将110Ω阻抗变换为75Ω阻抗, 并通过同轴电缆进行节目传送, 其稳定传输距离已达500m, 平衡/不平衡转换器原理图如图4所示。

需要指出的是, 平衡和不平衡传输系统不能直接对接, 原因主要有两个:

(1) 电平不匹配

AES数字音频信号是TTL的5V电平, 遵循RS422的接口, 而BNC的AES/EBU接口的电平是0.5V, 比较低幅度的信号送入XLR的5V接口容易发生电平不翻转的问题 (AES/EBU平衡的接收器最低的输入幅度要求大于200mV, 0.5V的BNC接口外加线路损耗, 尤其是低频的电阻损耗和高频的介质损耗, 往往中长线路不能保证其衰减控制在-6dB以内) 。此外, 用平衡直接连接到不平衡, 输入信号太大, 加重了发送端的负载。

(2) 阻抗严重不匹配

75Ω与110Ω直接对接, 在整个传输系统中会出现回波, 它重叠在原信号上, 使得传输系统的孔径变小 (眼图抖动变大, 开度减小) , 当小到接收器不能正常解码而时常出现误码时, AES/EBU每个子帧的校验位将出错, 接收器会将这个错误子帧丢弃, 造成音频传输错误。

在平衡和不平衡传输系统之间通常要加装变压器, 用来进行电平和阻抗的转换。

2.3 光纤传输

光纤传输信息时, 是将电信号转变为光信号, 然后在光导纤维内部进行传输, 因此光纤传输具有很强的抗干扰性、保密性和可靠性;它的传输损耗小, 传输容量大, 不会因大气条件变化而带来质量损伤, 也不存在带宽瓶颈问题;它还具有体积小、重量轻、铺设容易等一系列优点。目前, 光纤传输设备使用简便, 没有同轴电缆的均衡需求, 光纤传输设备几乎不需维护, 且可靠、稳定、便宜, 因此, 采用光纤通讯技术, 可以大大提高广播电视节目的传输质量。目前, 一条单模光纤可以传输2.488Gb/s的数字信号。采用1550nm光波长时, 中继距离可在100km以上, 图5是数字音频光缆传输的原理图。

采用光缆传输在发送与接收端需要增加额外的光端机, 相对于无源的电缆传输, 也增加了一个故障环节, 但其在抗干扰性能和传输距离上却有着电缆无法比拟的优点。

3 数字音频信号的测量

AES/EBU数字音频信号可采用平衡传输方式, 也可采用非平衡传输方式, 虽然这两种传输方式输入/输出接口的阻抗和电气特性有所不同, 但是两种传输方式所传输的数据帧结构却是一致的, 都是遵循AES/EBU帧结构标准。

3.1 电气特性

数字音频信号采用不同的传输方式, 其对应的接口和电平都各不相同, 表1为采用平衡双绞线进行数字音频传输时的电气接口参数, 表2为采用同轴电缆进行数字音频传输时的电器接口参数。

3.2 数据帧结构

要对数字音频信号进行测量, 首先要了解AES/EBU数字信号的结构特点以及各个校验位与状态帧的含义, 测量时可采用专用设备, 也可采用数字存储示波器来完成。在AES/EBU数据帧中包含了时钟信息、音频数据帧、非音频数据三种数据类型, 下面将分别对这三部分数据信息进行介绍。

3.2.1 时钟信息

在AES/EUB数字音频信号中, 采用“双相位”编码方式, 将信号的时钟信息嵌入AES/EBU数字音频信号流中。

在“双相位”编码方式中, 把每一个逻辑“1”和逻辑“0”位所占用的时间称为一个“时间片”, 在逻辑“0”位时, 只在“时间片”的开始与结束处信号进行高、低电平的跳变;在逻辑“1”位时, 不仅在“时间片”的开始和结束处信号进行高、低电平的跳变, 同时还要在“时间片”的中央再进行一次高、低电平的跳变。如一段001010的数据经过“双相位”编码后的电平图如图6所示。

在图6中, 时间片1、2、4、6中传输的是“0”, 时间片3、5中传输的是“1”, 则除了在时间片的开始和结束处分别有一个电平的跳变外, 在时间片的中央还有一个电平的跳变过程。

通过这种传输编码方式有以下两方面的好处:第一, 接收端可以从传输的信号中重建信号的传输速率, 从而得到所接收信号的时钟信息;第二, 通过这种传输编码, 可以消除传输链路上由于“常1”或“常0”而造成的积累电平, 使传输链路上的电平处于0V。

3.2.2 音频数据帧

在AES/EBU数字音频信号中, 音频信息以数据帧的方式传输, 其中每个音频数据帧包含左、右两个子帧, 并以串行的方式排列传输, 左子帧在前、右子帧在后。左、右两个子帧的结构是一致的, 其构成如图7所示。

从图7中可以看到, 在左、右子帧中各占有24bit的长度的音频数据, 其内容为一个采样信号的量化数值。LSB为最低有效位, MSB为最高有效位。24bit音频数据表示最高的量化深度为24bit, 同时在传输量化深度为16或20bit的音频数据时, 可以采用最低有效位向右移动相应位, 将最低有效位左边的数据位给予置“0”的方式来完成。图8为一个音频数据是16bit长的左、右子帧示意图。

图7、图8中, 各字段和字母的含义如下。

(1) Preamble:标识数据。其编码方式不遵循“双相位”编码规则, 也是在AES/EBU信号流中唯一不遵循“双相位”编码规则的数据。其占有的时长为四个“时间片”, 在这四个“时间片”长的脉冲中, 会出现一个或两个持续时长为1.5个“时间片”长度的逻辑“1”或逻辑“0”脉冲。如图9所示。

Preamble通常有如下三种类型的标识数据:

(1) X类型的标识数据, 表示在标识数据后跟的是左声道的音频帧;

(2) Y类型的标识数据, 表示在标识数据后跟的是右声道的音频帧;

(3) Z类型的标识数据, 表示在标识数据后跟的是一个左声道的音频帧, 同时也表示是一个新的状态数据块的开始。

(2) V:有效位 (Validity bit) 。其功能主要是确认传输数据的有效性。如果有效位被置为“1”, 表示接收到的数字音频信号不适合转换成模拟信号, 在其它情况下, 比如传输的数据产生了一些错误或在帧中传输的数据不是线性的PCM音频数据, 都会使有效位置“1”。

(3) U:用户数据位 (User-bit) 。在AES/EBU信号中没有使用。

(4) C:通道状态位 (Channel-status bit) 。在AES/EBU数字音频信号协议中, 规定每192个音频数据帧为一块, 块中包含有192个左帧、192个右帧, 每个块的开头标识为Z类型的标识数据。在块中所有的左帧和右帧内的通道状态位就分别组成了一个192bit长度的左状态信息数据和右状态信息数据, 也就是说, 单个帧中的通道状态位是没有意义的, 一个音频块的数据类型、采样频率等信息是通过块中所有帧的通道状态位组合起来实现的。

(5) P:奇偶校验位。为该子帧的奇偶校验位。

3.2.3 非音频数据

如上所述, 每个音频块含有192个帧, 其中所有的左帧和右帧内的通道状态位, 组成了一个192bit长度的左状态信息数据和右状态信息数据, 这192位作为192/8=24个字节, 对块中的音频数据进行说明, 表示了所传数据的采样频率、量化深度、循环校验码等信息。

3.3 数字音频信号的码率

我们知道, 一个音频数据块有192个帧组成, 每个帧由两个子帧组成, 帧在使用的采样率下重复。第一个子帧包含来自通道A中的采样数据或是立体声中在左声道的采样数据;第二个子帧为通道B或是立体声右声道的采样数据, 每个子帧含有32bit的数据。在48kHz采样频率下, 其码率为:

帧中的一个数据比特持续时间为:1/3.072Mbps=325.5ns, 每个音频帧包括64bit, 每个音频帧的持续时间为:325.5ns×64=20.83μs, 在双相标志码编码后, 数据传输率将提高到两倍, 即:3.072×2=6.144Mbps, 一个双相标志码比特单元时间为325.5ns/2=163ns。

知道了码率和数据比特和音频帧的持续时间, 在使用数字存储示波器进行测量时, 就能根据要测量的内容调整时间参数了。比如要查看一个音频帧, 那么我们可以根据音频帧的持续时间20.83μs, 将扫描时间调整到大于21μs等。

3.4 专业数字音频测试仪器

目前, 许多厂家针对AES/EBU数字音频生产出了一些专业测试仪器, 这些仪器可按AES/EBU和S/PDIF (IEC60958标准) 标准, 对数字音频信号进行电学和定时同步 (抖动) 分析以及其他测量;仪器可通过对“连通性”的检查, 再结合其内置的自动测试程序, 可在各种环境和场合下快速且可靠地完成正常/失效的判断指示, 提供比示波器更专业的测量和检查手段, 以确保数字音频系统的可靠运行。

有些仪器还具有详细诊断功能, 比如, 音频、通道状态数据内容及电学参数等诊断, 其中电学参数包括:信号源及同数据相关的抖动、振幅和眼图闭合诊断等。甚至有些仪器还提供了信号发生器功能, 可通过一系列特别设计的AES/EBU标准数字音频接口测试信号, 包括:信号源恶化的信号、与数据相关的抖动信号、用于bit误码检测的伪随机序列信号 (PRS) 等, 用来测试传输通路的可靠性和传输媒介的损耗情况。

4 小结

随着电台广播节目数字化的普及, 数字音频已逐渐取代了模拟音频的传输与调度, 为充分发挥数字音频的优势, 只靠使用万用表简单地测试信号通路的连通与否, 已无法满足数字音频信号传输的要求。只有明确了数字信号传输的电气特性和数据帧结构, 才能发现数字信号传输过程中出现的问题并及时进行处理, 用以确保广播传输发射工作高质量、不间断地运行。

摘要:本文结合实际应用讲述了AES/EBU数字音频信号的三种传输方式和传输方式之间的转换方法, 并对AES/EBU数字音频信号的电气参数和数据帧结构进行了详细的描述。

数字音频传输 篇4

从相关资料可知,数字音频在广播电视工程中的应用,主要是指嵌入技术。目前,现代化电视广播在进行制作时,都是采用数字化来实现对节目的制作、传输和处理,在这个过程中,必须用到数字分量串行接口和数字音频嵌入技术。所以,要有效提高电视节目的制作效率,就必须对数字分量串行接口进行深入了解,并有效利用数字音频嵌入技术,其能为数字化电视节目的制作、设计和播出等提供直接作用。例如,在转换电视视频信号模数方面,其会因为不同的模拟信号而产生一定差异,在数字获得以后,传输数据的方式也具有相应的差别,其主要有两种:第一是并行;第二是串行。同时,他们还具有一定的相似度,比如视频数字信号的消音阶段,携带数字信息只能在空余的空间实现。在这个空间中,由于方式的`不同,可以携带传输数字音频及其相关数据。在数字音频的信号方面,辅助数据和数字音频的镶嵌位置都是根据规定来进行的,即音频嵌入。

2.2数字调音台的应用

在广播电视系统中,数字音频技术对数字调音台的应用,其主要就是通过对调音台的处理,让其在原有基础条件上,更加完善自身功能,并有效提高失真噪音、串音和功能质量。与此同时,在实践应用中,如果需要解决不同的问题,还可以通过不同的选择方面,对整个播放局面进行有效控制。另外,在环境差异和工作不同的情况下,数字音频技术的合理运用,还可以通过不同的方式来解决其当期存在的问题,从而有效完成新闻编辑和制作等相应工作。

2.3推动广播电视工程事业的发展

根据相关资料可知,数字音频广播的标准化,是由欧洲电信标准协会制定的,其是以将高质量数字音频无线电传输给广大听众为主要目的。目前,英国广播公司正在紧密筹备全球传输网络的建立,为广大听众打造数字无线电各种广播业务。因此,在我国广播电视工程中,注重数字音频技术的合理运用,可以大大提高广播电视的播放质量。由此可以说明,由于数字化技术的出现,全球化广播电视工程都起到了一定的推动作用。

3结论

总之,广播电视中数字音频技术的应用,对我国广播电视事业的发展具有很大的作用。与传统模拟音频比较,数字音频技术具有更为显著的优势,特别是在音频的编辑处理和特效上有着更大程度的进步。通过数字化技术带来的音质能够更加真实悦耳,以提高听众的听觉享受。所以,广播电视工程与数字音频技术的完美结合,是我国广播电视数字化进一步发展的主要表现,对完善和拓展我国广播电视功能有十分重要的意义。

参考文献:

[1]孙辉.广播电视工程中数字音频技术的优势与应用发展[J].黑龙江科技信息,(7):43.

[2]廖毅.解析广播电视工程领域中数字音频技术的应用[J].信息通信,(2):278,279.

[3]金妍,苗阳.广播电视工程中数字音频技术的优势及其应用分析[J].科技视界,(3):83,76.

[4]曹长俊.数字音频技术在广播电视工程中的优势和应用[J].西部广播电视,2015(15):186-187.

数字音频传输 篇5

关键词:数字音频信号眼图传输系统

1 前言

无线局大功率广播发射台站的主要作用是:利用中短波广播发射机实现对音频信号的远距离传输。发射机的音频调制信号来源较多, 通常接收数字卫星广播信号, 经解码、解复用后, 由数字音频传输系统送到各大功率调幅广播发射机的低频输入端, 作为调制信号, 经D/A转换后, 由广播发射机进行幅度调制发送至各服务区。数字音频信号的传输质量, 直接影响着发射机的播出效果。

为了能够优化节目传输质量性能, 提高节目收听效果, 充分了解数学音频信号传输性能, 维护好数字音频信号的传输链路是安全传输发射的一项重要任务。而眼图无疑是评估数字通信链路质量最有效、简单的方法之一, 它会在很大程度上将数字传输信道上各类参数展示在我们眼前。通过眼图我们可以对接收滤波器的特性加以调整, 以减小码间串扰, 改善系统的传输特性。通过眼图, 我们还可以估计系统的防噪声能力和信道受到噪声干扰的情况。

2 数字信号的基带传输

数字音频信号首先是数字信号, 它的传输系统包括了基带传输和载波传输。数字基带信号都是矩形波形, 在研究频谱时常常只画出能量最集中的频谱范围, 但这些基带信号在频域内实际上是无穷延伸的。如果直接采用矩形脉冲的基带信号作为传输码型, 由于实际信道的频带都是有限的, 则传输系统接收端所得的信号频谱必定与发送端不同, 这就会使接收端数字基带信号的波形失真。因此常采用滤波器产生出平滑波形进行传输。

如图1所示:数字基带信号的产生过程可分为码型编码和波形形成两步。码型编码的输出信号为δ脉冲序列, 波形形成网络的作用则是将每个δ脉冲转换为一定波形的信号。

根据奈奎斯特第一准则:当数字信号通过传输系统时, 接收波形满足抽样值无失真传输的充要条件是仅在本码元的抽样时刻上有最大值, 而对其他码元的抽样时刻信号值无影响, 即在抽样点上不存在码间干扰。也就是说:如果信号经传输后整个波形发生了变化, 但只要其特定点的抽样值保持不变, 那么用再次抽样的办法, 仍然可以准确无误地恢复出原始信码, 因为信息完全携带在抽样幅度值上。

因此, 在大多数有线传输情况下, 信号频带不是陡然截止的, 而且基带频谱也是逐渐衰减的, 这与设计时所确定的滚降系数有关, 如图2所示:当输入端信号为“1”时, 其输出波形如图2 (a) 所示, 该码元y (t) 只要在t0时刻为判决时刻, 就能恢复出信号, 在下一个码元判决时刻t0+Tb到来时为0, 就不会造成串扰。

3 眼图的形成及其测量

尽管数字信号的传输相对于模拟信号而言, 有极大的优势, 但要使其达到理想的传输特性任然是很困难的, 甚至是不可能的, 因为码间串扰和噪声对系统的影响无法彻底消除。

为了对系统性能有一个直观的了解, 可利用示波器, 再现码元传输效果, 从而对系统性能进行估计, 这就是眼图法, 示波器所获图形即为眼图。

具体做法如下:取一台带有时域分析功能的示波器, 将待测信号加到该示波器的输入端, 同时把位定时信号作为扫描同步信号, 也可以调整示波器的水平扫描周期, 使示波器的扫描周期与接收码元的周期同步。从而估计出系统性能的优劣。对于二进制数字信号而言, 示波器的图形与人眼想象, 所以称为“眼图”。利用带时域分析的示波器, 使用连续比特位的眼图生成方法, 能快速测量眼图和抖动。如图3所示, 第一步示波器采集到一长串连续的数据波形;第二步, 使用软件恢复时钟, 用恢复的时钟切割每个比特的波形, 最后一步是把所有比特重叠, 得到眼图。

眼图显示了数据波形图可能取得的所有瞬时值, 在完全随机输入情况下, 各个波形叠加后会在眼图中形成若干眼孔, 眼孔的开启状况能充分说明传输信号的质量, 在有符号间干扰和噪声的情况下, 眼图由许多有一定偏移的线条组成, 看起来犹如构成眼图的线条变宽了, 这等效于眼图聚焦点扩散, 水平和垂直方向眼睛的张开程度都减小了。在无码间串扰和噪声的理想情况下, 波形无失真, 眼开启的最大, 当有码间串扰时, 波形失真, 引起眼部分闭合。若再加上噪声的影响, 则使眼图的线条变得模糊, 眼开启的小了, 因此, 眼张开的大小表示失真的程度。由此可知, 眼图能直观地表明码间串扰和噪声的影响, 可评价一个传输系统性能的优劣。当把眼图抽象为一个模型时, 可以由眼图获得以图4信息:

(1) 最佳抽样时刻应选在眼图张开最大的时刻, 此时的信噪比最大。

(2) 眼图斜边的斜率反映出系统对定时误差的灵敏度、斜边越陡, 对定时误差越灵敏, 对定时稳定性要求越高。

(3) 在抽样时刻, 上下两个阴影区的高度称为信号失真量, 它是噪声和码间串扰叠加的结果, 当码间串扰十分严重时, 眼睛会完全闭合, 此时信息码元无法经过抽样判决准确恢复, 因此必须对码间串扰进行纠正。

4 眼图在数字音频信号传输中的作用

在基层台站中, 我们从卫星接收天线接收数字音频信号, 在远离接收端的发射机房, 我们采用光传输系统进行传输, 在离接收端较近的发射机房, 采用数字音频电缆进行传输。系统中涵盖了光传输、电传输等设备。随着使用时间的推延, 设备和线路的老化, 元器件性能发生变化等原因, 势必造成系统性能有所下降, 这时候对系统建立一套行之有效的测试, 分析方法将对系统的维护, 保证信号的有效传输起到重要的作用。而利用眼图测量法, 是检验系统传输性能最简便及行之有效的方法之一。

我们知道, 在数字音频信号的传输中, 主要的测试指标有:数字信号的幅值;传输阻抗、信号延时、抖动等。在实际应用中, 传输系统异常的表现形式多种多样, 但最本质的表现均为数字音频信号的传输误码。

通过眼图的张合, 可以判断传输系统误码率程度, 从而采取有效措施, 提高传输质量。

数字信道的干扰主要有加性干扰和乘性干扰。加性干扰表现在眼图上, 主要改变图形的纵向张合度, 它往往是由于地阻抗耦合、漏电流等因素产生的干扰, 叠加在了信号上。此时, 可能是因为线路老化引起, 可加强屏蔽、接地、隔离、滤波或更换传输线, 加强线间转换匹配等方法加以抑制。而由于传输线的衰减、时延和阻抗失配等因素引起的反射干扰和码间干扰将使信号眼图产生畸变, 这类信号称为乘性干扰, 它往往使码元间产生抖动。此时可以观察:周期性抖动, 常来自于开关电源和串扰, 而随机抖动, 可考虑基准时钟和锁相环PAL电路。

通过对传输线路的分段测量和定期测量所得基础数据的积累和比较, 可以更准确地掌握传输设备的运行规律, 从而进一步总结维护经验。

5 结束语

在实际使用中, 大多数数字音频信号的传输异常故障, 通过示波器, 利用眼图的日常测量可以预防, 同时, 我们也可以利用眼图, 了解系统的传输性能是否有所下降, 并及时加以处理, 从而保证了信号传输的高品质。

参考文献

[1]张卫纲.通信原理与通信技术[M].西安电子科技大学出版社, 2003.

[2]李建兴.现代通信系统与仿真[M].机械工业出版社, 2005.

数字音频传输 篇6

近年来, 现场直播作为广播节目的播出方式之一, 越来越受到听众的欢迎。随着科学技术的发展, 现场直播技术质量和技术保障要求的不断提高, 应用于现场报道、重大活动、大型集会等现场直播任务的广播直播车起着越来越重要的作用。

为了加强基础设施建设, 提升技术装备水平, 提升广播节目的品牌形象, 进一步保障广播现场直播的安全优质播出, 浙江广播电视集团于2008年7月建成了一辆集现场转播、直播、录制、扩声、传输、发射、监测等功能于一体的广播数字直播车。

1 结构和功能

如图1, 浙江广播电视集团广播数字直播车车厢按功能分成直播室、导播室、技术室和动力室四大区域, 整车全长10m, 其中厢体长7.5m。

车头及车底盘指标如下:总重量6893kg, 车轴距5600mm, 最大允许载荷13000kg;手动档, 最高车速110km/h;直列六缸电子控制燃油喷射发动机, 排量9.4L, 符合欧洲II排放标准。

车厢有良好的隔音、隔热、防水、防电磁干扰、防静电等性能, 播音区声学指标为:背景噪音39.3dBA, 混响0.3s, 隔音效果优于37dB, 车体内饰色调具有现代风格, 色彩明快, 线条简洁。

配备车载专业广播设备, 功能全面、抗震能力强, 性能稳定, 数字音频技术指标满足AES/EBU数字信号标准 (GY/T156-2000演播室数字音频参数和GY/T158-2000演播室数字音频信号接口) , 满度电平0dBFS对应模拟信号电压电平为+24dBu。直播车自带发电机, 配备不间断电源UPS, 直播车以停车工作为主, 必要时亦可移动工作。

它具有卫星、DAB、光缆、ISDN、GSM、POTS等多种信号传输手段, 集现场转播、直播、录制、扩声、传输、发射、监测于一体, 是一个流动的广播电台。广播数字直播车的建成并投入使用, 标志着集团具备了完成远距离、全天候的大型、复杂和高质量广播直播任务的能力。

2 广播数字直播车创新技术介绍

2.1 全天候、全方位、高质量的数字音频传输系统

经统计, 近年来浙江广播电视集团五个广播频道八套节目平均每年要完成100多次现场直播, 其中约三分之一在浙江省各市县进行。为了在任何地点都能够高质量地传输广播播出音频信号, 必须选择多种信号传输技术手段, 才能全方位地满足广播现场直播的需求。

经过调研, 我们采用卫星、DAB、光缆、ISDN、GSM、POTS等多种无线、有线数字音频传输技术, 当直播在杭州市区进行时, 主用DAB技术传输音频播出信号, 电话线路作为备用技术手段, 当直播在杭州市区以外地点进行时, 主用卫星广播技术传输音频播出信号, 电话线路作为备用技术手段。当然在有光纤接入点的地方优先选用光纤传输技术, 这样新建的浙江广播电视集团广播数字直播车具备了全天候、全方位、高质量的数字音频传输功能, 达到在任何地点、任何条件下都能独立完成广播现场直播的目的, 如图2。

1. DAB传输系统

广播频道目前的现场直播大多数还是在杭州市区进行, 此时的信号传输就用DAB系统。DAB技术采用MUSICAM (掩蔽型自适应通用子频带综合编码与复用) 信源编码和COFDM (编码正交频分复用) 信道编码, 利用卷积编码、循环冗余校验码CRC、交织、“保护间隙”等一系列技术, 是一种对多径传播不敏感的多载波宽带传输方法。DAB技术的音频传输质量非常高, 可以达到CD音质;而且可以克服多径干扰, 这一优点在高楼林立的城市中尤其重要。

浙江广电集团的广播数字直播车DAB传输系统, 是将直播车上数字调音台PGM输出的AES数字信号, 经DAB编码/复用器, 送到DAB发射机, 再通过射频电缆送到车顶的高增益八木定向发射天线进行发射。接收点有两个, 一个接收天线安装在集团主楼的19楼顶, 通过超低损耗射频电缆送到18楼的传输机房, 进高保真DAB接收机, 再通过音频电缆传送至集团广播楼二楼广播播出中心;另一个接收天线安装在北高峰, 通过超低损耗射频电缆送到广播调频机房, 进高保真DAB接收机, 再用光发机将音频信号通过光缆送至集团广播楼二楼广播播出中心的光接收机。广播播出中心中控机房的技术人员将收到的这两路信号进行比较, 选择质量高的一路送到相应的直播室播出, 如图3。

DAB发射机的发射功率为125W, 有效传输距离20km。采用八木7单元单层SBL高增益定向发射天线, , 天线增益高于9dB, 利用固定在车顶可升降的进口气动杆, 通过调整电动云台, 可以随时任意的调整发射角度与方向。接收天线采用SBL高增益全向天线, 增益高于6dB。

2. 卫星传输系统

如果直播地点超过了DAB的传输能力范围, 就可以启用卫星传输系统, 它传输距离远, 覆盖面积大, 音质好, 传输稳定可靠。

浙江广电集团的广播数字直播车卫星传输系统, 是将数字调音台PGM输出的AES数字信号, 送到编码器, 编码器将异步数据和控制信号与编码压缩后的音频复用为一路合成数据流, 输出给卫星调制解调器做QPSK+RS调制, 再经上变频器变频和Ku波段30W固态高功放放大后, 由安装在直播车顶的1.8m卫星天线将高功率射频信号发送至卫星。

安装在集团广播楼3楼顶层的3.7m卫星天线将卫星转发至地球的微弱信号接收下来, 并锁相低噪声放大器LNB将收到的Ku波段信号放大、变频为L波段, 然后通过IFL中频电缆送至集团广播楼二楼广播播出中心控制室的数字音频接收机, 接收机对信号进行放大、解调、解码并还原出高质量的音频信号, 最后送到相应的直播室, 如图4。

3. 光纤传输系统

在某些重要场所, 或者大型场馆, 都可以找到光纤接入点, 如浙江省人民大会堂、杭州大剧院、黄龙体育中心等, 这时光纤传输方式便是首要选择, 因为它的信号质量最好, 抗干扰能力最强。

浙江广电集团的广播数字直播车光纤传输系统, 配置了两对光端机, 每台都有4路AES/EBU数字音频, 音频接口类型是XLR (卡侬) , 光纤接口类型是FC单模, 波长1310nm, 传输距离可达20km。在有光纤接入点的直播地, 直播车数字调音台PGM输出的AES数字信号送至光端机, 再用尾纤跳通到接口箱, 光缆传输信号到广播播出中心控制室接口箱, 再用尾纤跳通到光端机, 光端机输出信号至相应的直播室。

另一对光端机中, 发射机一台, 安装在北高峰发射机房, 接收机一台, 安装在广播播出机房, 负责DAB信号的回传。

4.电话传输系统

电话传输因可靠、经济、便携是目前应用较为广泛的一种音频信号传输方式。作为DAB、卫星和光纤传输的补充和备份传输系统, 浙江广电集团的广播数字直播车配置了各类数字编、解码电话传输设备。

2.2 大面积透视窗的设计应用

播音区1200mm×2400mm超大面积的透视窗, 采用40mm×50mm×2.5mm的锰钢无缝方管为框架, 安装8mm+8mm、中空10mm的双层钢化玻璃, 充入热胀冷缩效应小的氮气以减少玻璃承受压力, 注入专门的减震胶、外加防护罩保障行车安全等技术, 既实现了车内外主持人与观众的双向互动, 又达到隔音抗震要求, 是目前国内广播电视直播车中最大的透视窗之一, 如图5。

2.3 双循环互备份的空调系统

采用两台3匹、风管互通的吊顶内藏式空调, 充分考虑了风循环路径和风阻影响, 合理设计出风口和回风口位置, 可根据气候、设备使用等情况同时启用两台空调或只开启任意一台, 实现既满足车内每个区域的温度要求, 又达到演播室噪声指标的效果, 如图6。

2.4 移动直播室的声学设计

车厢体采用了国际流行的“鼠笼式”:六面框架整体结构, 它具有很高的抗变形、抗扭曲能力。采用锰钢材料为主框架, 40mm×40mm×2.5mm钢材为主箱体, 达到既保证车体的刚性需求同时减小整车重量的目的;采用专用减震胶非刚性连接车体外蒙皮, 车体内侧填充类聚氨酯材料及合理设计应用镀锌板、九厘板、超吸玻璃棉、进口毯料等技术, 使车内直播室的实测背景噪音达到39.3dBA, 隔音>37dB, 混响时间中值0.3s的声学指标。

2.5 形式多样的供电系统

广播数字直播车的供电方式有外电 (市电) 、车载柴油发电机、UPS三种不同电源构成, 满足各种条件下不间断播出的需求。通过特定设计和使用特制隔离变压器, 既能实现市电供电与车内用电的地线隔离, 保证人身和设备的安全, 又能方便地使用三相380V或单相220V的市电供给;采用10kVA大容量在线式UPS电源, 保证车内主要设备在非常态下能维持正常运行15min以上;把有热辐射或有噪声污染的发电机、隔离变压器、UPS、等电源设备集中安排在动力室区域, 有效降低车内工作温度和噪声。

三相隔离变压器25kVA, 选用U型铁芯, 采用互感式变压器, 有良好的散热效果和防腐、防尘、防潮功能, 抗干扰能力强, 设备安装在车下仓内, 仓内安装防火报警装置;

UPS采用车载专用机架式, 延时工作时间≥15min;

发电机为18kVA水冷柴油发电机, 具有散热好、噪声轻等优点;

配电盘是一个一体化配电控制系统, 采用交、直流分开控制的方式, 有电压、电流和频率显示, 开关分别控制空调、各区域设备、维修、照明等, 面板为数控机床加工, 表面喷塑处理, 能清楚及时地观测各路供电状况;

汽车专用全自动充电机体积小、重量轻、功率大、性能稳定;

车内主照明系统采用交流供电, 当无外来市电、发电机未启用时, 由电瓶供电给照明灯, 操作台上方安装的是镭士点射灯, 动力室安装了2个面照灯, 机柜后上方安装有维修灯等, 如图7。

3 总结

浙江广播电视集团广播数字直播车在完成了国家广电总局计量检测中心等组织的各技术系统的指标和工程施工工艺等方面的检测后, 于2008年11月29日通过工程验收。目前该车已在“杭州第十五届、十六届房交会”、“吴山广场第三届、四届观众嘉年华”等近百场户外直播活动中投入使用, 由于节目制作质量和传输质量明显优于以往的户外直播节目, 受到了使用部门的一致好评, 这主要归功于数字直播车具备了全天候、全方位、高质量的数字音频传输系统, 对国内兄弟电台在今后同类工程的建设中具有一定的参考意义。

ITU成立新工作组制定云计算标准

据国外媒体报道, 国际电信联盟 (ITU) 日前已成立“云计算专项工作组”, 主要负责制定云计算标准, 旨在达成一个“全球性生态系统”, 确保各系统之间安全地交换信息。

电台户外直播的音频传输应用 篇7

在一般的广播户外直播活动中, 我们一般会取数字电话传输器拨号作为备份, 光纤信号作为主要信号, 但是户外活动地点多变, 很多地方没有光纤接入, 只有使用一种更加方便的回传方式, 通过近几年了解最新的音频互联网传输知识和接触一些较新的设备, 我们使用了这种2盒香烟的体积大小, 携带和安装都非常方便, 也比较稳定的传输器:pyko IP音频传输器, 由于其稳定且能传输高质量音频信号, 在户外直播活动中用它来传输主音频信号。这两种传输方式已经成为佛山电台户外直播一主一备的主要方式。

1 通过普通电话线传送数字音频信号

国内大多数地区, 电话通信都采用了先进的数字程控通信系统, 构建了高质量的通信网络, 这些为广播节目的音频信号传输提供了最简便易行的形式, 它是在普通电话线上进行数字化编辑的先进系统, 是利用整个编码终端, 采用特殊算法, 对音频信号进行解码可同时传送和接收音频信号, 通过一条标准的电话线路传送音频信号, 实现高质量的双向传输, 频响可达30Hz~15Hz。优点在于音质好, 操作简单, 但是编码器对音频信号进行很高的数据压缩后, 对电话线路抗干扰能力要求高, 如果压缩率太高, 传输就不稳定, 需要降低传输速率。保障即使在最低传输速率下, 也有30Hz~7Hz超过模拟耦合器的传输带宽, 我们目前使用COMREX和MUSICAM数字电话传输器作为户外直播信号传送到直播室的备份信号, 这些传输器操作简单, 很多电台目前都有使用, 此处不作过多说明。

2 通过互联网传输音频信号

户外直播活动场地一般有互联网的连接, 一种用互联网来传输的设备及其便捷, 我们一般都用PYKO IP音频传输器作为播出的主信号, 而备份信号则用数字电话音频传输器, 较重要的户外播出都会带两组PYKO IP音频传输器到户外活动场地, 一个用有线网络, 一个用3G无线网络加上电话拨号形成3路音频信号的备份。如果实在没有网线接口, 则直接用3G无限网络。这里简单介绍一下PYKO IP音频传输器立体声单向传输的特点和使用方法。

特点:采用一台PYKO-IN、一台PYKO-OUT, 远程 (户外) 直播室与总台立体声音频单向传输, 可使用MP3编码方式, 有利于互联网方式下的音质提高。

该方案目前采取一主一备的链路。

主链路:户外PYKO_IN接有线宽带上网, 传输音频码流给总控的主PYKO_OUT。

备链路:户外PYKO_IN接3G无线上网, 传输音频码流给总控的备PYKO_OUT。

对于户外的PYKO-IN, 需要设置以下内容:

1) 设置PYKO_IN的IP地址

通常PYKO的IP地址已经预设为192.168.1.100, 调试的时候可以将手提电脑连接到路由器, 自动获取IP, 然后登陆http://192.168.1.100查看PYKO的相关设置和状态。

2) 设置传输的目的IP地址和端口

以下参数已经预设好, 可以登录http://192.168.1.100查看或者修改。

Steam 1处, 填写总台的PYKO设备外网IP地址及端口号, 这两个参数可以永久设置。

Audio Format, 选择音频编码的格式, 采用mp3 48kHz或者mp3 44.1kHz, 音质最好。

mp3 encoding quality, 音频编码的质量, 0最低 (相当于56kbps的mp3码流) , 7最高。

Channel Mode, 根据现场需要, 选择立体声还是单声道, 如果对立体声无特别要求, 建议用单声道, 可以节约一半带宽, 有利于提高传输的可靠性。

以上配置, 一次设置好, 无须再修改。

在实际使用中, 在左上角的REAL TIME INFORMATION (实时信息) 中, 可以看到数据流送达的IP地址 (总台IP地址及端口) 、当前输入模拟信号的电平。接收端PYKO_OUT已经固定在总控机房, 参数也已经设置好。可以登录对应的IP地址修改设置及查看状态。

例如:PYKO_OUT_MAIN相关参数设置如下:

通常应用中, PYKO_OUT的设置固定好, 没必要修改, 户外音频直接音频码流推过来即可。通过PYKO IP音频传输器传输回来的信号, 我们将其接入总控矩阵系统, 一主一备都入总控网络矩阵主机, 直播前可以将其设置在直播室的调音台上面将两路信号调出使用。

3 结论

经过多年的户外直播活动实践, 文中应用到的这两种传输技术来传播广播直播节目信号, 都取得了很好的效果。用互联网pykoip音频传输器来传输主信号, 数字电话传输器来传输备份信号, 做最低限度的备份, 既保证了高质量的信号回传, 又能最大限度保证不停播, 应用传统的方式和先进的传输方式相结合才能保证电台户外直播节目高质量不间断的安全播出。

参考文献

网络音频流数据传输探讨 篇8

关键词:网络,流媒体,数据传输,实时广播

0引言

在计算机网络技术迅速发展的今天,网络成为我们生活中不可缺少的一部分。人们每天都要从网络上通过视频、音频传输来获得大量的信息。作为获得信息的一个重要途径——声音是人类接受信息的重要媒体,声音传输占有重要地位,但目前网络音频传输存在着很大的不足:

1) 声音质量不满足要求。

随着生活质量的不断提高,人们希望广播的声音质量能达到CD的水平,而目前的声音广播质量在频带宽度、动态范围和干扰电平等方面都达不到这样的要求。

2) 传输方式单一,传输质量较差。

在当今信息社会,人们期望通过网络实时接受音频数据、音频传输智能化,传输的两方能够实时进行音频交流。尽管目前计算机网络的发展十分迅速,但它传送数据的容量和质量不能满足用户要求。

为了克服这些缺点,大幅度地提高声音广播的质量、接收质量和增加数据业务,势必采用目前比较先进的网络音频流传输技术。

虽然需要采用目前比较先进的技术来研究网络音频流数据传输问题,但是它和传统的音频文件传输非常相似,也可以说,网络音频流数据传输是采用多播、组播、单播等的通信方式来传输,实现点到多点,点到点的通信,这也正是本文中重点阐述的问题。在所研究的问题中,一个重要的问题是利用计算机控制系统来控制音频流数据的网络传输,因此要涉及到计算机控制系统。

1计算机控制系统

1.1计算机控制系统的概述

计算机的发展以网络化、模块化和微机化为特征,为其应用开辟了无限广阔的前景。计算机解放了人类的智力,提高了人类的能力和工作效率,计算机在工业领域正成为不可缺少和不可替代的强有力的控制工具。由于计算机控制系统的应用,许多传统的控制结构和方法被替代,工厂的信息利用率也大大提高,控制质量也更趋优良和稳定,计算机的发展也推动了自动化控制理论的应用和发展。

现在,由于计算机的微型化、网络化、性价比的上升和软件功能日益强大,计算机控制系统不再是一种昂贵的系统,它几乎可以出现在任何场合:实时监控、数据采集、信息处理、数据库等。

近20年来计算机控制系统的普及和应用有了突飞猛进的发展。而计算机控制系统的性价比的不断提高更加速了这种趋势。在过程控制方面的软件技术如:DDE、ACTIVE X、OPC和COM等的引入,给工业生产带了可观的效益。可以说,在各个领域中没有计算机控制的参与,各方面的工作将很难开展。在我们研究的软件里就是用计算机的控制来实现音频数据在网络上的实时传输。

1.2计算机控制系统的软件开发

Visual C++6.0是一个Windows下简单,易学,高效的可视化软件开发平台,它以所见即所得的可视化界面设计风格和32位面向对象程序设计的特点,已经被广泛应用到各个领域,成为众多开发人员采用的工具。VC不仅提供了良好的界面设计能力,而且在串口通信方面也有很强的功能,它提供的MSComm通信组件隐藏了大部分串口通信的底层运行过程和许多烦琐的过程,它使用户能够方便的访问Windows下串口通信驱动程序。所以整个串行通信程序的开发过程变得十分简单易行,程序员不需要处理烦琐的细节,而通过利用通信控制组件只需要编写少量的代码来实现主要应用功能和界面设计,就可以完成软件的开发过程。

2音频流数据传输

随着现代网络技术的发展,作为第四媒体的网络开始带给人们的是更多形式的信息模式。从在网络上出现第一张图片,到现在各种形式的网络视频,三维动画,人们的视听觉感官在网络上得到了很大的满足。而同时面临的是另外一种不可避免的尴尬:正是由于人们需求的不断提高,上网人数的不断增加,加之网络硬件设备的局限性,使得文件的大小成为网络传输一个不可忽视的参数。一方面,人们希望能在网络上看到生动清晰的媒体演示,另一方面人们又不得不去面对如此慢的网络速度下文件传输所需的大量时间。为了解决这种矛盾,一种新的媒体技术应运而生,这就是“流媒体”。

2.1流媒体的定义

流媒体是指应用流技术在网络上传输的多媒体文件,而流技术就是把连续的影像和声音信息经过压缩处理后放上网站服务器,让用户一边下载一边观看、收听,而不需要等整个压缩文件下载到自己机器后才可以观看的网络传输技术。该技术先在使用者端的电脑上创造一个缓冲区,在播放前预先下载一段资料作为缓冲,与网络实际连线速度小于播放所耗用资料的速度时,播放程序就会取用这一小段缓冲区内的资料,避免播放的中断,也使得播放品质得以维持。

2.2流媒体的构成

流媒体是由各种不同的软件构成的,这些软件在各个不同的层面上互相通信。基本的流媒体系统包含以下三个组件:

播放器(Player) 用来观看或收听流媒体的软件

服务器(Sever) 用来向观众发送流媒体的软件

编码器(Encoder) 用来将原始音频视频转换成流媒体格式的软件

这些组件之间通过特定的协议互相通信,按照特定格式互相交换文件数据。有些文件中包含了由特定编码解码器编码的数据。这种编码解码器通过特定的算法压缩文件的数据量。

2.3流媒体的技术原理

流媒体传输的实现需要缓存。因为网络以包传输为基础进行断续的异步传输,对一个实时A/V源或存储的A/V文件,在传输中它们要被分解为许多数据包,由于网络是动态变化的,各个包选择的路由可能不尽相同,故到达客户端的时间延迟也就不等,甚至先发的数据包还有可能后到。为此,使用缓存系统来弥补延迟和抖动的影响,并保证数据包的顺序正确,从而使媒体数据能连续输出,而不会因为网络暂时拥塞使播放出现停顿。通常高速缓存所需容量并不大,因为高速缓存使用环形链表结构来存储数据:通过丢弃已经播放的内容,流可以重新利用空出的高速缓存空间来缓存后续尚未播放的内容。

3多路音频网络实时广播系统

3.1多路音频网络实时广播系统

传统公共广播系统是由广播节目源、信号前级放大处理设备、功率放大器、其它周边设备及线路负载(扬声器)组成。

随着多媒体计算机硬件水平的提高和相应的专用软件的开发,为多媒体公共广播系统的普及应用打下了技术基础。使得真正意义上的“多媒体公共广播系统”开始了实际应用。

多路音频网络实时广播系统又是多媒体广播系统的一个部分。它的软件有以下特点:

1) 网络输入设备可以是麦克风、CD机、文件或其他连线设备,输入设备可以选择任意声卡。

2) 音频接收端可以选择声卡,声道等。

3) 音频接收端可以选择接收多台电脑的音频数据。

4) 音频发送端可以网络广播,让多台电脑接收数据。

5) 音频接收端支持多块声卡,声卡分配由用户选择。

6) 支持所有支持动态连接库编程的语言(如:VB,DELPHI,C++Builder,VC++等等)。

7) 注意网络测试,必须有两台电脑,IP地址必须在广播范围之内。

如果用于公共场所,可集信息、公共广播、背景音乐等多种功能于一体。在以音乐(或音乐铃声)完成信息传输的同时,在同一时间不同地点进行实时广播。

音频实时广播系统如果用于超市,既可以定时播放背景音乐,也可临时插播商品信息或通知,为超市创造轻松的购物氛围,为顾客提供更加完善的服务环境。

与传统公共广播系统相比,采用多路音频网络实时广播系统可以节省不少节目源播放设备、信号前级放大处理设备(如前置放大器、矩阵切换器、节目定时器等),在降低系统设备的总体造价的同时又提高了设备的可靠性;由于采用各种格式音频文件进行播放,省去了大量CD唱片和录音磁带,降低了日常使用费用;与此同时节目定时自动播放功能可以在一定程度上实现无人值守。总之,多路音频网络实时广播系统是当今社会技术进步的一种体现。

3.2实时广播中面临的困难

网上的实时广播要求事件的影像文件实时的编码,并且将文件流直接发送到服务器上。服务器将获得的文件流直接向观众广播。目前在局域网内可以采用广播协议将视频信号发送到网内的各个终端,但是如果用户所处的位置并不是和服务器处于同一个网段,那么可以采用组播(多播)协议,使用户正常接收。

在客户端与媒体服务器之间建立一个单独的数据通道,从一台服务器送出的每个数据包传送给每一个客户机。每个用户分别对媒体服务器发送单独的查询,而媒体服务器向每个用户发送所申请的数据包拷贝。这种传送方式称为单播,需要足够的带宽来保证一定的服务质量。在一个组织内部网络,在客户端较少的情况下,是完全可以满足图象质量与声音质量的要求。

其基本设置如图1所示:

要使实况信息能够顺利传输而又不更改所有网络配置,采用流媒体技术进行实况转播成为众多传输方案中的上佳选择。目前流媒体的不足之处主要体现在没有规范统一。MS、REAL、APPLE都有自己的标准和独立的通信协议,如MS采用MMS,REAL采用RTSP,虽然可以采用HTTP协议接收,但是并不是很适合流媒体的传输。如果采用MMS或RTSP协议,在一些防火墙和路由器上就难以通过。

3.3使用恒定比特率编码进一步优化

当流媒体通过调制解调器之类的固定宽带时,就需要固定带宽的编码解码器。WME内置“速率控制”模块,其使用一个中间缓冲区平滑原来信号的峰和谷,这样就输出了一个固定的比特率。编码和解码器监控缓冲区的空间并动态改变压缩质量以保证得到目标比特率。这个编码模式称为恒定比特率编码(CBR)。

3.4音频编码

在网络音频传输的过程中,音频数据传输的优劣直接影响到音频播放效果的好坏,所以,应该为音频编码。

对音频编码的方式有两种:低数据率和高数据率。

在低数据率下编码时,例如采用56K的MODEM接入网络,选择最低的音频数据率就可以得到足够好的效果,尤其是语音质量。比较低的音频数据率还可以使系统在拥塞或数据丢失造成的低数据率下依旧保持音频信号的连续。如果带宽有限,不妨将音频编码为单声道,进一步降低数据率。

在高数据率下(>300kbps)编码时,音频数据可以占到带宽的15%至20%,但是不必超过64kbps,因为在48kbps时,WME就能够提供接近CD音质的音频,而在32kbps时能够提供调频质量的音频,这些对于实况转播来说已经足够了。

考虑到本方案只是利用流媒体技术做网络音频的传输,因此不必专门架设流媒体的服务器,编码器和存储器,利用一台本地高性能的计算机就可以满足实时传输的需要,一旦任务结束,机器仍就可以挪为他用。其设置如图2所示:

4结束语

与传统公共广播系统相比,采用多路音频网络实时广播系统可以节省不少节目源播放设备、信号前级放大处理设备(如前置放大器、矩阵切 换器、节目定时器等),在降低系统设备的总体造价的同时又提高了设备的可靠性;由于采用各种格式音频文件进行播放,省去了大量CD唱片和录音磁带,降低了日常使用费用;与此同时节目定时自动播放功能可以在一定程度上实现无人值守。减轻广播值班人员的劳动强度。总之,网络音频流数据传输是当今社会技术进步的一种体现。

参考文献

[1](美)J.C.Whitaker.数字音频技术宝典(第一版)[M].张雪英,刘建霞,译.北京:科学出版社,2004.

数字音频传输 篇9

在音频工程中一个非常容易忽略的项目就是模拟音频电缆线对整个音频系统指标的影响。我们知道常用的模拟音频电缆线可分平衡和非平衡, 有单芯屏蔽、双芯屏蔽和四芯屏蔽等不同结构。其电器特性阻抗是由电阻R、感抗XL和容抗XC三者组成。我们以话筒与调音台之间的传输距离为例, 由于话筒音频电缆为非纯电阻R, 其阻抗Z是与频率相关的, 音频在传输过程中会产生失真。特别是当话筒电缆线超过50米以上的应用, 譬如演播室/录音棚与控制室的距离、舞台与控制室的距离, 话筒音频电缆线甚至有超过200到300米的应用。不少项目投资了价格昂贵的高端话筒和调音台, 但是如果或略了话筒电缆线对整个系统指标的影响就非常可惜了。

图1为模拟音频电缆等效电路示意图。等效电路中E为音频电压, I为音频电流, 有C电容、L电感、R电阻和G电导各一个, 通常仅表示测量单位每一米或一英寸电缆的等效参数, 实际的电缆参数会非常复杂。这里采用G电导代表由电缆绝缘体产生的损失, C电容和L电感的大小取决于频率。

上述音频电缆等效电路图的阻抗特性Z的计算公式为:

其中J=代表相位角+90°

在模拟音频电缆线中呈现的电阻R比较好理解, 各种材料的导电性不同, 同一种材料也因为线径和长度的不同而具有不同的电阻, 而在模拟音频电缆线中, 容抗XC比电阻更成问题。中间隔着绝缘体的两个金属物体可以形成电容器, 音频电缆的屏蔽层和内部导体, 导体与导体之间正好就是形成了这样的关系, 因此整条电缆就形成了电容性, 以它的容抗阻挡交流电流的流动。根据电容的性质, 频率上升会使容抗减小, 计算公式为1/ (2 (3.1416) f C) 。然而XC与电缆的电阻联合, 将形成低通滤波器, 电缆越长截止频率点就越向下移, 衰减越大。这是通常建议不用过长电缆的重要理由。导线的另一个属性是感抗XL。音频信号在导线中流通时产生随电压变化的磁场, 物理学称为“自感”, 这一磁场对信号的通过产生阻力, 它随频率的降低而变小, 计算公式为XL=2 (3.1416) f L。XL与电缆的电阻联合, 将形成高通滤波器, 感抗与电阻、容抗交互作用将产生复杂的结果, 包括音频传输的相移。所谓理想状态的音频传输是音频信号通过音频电缆线后仍能保持输入与输出的音频信号幅度与相位不变。但是由于模拟音频电缆线呈现的是与频率相关的特性阻抗Z, 因此音频在传输过程中不可避免就会产生相移等失真。

以平衡模拟音频电缆线, 由一个热端Hot、一个冷端Cold和一个公共线Common组成为例, 热端Hot与冷端Cold的音频信号之差为整个音频幅度, 采用平衡模拟音频电缆布线理论上可以有效地对抗来自外界的各种共模干扰, 但是在实际应用中由于每一条音频电缆线阻抗Z不会是绝对一致的, 产生相移后的音频干扰就无法抵消。不难看出采用平衡模拟音频电缆线比采用非平衡模拟音频电缆线产生的音频传输相移会更大更复杂, 不能简单地说采用平衡模拟音频传输各项指标一定比采用非平衡模拟音频传输好, 还是要看应用场合以及电缆线的应用长度。

为了尽可能保证每条音频电缆线阻抗Z的一致性, 荷兰Van Den Hul (范登豪) 公司采用独特的线性结构碳导体Linear Structured Carbon® (LSC) 取代常见的金属电缆线, 有一款The SECOND®平衡音频电缆线产品中心有两条导线, 每一条导线由12, 000条互相绝缘的碳纤维组成, 两条导线阻抗完全一致, 虽然线性结构碳导体LSC的导电性没有金属材料好, 每100米电缆导体有14.6Ohm, 屏蔽层有1.3Ohm, 但是电缆的阻抗Z的稳定性要比通常采用金属导线的音频电缆好。笔者与中国传媒大学李大康教授、北京电影学院录音系主任黄英侠教授在2005年8月参与了由著名的荷兰音乐频道唱片公司加雷德·萨克斯先生主持的SACD中国音乐录音专辑的技术支持, 录音采用范登豪线性结构碳导体音频电缆, 主观试听效果明显, 李大康教授还专门测量了导线内阻, 确实绝对内阻一致。通过这个录音实际例子, 可以证实音频电缆在系统设备的重要性。

二数字音频传输解决方案

以MOGAMI 110 AES/EBU数字音频电缆为例, 工厂建议最长应用长度为150米。数字化设备的数字抖动Digital Jeter是一项值得关注的指标, 与前面所述的关于音频工程中不能忽略电缆影响一样, 为了避免数字化设备的数字抖动, 模数转换器与调音台之间数字音频连接线AES/EBU、TDIF应用长度通常控制在6米之内。ADAT S/PDIF采用光纤传输线, 但是有效应用长度一般不超过10米。为了能够使每根数字线传输更多的通道, 以及更长的距离, 专业领域广泛地采用标准通信协议MADI (Multichannel Audio Digital Interface) 或者称AES10, 即多通道音频数字接口, 当支持56或64个通道时;每个通道最高采样率支持48kHz/24 bits;当支持28或32个通道时, 每个通道最高采样率支持96kHz/24bits;当支持16个通道时;每个通道最高采样率支持192kHz/24bits;当支持8个通道时;每个通道最高采样率支持DXD352.8kHz/DSD2.8224&5.6448MHz, 当MADI采用同轴接口其最长距离应用可达100米, MADI光纤接口最长应用达2000米。光纤传输不发射电磁波, 比导线传输损失小, 抗干扰性强, 大大降低了传输误码率和失真率, 也不必考虑传输长度与阻抗Z之间的变量关系。

有了MADI光纤接口解决方案, 就可以取代传统模拟音频电缆在长距离传输中的应用, 有效地避免传输失真。在实际应用中传输发生在演播室/录音棚与控制室, 或舞台与控制室之间, 而话筒输出都为模拟信号, 因此需要在一端配置有话筒前置放大器的模/数转换器, 通过MADI光纤接口输出多通道的数字音频线路电平信号至控制室, 同时要求话筒放大器的增益可通过RS422/USB/以太网控制协议连接由控制室实现遥控。Merging Technologies的Sphynx2就是第一款具备上述功能的配置有话筒前置放大器的模/数转换器, 每一个单元最多可配置8个话筒/线路通道, 支持24bit PCM 48kHz-384kHz, DXD 352.8kHz, DSD64fs/128fs。近年来武汉琴台大剧院、青岛大剧院、首都师范大学、中国音乐学院和中国传媒大学, 先后采用了由北京冠华荣信系统的MADI光纤接口的录音解决方案, 图2是为中国传媒大学现场录音系统设备示意图。

三音频传输解决方案三个发展阶段

1. 模拟域

信号处理设备之间采用点对点, 单向的模拟音频电缆连接方案, 每个逻辑链路需要有自己的物理连接, 传输基于模拟音频电子脉冲代表信号的波形。模拟信号的传输与分配是一种成熟的技术, 简单易懂, 易于维护, 它的优点包括极低的延迟及保持原始信号, 但是模拟信号的传输与分配面临着一系列严峻的挑战, 主要是长距离传输导致信号衰减, 抗干扰能力差, 因此, 信号的传输质量主要取决于电缆本身的品质, 以及外部干扰因素的影响程度。

2. 数字域

虽然在信号处理设备之间仍采用点对点的数字电缆、同轴线或光纤连接方案, 但是传输是以二进制代码代表数字化的信号波形, 逻辑链路与不同的信号在同一个时段可共享同一条数字电缆、同轴线或光纤连接, 增加逻辑链路取决于传输介质的带宽, 路由链接分配容易, 某些情况仅仅是在一个共享的连接上重新分配一个时段而已, 可通过插拔或软件控制的方式实现, 但是数字域的信号传输仍旧属于点对点的解决方案, 并需要符合数字传输的专用电缆。至于光纤与同轴电缆对比而言, 光纤为非金属材料, 比同轴电缆具备更强的抗外界干扰能力, 能够传输更长的距离。本文提及的MADI光纤接口解决方案, 是由AES-10, 1991推荐的串联多通道数字音频接口标准。

3. 网络域

网络域采用二进制代码代表数字化信号波形, 打包后通过网络设施传输。

根据所选择的基本技术和网络层的不同, 传输可采用不同的网络设施。最常见的解决方案是允许不同类型的信号, 甚至不同的服务, 可以共享相同的基础网络设施。在网络中, 逻辑链路层通常与物理连接层不相关, 因此信号可以分配传送至任何网络上的访问节点。此外, 网络技术自然支持点对点, 点对多点的连接, 即一个信号可以同时在网络中传送到任何所需的点。由于在数字域, 增加逻辑链接仅属于可利用的带宽问题, 但不仅关系到相关的物理链接, 而且关系到整体网络, 因此路由链接分配可通过配置和软件加以实现。网络域不仅具备所有数字域的优点, 而且具备更加的灵活性和可扩展性, 不仅允许多个信号类型和格式共享一个物理连接, 而且提供了机会, 在一个共同的网络基础设施上分享一切所需的服务, 甚至是一般的数据通信。与采用专业模拟或数字信号传输的设备相比较, 网络基础设施的部件, 包括交换器、路由器、电缆都是属于国际性标准通用件, 可选择范围巨大, 价格便宜, 方便维护。上个世纪70年代中期发明的以太网, 在全球性的通信数据传输平台中发挥了主导作用——包括VoIP服务。基于完善的底层网络技术, 以太网设备的性能和可靠性已完全达到了作为专业级音/视频媒体传输的参数要求。虽然目前专业音/视频媒体采用网络域平台解决方案的还不多, 但是毕竟这是业内发展的方向。英国BBC广播公司位于苏格兰总部以及位于威尔士和北爱尔兰的英语地区, 近年来已经先后使用通过因特网协议 (IP) 传输音频, 音频基于用户数据包协议 (UDP) 通过BBC的第三层网络传输发送。为了确保音频质量48 kHz/24bit无损, BBC采用网络服务质量 (QoS) 机制, 确保音频数据包传输的优先权高于其它网络流量。音频基于IP在大型体育赛事的另一个应用实例是2010年10月在印度举办的英联邦运动会上, 采用了一千多个Barix生产的IP音频编解码器, 以实现音频基于IP传输。

上一篇:和谐小康下一篇:孕产妇死亡监测