网络音频传输

2024-07-02

网络音频传输(通用7篇)

网络音频传输 篇1

摘要:针对目前网络音频传输存在的问题,通过计算机控制系统、音频流数据传输、多路音频网络实时广播系统三个部分对网络音频流数据传输问题进行了详细探讨,并将流媒体技术成功应用于多路音频网络实时广播系统。

关键词:网络,流媒体,数据传输,实时广播

0引言

在计算机网络技术迅速发展的今天,网络成为我们生活中不可缺少的一部分。人们每天都要从网络上通过视频、音频传输来获得大量的信息。作为获得信息的一个重要途径——声音是人类接受信息的重要媒体,声音传输占有重要地位,但目前网络音频传输存在着很大的不足:

1) 声音质量不满足要求。

随着生活质量的不断提高,人们希望广播的声音质量能达到CD的水平,而目前的声音广播质量在频带宽度、动态范围和干扰电平等方面都达不到这样的要求。

2) 传输方式单一,传输质量较差。

在当今信息社会,人们期望通过网络实时接受音频数据、音频传输智能化,传输的两方能够实时进行音频交流。尽管目前计算机网络的发展十分迅速,但它传送数据的容量和质量不能满足用户要求。

为了克服这些缺点,大幅度地提高声音广播的质量、接收质量和增加数据业务,势必采用目前比较先进的网络音频流传输技术。

虽然需要采用目前比较先进的技术来研究网络音频流数据传输问题,但是它和传统的音频文件传输非常相似,也可以说,网络音频流数据传输是采用多播、组播、单播等的通信方式来传输,实现点到多点,点到点的通信,这也正是本文中重点阐述的问题。在所研究的问题中,一个重要的问题是利用计算机控制系统来控制音频流数据的网络传输,因此要涉及到计算机控制系统。

1计算机控制系统

1.1计算机控制系统的概述

计算机的发展以网络化、模块化和微机化为特征,为其应用开辟了无限广阔的前景。计算机解放了人类的智力,提高了人类的能力和工作效率,计算机在工业领域正成为不可缺少和不可替代的强有力的控制工具。由于计算机控制系统的应用,许多传统的控制结构和方法被替代,工厂的信息利用率也大大提高,控制质量也更趋优良和稳定,计算机的发展也推动了自动化控制理论的应用和发展。

现在,由于计算机的微型化、网络化、性价比的上升和软件功能日益强大,计算机控制系统不再是一种昂贵的系统,它几乎可以出现在任何场合:实时监控、数据采集、信息处理、数据库等。

近20年来计算机控制系统的普及和应用有了突飞猛进的发展。而计算机控制系统的性价比的不断提高更加速了这种趋势。在过程控制方面的软件技术如:DDE、ACTIVE X、OPC和COM等的引入,给工业生产带了可观的效益。可以说,在各个领域中没有计算机控制的参与,各方面的工作将很难开展。在我们研究的软件里就是用计算机的控制来实现音频数据在网络上的实时传输。

1.2计算机控制系统的软件开发

Visual C++6.0是一个Windows下简单,易学,高效的可视化软件开发平台,它以所见即所得的可视化界面设计风格和32位面向对象程序设计的特点,已经被广泛应用到各个领域,成为众多开发人员采用的工具。VC不仅提供了良好的界面设计能力,而且在串口通信方面也有很强的功能,它提供的MSComm通信组件隐藏了大部分串口通信的底层运行过程和许多烦琐的过程,它使用户能够方便的访问Windows下串口通信驱动程序。所以整个串行通信程序的开发过程变得十分简单易行,程序员不需要处理烦琐的细节,而通过利用通信控制组件只需要编写少量的代码来实现主要应用功能和界面设计,就可以完成软件的开发过程。

2音频流数据传输

随着现代网络技术的发展,作为第四媒体的网络开始带给人们的是更多形式的信息模式。从在网络上出现第一张图片,到现在各种形式的网络视频,三维动画,人们的视听觉感官在网络上得到了很大的满足。而同时面临的是另外一种不可避免的尴尬:正是由于人们需求的不断提高,上网人数的不断增加,加之网络硬件设备的局限性,使得文件的大小成为网络传输一个不可忽视的参数。一方面,人们希望能在网络上看到生动清晰的媒体演示,另一方面人们又不得不去面对如此慢的网络速度下文件传输所需的大量时间。为了解决这种矛盾,一种新的媒体技术应运而生,这就是“流媒体”。

2.1流媒体的定义

流媒体是指应用流技术在网络上传输的多媒体文件,而流技术就是把连续的影像和声音信息经过压缩处理后放上网站服务器,让用户一边下载一边观看、收听,而不需要等整个压缩文件下载到自己机器后才可以观看的网络传输技术。该技术先在使用者端的电脑上创造一个缓冲区,在播放前预先下载一段资料作为缓冲,与网络实际连线速度小于播放所耗用资料的速度时,播放程序就会取用这一小段缓冲区内的资料,避免播放的中断,也使得播放品质得以维持。

2.2流媒体的构成

流媒体是由各种不同的软件构成的,这些软件在各个不同的层面上互相通信。基本的流媒体系统包含以下三个组件:

播放器(Player) 用来观看或收听流媒体的软件

服务器(Sever) 用来向观众发送流媒体的软件

编码器(Encoder) 用来将原始音频视频转换成流媒体格式的软件

这些组件之间通过特定的协议互相通信,按照特定格式互相交换文件数据。有些文件中包含了由特定编码解码器编码的数据。这种编码解码器通过特定的算法压缩文件的数据量。

2.3流媒体的技术原理

流媒体传输的实现需要缓存。因为网络以包传输为基础进行断续的异步传输,对一个实时A/V源或存储的A/V文件,在传输中它们要被分解为许多数据包,由于网络是动态变化的,各个包选择的路由可能不尽相同,故到达客户端的时间延迟也就不等,甚至先发的数据包还有可能后到。为此,使用缓存系统来弥补延迟和抖动的影响,并保证数据包的顺序正确,从而使媒体数据能连续输出,而不会因为网络暂时拥塞使播放出现停顿。通常高速缓存所需容量并不大,因为高速缓存使用环形链表结构来存储数据:通过丢弃已经播放的内容,流可以重新利用空出的高速缓存空间来缓存后续尚未播放的内容。

3多路音频网络实时广播系统

3.1多路音频网络实时广播系统

传统公共广播系统是由广播节目源、信号前级放大处理设备、功率放大器、其它周边设备及线路负载(扬声器)组成。

随着多媒体计算机硬件水平的提高和相应的专用软件的开发,为多媒体公共广播系统的普及应用打下了技术基础。使得真正意义上的“多媒体公共广播系统”开始了实际应用。

多路音频网络实时广播系统又是多媒体广播系统的一个部分。它的软件有以下特点:

1) 网络输入设备可以是麦克风、CD机、文件或其他连线设备,输入设备可以选择任意声卡。

2) 音频接收端可以选择声卡,声道等。

3) 音频接收端可以选择接收多台电脑的音频数据。

4) 音频发送端可以网络广播,让多台电脑接收数据。

5) 音频接收端支持多块声卡,声卡分配由用户选择。

6) 支持所有支持动态连接库编程的语言(如:VB,DELPHI,C++Builder,VC++等等)。

7) 注意网络测试,必须有两台电脑,IP地址必须在广播范围之内。

如果用于公共场所,可集信息、公共广播、背景音乐等多种功能于一体。在以音乐(或音乐铃声)完成信息传输的同时,在同一时间不同地点进行实时广播。

音频实时广播系统如果用于超市,既可以定时播放背景音乐,也可临时插播商品信息或通知,为超市创造轻松的购物氛围,为顾客提供更加完善的服务环境。

与传统公共广播系统相比,采用多路音频网络实时广播系统可以节省不少节目源播放设备、信号前级放大处理设备(如前置放大器、矩阵切换器、节目定时器等),在降低系统设备的总体造价的同时又提高了设备的可靠性;由于采用各种格式音频文件进行播放,省去了大量CD唱片和录音磁带,降低了日常使用费用;与此同时节目定时自动播放功能可以在一定程度上实现无人值守。总之,多路音频网络实时广播系统是当今社会技术进步的一种体现。

3.2实时广播中面临的困难

网上的实时广播要求事件的影像文件实时的编码,并且将文件流直接发送到服务器上。服务器将获得的文件流直接向观众广播。目前在局域网内可以采用广播协议将视频信号发送到网内的各个终端,但是如果用户所处的位置并不是和服务器处于同一个网段,那么可以采用组播(多播)协议,使用户正常接收。

在客户端与媒体服务器之间建立一个单独的数据通道,从一台服务器送出的每个数据包传送给每一个客户机。每个用户分别对媒体服务器发送单独的查询,而媒体服务器向每个用户发送所申请的数据包拷贝。这种传送方式称为单播,需要足够的带宽来保证一定的服务质量。在一个组织内部网络,在客户端较少的情况下,是完全可以满足图象质量与声音质量的要求。

其基本设置如图1所示:

要使实况信息能够顺利传输而又不更改所有网络配置,采用流媒体技术进行实况转播成为众多传输方案中的上佳选择。目前流媒体的不足之处主要体现在没有规范统一。MS、REAL、APPLE都有自己的标准和独立的通信协议,如MS采用MMS,REAL采用RTSP,虽然可以采用HTTP协议接收,但是并不是很适合流媒体的传输。如果采用MMS或RTSP协议,在一些防火墙和路由器上就难以通过。

3.3使用恒定比特率编码进一步优化

当流媒体通过调制解调器之类的固定宽带时,就需要固定带宽的编码解码器。WME内置“速率控制”模块,其使用一个中间缓冲区平滑原来信号的峰和谷,这样就输出了一个固定的比特率。编码和解码器监控缓冲区的空间并动态改变压缩质量以保证得到目标比特率。这个编码模式称为恒定比特率编码(CBR)。

3.4音频编码

在网络音频传输的过程中,音频数据传输的优劣直接影响到音频播放效果的好坏,所以,应该为音频编码。

对音频编码的方式有两种:低数据率和高数据率。

在低数据率下编码时,例如采用56K的MODEM接入网络,选择最低的音频数据率就可以得到足够好的效果,尤其是语音质量。比较低的音频数据率还可以使系统在拥塞或数据丢失造成的低数据率下依旧保持音频信号的连续。如果带宽有限,不妨将音频编码为单声道,进一步降低数据率。

在高数据率下(>300kbps)编码时,音频数据可以占到带宽的15%至20%,但是不必超过64kbps,因为在48kbps时,WME就能够提供接近CD音质的音频,而在32kbps时能够提供调频质量的音频,这些对于实况转播来说已经足够了。

考虑到本方案只是利用流媒体技术做网络音频的传输,因此不必专门架设流媒体的服务器,编码器和存储器,利用一台本地高性能的计算机就可以满足实时传输的需要,一旦任务结束,机器仍就可以挪为他用。其设置如图2所示:

4结束语

与传统公共广播系统相比,采用多路音频网络实时广播系统可以节省不少节目源播放设备、信号前级放大处理设备(如前置放大器、矩阵切 换器、节目定时器等),在降低系统设备的总体造价的同时又提高了设备的可靠性;由于采用各种格式音频文件进行播放,省去了大量CD唱片和录音磁带,降低了日常使用费用;与此同时节目定时自动播放功能可以在一定程度上实现无人值守。减轻广播值班人员的劳动强度。总之,网络音频流数据传输是当今社会技术进步的一种体现。

参考文献

[1](美)J.C.Whitaker.数字音频技术宝典(第一版)[M].张雪英,刘建霞,译.北京:科学出版社,2004.

[3]精英科技.视频压缩与音频编码技术[M].北京:中国电力出版社,2001.

网络音频传输 篇2

Cobra Net系统由于其信号传输延时小、信号质量高、布线成本低、使用通用协议进行控制、抗干扰性强, 系统各部分之间为对等独立、信号监控方便等优点使用最为广泛, 已成功应用于国内外诸如迪士尼动物王国背景音乐系统、悉尼2000年奥运会主会场扩声、广播电台系统等多个重大工程的音频传输系统, Cobra Net技术已成为音频网络产品的业界标准之一。

大连广播电视台在广播技术升级改造中, 综合考虑安全性、扩展性、性价比等方面因素, 将Cobra Net技术应用到了总控系统的建设中, 构建总控机房音频信号的监听、监视及传输网络, 完成对七套立体声节目的网络化监视、监听、报警和传输。利用Cobranet协议可以在一根普通五类线上传输高达64路无压缩的符合广播要求的音频信号。在传输过程中, 能通过软件控制实现各路音频信号的自由交换和分配。作为总控系统的第二路由, 它对音频信号的传输做了必要的备份。在保证安全优质播出的同时, 也展现了Cobra Net技术的优势和特点。

2 系统总体要求

总控系统作为电台技术的核心, 承担着大连广播电视台七套广播节目和一套网络广播节目信号的输入输出、切换调度任务, 其中还包括多路卫星转播信号和外传直播节目信号的调度任务。

大连广播电视台广播总控系统是一个同时运行的双路由主控系统, 一个路由采用大型核心矩阵, 另一个路由采用网络音频路由系统, 互为备份, 能统一控制和同步切换。因此, 网络音频路由系统必须能够提供与大型音频矩阵相同的路由控制功能, 能实现直播间的信号、转播信号、返送信号、录音间信号路由的任意分配;并可以对信号进行实时的监听监测, 显示设备设备状态, 如有异常可以发出报警。

3 硬件设备

3.1 设备选择。

总控Cobra Net网络音频路由系统采用北京英夫美迪公司生产的Ether Audio系列音频路由器。Ether Audio音频路由器通过专业Cobra Net协议实现音频传输, 具有Cobra Net双网口冗余备份, 当一个网口出现故障时, 音频信号自动切换到另一个网口上, 切换时间是毫秒级, 不会造成声音的中断, 保证了信号传输的可靠性。所有音频信号均以24bit/48khz的高质量数字量化传输, 不进行压缩, 保证音质的原滋原味。音频信号和控制信号同网传输, 不需要再另外敷设控制信号网络。提供最多16路音频输入输出通道, 其音频输入输出通道采用模块结构, 便于维护。根据I/O口的数量分配和格式, 输入输出数量可以任意选择, 适合不同的要求。此外, Ether Audio还具有音频峰值和相关系数测量和显示功能, 可在监控电脑上显示监测点的彩条等数据, 支持监测电脑点播网络中的音频信号进行实时监听。双电源冗余备份, 提高了设备的可靠性, 保障设备正常工作。

此外, 在此方案中我们选择了两台H3C S3600系列48口高性能千兆以太网交换机与13台Ether Audio音频路由器共同构成网络音频路由系统, 提供了33*26的信号交换能力。两台交换机互为备份, 并且均配有双冗余电源, 能极大的确保音频路由系统的可靠性。

3.2 硬件系统框图。Cobra Net网口传输音频信号、控制信号以及软件对设备的识别等。Ethernet网口主要是UDP广播数据。

4 系统软件

总控系统软件Control Master是一套完整的软件解决方案, 它基于以太网技术, 采用模块化设计。实现音频信号的控制切换、音频信号的路由, 同时提供强大的音频信号监测及智能处理功能。Control Master采用“核心+驱动”的架构, 能和多种不同的音频矩阵协同工作。在系统中通过协议可控制由多个不同厂家生产的音频设备, 实现设备无关的主控及监测功能。

总控软件系统为三层结构, 分别为驱动层、服务层、应用层, 各结构间通过标准TCP、UDP进行通信。每一层完成相应的系统功能。具有很强的扩展性, 部署灵活, 方便裁减。

驱动层主要包括各种设备的驱动程序, 是系统与设备沟通的桥梁。驱动程序向下控制设备, 向上与服务程序连接, 为服务程序提供与设备的接口。驱动程序与服务程序接口使用TCP协议, 与程序通信依设备不同而不同, 常用有TCP、UDP、RS485、RS232等方式。

服务层由服务程序及一个MSSQL数据库组成。服务程序类似操作系统本身, 连接所有驱动程序, 获取数据写入数据库。并为应用层程序提供接口。MSSQL数据库为主控系统的数据中心, 为服务程序与应用层程序提供数据的存储与交互。

应用层包括各种客户端应用程序, 是用户与软件交互的接口。程序从数据库获取数据, 连接服务程序向主控系统发送命令, 接收服务程序发送的数据、消息显示给用户。

由于总控系统庞大复杂, 因此本文只针对Cobra Net网络音频路由系统的软件部分做简要介绍。总控系统的其他软件功能不再一一赘述。

系统中的13个Ether Audio音频路由器是由同一个驱动程序, 即Ether Audio驱动程序来控制的。服务程序连接Ether Audio驱动程序, 从而获得原始的设备信息。例如:系统中有多少个设备, 每个设备有多少个通道, 当前的连接关系是什么。获取后将数据写入数据库。所有的客户端都是首先连接数据库, 从数据库中获取数据。如果客户端需要控制设备, 客户端再去连接服务程序。发命令的时候永远是:由客户端发命令给服务程序, 告诉服务程序它要控制Ether Audio音频路由器, 服务程序再把命令发给Ether Audio驱动程序, 最后由Ether Audio驱动程序告诉设备要做什么。设备接到命令后去执行, 执行完成后将结果一级一级返回, 通知用户操作成功。

4.1 信号路由控制。

信号路由的控制是通过连接客户端来实现的。Cobra Net网络音频路由系统可以和矩阵路由系统统一控制, 同步切换。在连接客户端中, 用户可以将Ether Audio音频路由器的任意一路输入分配到任意一路输出。软件采用XY的切换方式, 方便用户连接。此外, 系统提供锁定连接功能防止用户误操作, 覆盖原有连接时必须先解锁才能操作。

4.2 信号监听监测。

信号的实时监听监测是通过系统中的另一个客户端———监控客户端来实现的。监控客户端可以监测Ether Audio音频路由器的在线状态、电源状态、驱动程序的在线状态, 用报警指示等的形式显示在监控电脑屏幕上。在状态出现异常时, 报警指示灯会改变颜色, 并伴有声音报警, 提醒值班员设备出现问题, 需要立即处理。此外, 监控客户端可以实时点播监听Cobra Net网络音频系统中的音频信号, 显示监听点的彩条, 从而使值班员对系统中的信号状态有更直观、更真实的了解。监控客户端中的报警灯, 彩条, 监听按钮等都是客户端软件中的一个控件, 可以灵活的通过拖拽的方式显示在监控电脑屏幕上。

实时点播时, 由监控客户端发起一个监听并逐级发送, 一直发送到Ether Audio的驱动程序, 驱动程序告诉设备哪台监控计算机的哪个端口需要该设备的哪个通道的音频数据。设备返回一个成功后将音频数据打包直接发给监控客户端, 发到指定的IP、指定的端口。监控客户端再将收到的包解包还原, 听到的就是由Ether Audio网络音频处理器设备实时发送回来的音频。

5 结论

数字音频无线传输系统研制 篇3

本项目对目前的无线传输系统进行研究, 并结合音频信号的特点, 建立系统模型, 对系统的各个部分进行分析, 给出系统设计的基本原则。对其进行论证、优化, 给出最终结构。本项目用低功耗MSP430系列单片机和无线收发芯片组建数字音频无线传输系统。

2 硬件选择与设计

MSP430F1121型单片机驱动电压范围为1.8V-3.3V, 功耗极低 (在1M主频、2.2V供电电压、工作模式下负载电流仅仅160u A) , 而且其价格非常低廉, 适合本设计需求。

本设计中采用的MSP430是一种特别强调低功耗的单片机, 它提供丰富的软硬件组合形式, 能够达到最低功耗并发挥最优系统性能。通过不同的配置, MSP430可以提供6种不同工作模式:一种活动模式、5种低功耗模式。设置控制位MSP430可以从活动模式进入到相应的低功耗模式;而低功耗模式可通过中断方式回到活动模式。

不同的短距离无线通讯协议都有其特定的适用范围, 因此选择合适的通讯协议对于解决实际问题至关重要。Zig Bee技术适用于少量数据无线传输, 另外Zig Bee技术功能强大的同时稳定性稍有欠缺。对于无线话筒这种时断时开的链接形式, 在系统配对时存在延时, 用户体验欠佳。WIFI技术, 功率过大, 且实现起来硬件成本过于高昂不适合本课题。Ir DA红外传输技术适用于点点带宽传输, 且其带宽较低也不适用。其他的一些数字无线通信技术还有蓝牙 (Bluetooth) 和NORDIC的低功耗通信技术。蓝牙技术的最高理论带宽只有1Mbps。CD音质音频的传输速率就达到1.5Mbps以上, 因此蓝牙技术也被排除在外。NORDIC技术方案的功耗比较低, 且大部分通信协议均由硬件完成, 外围电路和软件开销较小, 实现起来比较简单, 综合考虑本课题决定采用NORDIC无线通信技术方案。

对于常见方案是将声音信号经过AD转换成数字信号, 然后通过射频收发信号。CD音质音频的传输速率就达到1.5Mbps, 如此大的数据吞吐量, 一般的无线传输芯片难以达到, 且成本过于高昂。因此必须对数字信号进行压缩处理, 如果将所有的音频数字信号交由单片机处理, 则数据量非常庞大。普通的单片机无法胜任, 且存在音频数据的压缩等一系列问题。如果完全重新开始进行算法设计的话, 无论从成本和时间来考虑都是不合实际的。在当今这个高度分工的社会, 利用现有的技术是理想的选择。

NORDIC公司的n RF24系列芯片, 是目前资料能查到的2.4G频段无线传输最理想的芯片。经过多次比较n RF24Zl芯片是一款性价比比较高的芯片, 且符合本方案的要求。n RF24Zl是Nordic半导体公司推出的单片式CD音质无线数字音频芯片, 其具有4Mbps的速率, 且功耗仅为蓝牙芯片组的一半。片内集成了电压管理器, 能够最大限度的抑制各种噪声。同时工作电压为2.0~3.6伏。n RF24Zl有12S串行接口和S/PDIF接口两种数字音频接口, 提供了与各种AD和DA芯片之间的无缝连接, S/PDIF接口提供了与PC和环绕设备的直接接口。通过SPI或I2C接口来对芯片进行控制, 同时还提供了控制信息如音量、平衡、显示等双向传输的功能, 是一个使用、性能、成本相结合的数字音频芯片。

因此在整个方案中, 单片机的主要任务是完成音频芯片的初始化和系统工作的简单控制, 如音量调节和无线功率调整等等。由A/D转换的数字音频信号不经过单片机处理而是通过接口直接送至n RF24Z1, 然后经过调制发送出去。在接收部分调制的信号直接由n RF24Zl发至D/A转换芯片, 然后将音频信号由扬声器或者耳机输出。另外只要设计好晶振, 电源等一些辅助的外围电路, 系统就能正常工作了。

3 电路设计

n RF24Z1及其外围电路包括n RF24Z1芯片、电源、晶振、天线等几个主要部分。电容C1、C2、C3主要是平抑电源波动、避免电磁干扰;C9、C10为晶振Y1的匹配电容;ANT外接50欧的2.4G天线。n RF2401及其外围电路如下图1所示:

4 软件设计

软件设计的主要的思路在于系统开启后不断检测按键的状态, 一旦检测到按键按下则进行录音, 实时将声音进行压缩和传送。接收端接收对方发送的数字音频信息进行播放。系统状态切换流程如下:

5 小结

本项目的数字音频无线传输系统具有以下技术特点:采用最新2.4G无线传输技术, 44.1K采样率, 24bit AD采样实现无损高保真数字音频传输, 16个可选工作通道。发射CD音频完全不需经过压缩处理, 接收音频端直接接收音频信号。做到无线跟有线的音质相同。

摘要:数字音频无线传输系统是传输声音信号的音响器材, 由发射机和接收机两大部分组成。发射机将声音信号转换为数字信号, 通过无线电波发射出去。接收天线将收到的无线数字信号转换为音频信号送到外设备, 完成音频信号的无线传输。现行的无线音频传输系统要么功能强大全面, 但是价格高昂。要么功能简单, 效果恶劣, 无法使用。对于教学系统来说, 前者资源浪费, 后者不堪使用。本项目的目的就是针对课堂教学开发出一个低成本、高质量, 切合实际的无线音频传输系统。略加改良, 本体统可以在家庭影院, 卡拉OK, 校园广播等等领域应用, 市场前景广大。

关键词:音频,无线,传输

参考文献

[1]马跃坤, 应时彦, 杨文君, 肖林荣.基于n RF24LE1的无线数据传输系统实现[J].浙江工业大学学报, 2010 (06) .

数字音频信号的传输与测量 篇4

随着广播设备数字化技术的飞速发展, 广播发射机节目源已从原来的模拟音频信号逐步过渡到了数字音频信号。数字信号有诸多优点, 主要表现在数字信号对干扰不敏感、基本上与传输距离无关、可以再生、可由处理器进行修正以及更好地集成等。数字音频的标准有SPDIF、AES/EBU、M ADI等, 其中, AES/EBU又称为AES3, 是音频工程协会和欧洲广播联盟共同制定的标准, 它是传输和接收数字音频信号的数字设备接口协议。

我台广播节目传输的数字音频信号采用的就是AES/EBU标准, 其节目传输示意图如图1所示。从图1中我们可以看到, 从卫星接收机解码输出的AES/EBU数字音频信号, 经音频分配器后, 其中一路经平衡/不平衡转换器, 将数字音频信号由110Ω平衡信号转换为75Ω不平衡信号后通过同轴电缆送到发射机;另一路110Ω平衡数字音频信号送到数字音频光端机, 通过光缆送到发射机。

2 数字音频信号的传输

从目前来看, 传输AES/EBU数字音频信号不外乎如下几种方式, 即:屏蔽双绞线电缆传输、同轴电缆传输和光纤传输三种。下面结合我台数字音频传输实例, 分别介绍三种不同的传输方式。

2.1 双绞屏蔽线电缆传输

用双绞线屏蔽电缆传输模拟音频信号是最早使用的手段之一, 它的优点是:在传输距离较短时, 铺线较容易, 比起其他传输手段来说, 投资相对少, 技术较成熟, 维护方便等。其缺点是:传输距离较远时频响较差。

模拟音频的频响为20Hz到20kHz, 它可以通过双绞线屏蔽电缆从一处传输到另一处。由于音频电缆上所使用的插头从RCA到专业的X LR接插头, 种类繁多, 因此, 当人们刚开始考虑专业数字音频信号的传输时, 就很自然地选择使用带有XLR插头的双绞线屏蔽电缆。数字音频双绞电缆与标准模拟音频双绞电缆的区别关键在于特性阻抗指标。AES/EBU标准由于公差范围宽, 特性阻抗范围可以从88Ω到132Ω;标准模拟音频电缆的特性阻抗从45Ω到70Ω。如使用模拟音频电缆线传输数字音频信号, 因阻抗不匹配, 会导致信号反射及抖动, 从而在接收端产生误码, 由于这个原因, 推荐使用100Ω至120Ω的屏蔽双绞线数字音频电缆用于数字音频传送 (电缆的阻抗不是直流阻抗, 而是高频信号下的交流阻抗, 万用表是测量不出来的) 。数字音频信号通过平衡屏蔽的双绞线电缆从一个发送器传输到另一个接收器的距离可达100m。

图2是AES数字音频双绞线传输的电路示意图。在AES数字音频信号传输中, 通常使用RS-422A数据通讯的标准驱动器和接收器芯片, 而使用变压器耦合可获得较好的共模拟制, 且避免了信号的大地回路, 电缆较长时也可使用均衡补偿。

2.2 同轴电缆传输

如果通过某种方法将AES数字音频信号电平变为1V, 阻抗变为非平衡75Ω, 那么就可以将数字音频信号如同视频信号一样传输。图3为使用同轴电缆进行数字音频传输的原理示意图。其传输规范为AES发布的一份文件AES3ID, 在该文件中, 描述了同轴分配装置的优越性, 还包括了电缆、电缆平衡器以及接收器电路等方面的信息, 在接收器的信息中, 还包括当需要将AES3格式的信号长距离 (1000m) 传输时或在模拟视频分配设备的环境中使用时, 标准AES3设备与电缆系统进行转换的变换器。我台广播节目通过平衡至不平衡变换器将110Ω阻抗变换为75Ω阻抗, 并通过同轴电缆进行节目传送, 其稳定传输距离已达500m, 平衡/不平衡转换器原理图如图4所示。

需要指出的是, 平衡和不平衡传输系统不能直接对接, 原因主要有两个:

(1) 电平不匹配

AES数字音频信号是TTL的5V电平, 遵循RS422的接口, 而BNC的AES/EBU接口的电平是0.5V, 比较低幅度的信号送入XLR的5V接口容易发生电平不翻转的问题 (AES/EBU平衡的接收器最低的输入幅度要求大于200mV, 0.5V的BNC接口外加线路损耗, 尤其是低频的电阻损耗和高频的介质损耗, 往往中长线路不能保证其衰减控制在-6dB以内) 。此外, 用平衡直接连接到不平衡, 输入信号太大, 加重了发送端的负载。

(2) 阻抗严重不匹配

75Ω与110Ω直接对接, 在整个传输系统中会出现回波, 它重叠在原信号上, 使得传输系统的孔径变小 (眼图抖动变大, 开度减小) , 当小到接收器不能正常解码而时常出现误码时, AES/EBU每个子帧的校验位将出错, 接收器会将这个错误子帧丢弃, 造成音频传输错误。

在平衡和不平衡传输系统之间通常要加装变压器, 用来进行电平和阻抗的转换。

2.3 光纤传输

光纤传输信息时, 是将电信号转变为光信号, 然后在光导纤维内部进行传输, 因此光纤传输具有很强的抗干扰性、保密性和可靠性;它的传输损耗小, 传输容量大, 不会因大气条件变化而带来质量损伤, 也不存在带宽瓶颈问题;它还具有体积小、重量轻、铺设容易等一系列优点。目前, 光纤传输设备使用简便, 没有同轴电缆的均衡需求, 光纤传输设备几乎不需维护, 且可靠、稳定、便宜, 因此, 采用光纤通讯技术, 可以大大提高广播电视节目的传输质量。目前, 一条单模光纤可以传输2.488Gb/s的数字信号。采用1550nm光波长时, 中继距离可在100km以上, 图5是数字音频光缆传输的原理图。

采用光缆传输在发送与接收端需要增加额外的光端机, 相对于无源的电缆传输, 也增加了一个故障环节, 但其在抗干扰性能和传输距离上却有着电缆无法比拟的优点。

3 数字音频信号的测量

AES/EBU数字音频信号可采用平衡传输方式, 也可采用非平衡传输方式, 虽然这两种传输方式输入/输出接口的阻抗和电气特性有所不同, 但是两种传输方式所传输的数据帧结构却是一致的, 都是遵循AES/EBU帧结构标准。

3.1 电气特性

数字音频信号采用不同的传输方式, 其对应的接口和电平都各不相同, 表1为采用平衡双绞线进行数字音频传输时的电气接口参数, 表2为采用同轴电缆进行数字音频传输时的电器接口参数。

3.2 数据帧结构

要对数字音频信号进行测量, 首先要了解AES/EBU数字信号的结构特点以及各个校验位与状态帧的含义, 测量时可采用专用设备, 也可采用数字存储示波器来完成。在AES/EBU数据帧中包含了时钟信息、音频数据帧、非音频数据三种数据类型, 下面将分别对这三部分数据信息进行介绍。

3.2.1 时钟信息

在AES/EUB数字音频信号中, 采用“双相位”编码方式, 将信号的时钟信息嵌入AES/EBU数字音频信号流中。

在“双相位”编码方式中, 把每一个逻辑“1”和逻辑“0”位所占用的时间称为一个“时间片”, 在逻辑“0”位时, 只在“时间片”的开始与结束处信号进行高、低电平的跳变;在逻辑“1”位时, 不仅在“时间片”的开始和结束处信号进行高、低电平的跳变, 同时还要在“时间片”的中央再进行一次高、低电平的跳变。如一段001010的数据经过“双相位”编码后的电平图如图6所示。

在图6中, 时间片1、2、4、6中传输的是“0”, 时间片3、5中传输的是“1”, 则除了在时间片的开始和结束处分别有一个电平的跳变外, 在时间片的中央还有一个电平的跳变过程。

通过这种传输编码方式有以下两方面的好处:第一, 接收端可以从传输的信号中重建信号的传输速率, 从而得到所接收信号的时钟信息;第二, 通过这种传输编码, 可以消除传输链路上由于“常1”或“常0”而造成的积累电平, 使传输链路上的电平处于0V。

3.2.2 音频数据帧

在AES/EBU数字音频信号中, 音频信息以数据帧的方式传输, 其中每个音频数据帧包含左、右两个子帧, 并以串行的方式排列传输, 左子帧在前、右子帧在后。左、右两个子帧的结构是一致的, 其构成如图7所示。

从图7中可以看到, 在左、右子帧中各占有24bit的长度的音频数据, 其内容为一个采样信号的量化数值。LSB为最低有效位, MSB为最高有效位。24bit音频数据表示最高的量化深度为24bit, 同时在传输量化深度为16或20bit的音频数据时, 可以采用最低有效位向右移动相应位, 将最低有效位左边的数据位给予置“0”的方式来完成。图8为一个音频数据是16bit长的左、右子帧示意图。

图7、图8中, 各字段和字母的含义如下。

(1) Preamble:标识数据。其编码方式不遵循“双相位”编码规则, 也是在AES/EBU信号流中唯一不遵循“双相位”编码规则的数据。其占有的时长为四个“时间片”, 在这四个“时间片”长的脉冲中, 会出现一个或两个持续时长为1.5个“时间片”长度的逻辑“1”或逻辑“0”脉冲。如图9所示。

Preamble通常有如下三种类型的标识数据:

(1) X类型的标识数据, 表示在标识数据后跟的是左声道的音频帧;

(2) Y类型的标识数据, 表示在标识数据后跟的是右声道的音频帧;

(3) Z类型的标识数据, 表示在标识数据后跟的是一个左声道的音频帧, 同时也表示是一个新的状态数据块的开始。

(2) V:有效位 (Validity bit) 。其功能主要是确认传输数据的有效性。如果有效位被置为“1”, 表示接收到的数字音频信号不适合转换成模拟信号, 在其它情况下, 比如传输的数据产生了一些错误或在帧中传输的数据不是线性的PCM音频数据, 都会使有效位置“1”。

(3) U:用户数据位 (User-bit) 。在AES/EBU信号中没有使用。

(4) C:通道状态位 (Channel-status bit) 。在AES/EBU数字音频信号协议中, 规定每192个音频数据帧为一块, 块中包含有192个左帧、192个右帧, 每个块的开头标识为Z类型的标识数据。在块中所有的左帧和右帧内的通道状态位就分别组成了一个192bit长度的左状态信息数据和右状态信息数据, 也就是说, 单个帧中的通道状态位是没有意义的, 一个音频块的数据类型、采样频率等信息是通过块中所有帧的通道状态位组合起来实现的。

(5) P:奇偶校验位。为该子帧的奇偶校验位。

3.2.3 非音频数据

如上所述, 每个音频块含有192个帧, 其中所有的左帧和右帧内的通道状态位, 组成了一个192bit长度的左状态信息数据和右状态信息数据, 这192位作为192/8=24个字节, 对块中的音频数据进行说明, 表示了所传数据的采样频率、量化深度、循环校验码等信息。

3.3 数字音频信号的码率

我们知道, 一个音频数据块有192个帧组成, 每个帧由两个子帧组成, 帧在使用的采样率下重复。第一个子帧包含来自通道A中的采样数据或是立体声中在左声道的采样数据;第二个子帧为通道B或是立体声右声道的采样数据, 每个子帧含有32bit的数据。在48kHz采样频率下, 其码率为:

帧中的一个数据比特持续时间为:1/3.072Mbps=325.5ns, 每个音频帧包括64bit, 每个音频帧的持续时间为:325.5ns×64=20.83μs, 在双相标志码编码后, 数据传输率将提高到两倍, 即:3.072×2=6.144Mbps, 一个双相标志码比特单元时间为325.5ns/2=163ns。

知道了码率和数据比特和音频帧的持续时间, 在使用数字存储示波器进行测量时, 就能根据要测量的内容调整时间参数了。比如要查看一个音频帧, 那么我们可以根据音频帧的持续时间20.83μs, 将扫描时间调整到大于21μs等。

3.4 专业数字音频测试仪器

目前, 许多厂家针对AES/EBU数字音频生产出了一些专业测试仪器, 这些仪器可按AES/EBU和S/PDIF (IEC60958标准) 标准, 对数字音频信号进行电学和定时同步 (抖动) 分析以及其他测量;仪器可通过对“连通性”的检查, 再结合其内置的自动测试程序, 可在各种环境和场合下快速且可靠地完成正常/失效的判断指示, 提供比示波器更专业的测量和检查手段, 以确保数字音频系统的可靠运行。

有些仪器还具有详细诊断功能, 比如, 音频、通道状态数据内容及电学参数等诊断, 其中电学参数包括:信号源及同数据相关的抖动、振幅和眼图闭合诊断等。甚至有些仪器还提供了信号发生器功能, 可通过一系列特别设计的AES/EBU标准数字音频接口测试信号, 包括:信号源恶化的信号、与数据相关的抖动信号、用于bit误码检测的伪随机序列信号 (PRS) 等, 用来测试传输通路的可靠性和传输媒介的损耗情况。

4 小结

随着电台广播节目数字化的普及, 数字音频已逐渐取代了模拟音频的传输与调度, 为充分发挥数字音频的优势, 只靠使用万用表简单地测试信号通路的连通与否, 已无法满足数字音频信号传输的要求。只有明确了数字信号传输的电气特性和数据帧结构, 才能发现数字信号传输过程中出现的问题并及时进行处理, 用以确保广播传输发射工作高质量、不间断地运行。

摘要:本文结合实际应用讲述了AES/EBU数字音频信号的三种传输方式和传输方式之间的转换方法, 并对AES/EBU数字音频信号的电气参数和数据帧结构进行了详细的描述。

网络音频传输 篇5

节目传送系统是大功率广播发射台的重要组成部分之一, 它的稳定运行直接关系到安全传输发射工作的正常进行。现今, 在节目传送系统中, 数字音频传输调度系统取代了传统的模拟传音调度设备, 固态化、智能化为值班和检修工作带来了极大方便。但是, 由于数字音频传输调度设备抗雷电和强电磁脉冲的能力较差, 遇到雷电袭击容易造成设备故障, 导致停播事故的发生。所以, 提高雷害严重地区广播发射台节目传输调度系统的防雷和抗干扰能力, 是技术维护工作者应当考虑和研究的课题。下面, 就我台对数字音频传输调度系统所采取的防雷措施进行分析, 请各位同行指正。

1 数字音频传输调度系统和雷击目标

数字音频传输调度系统方框图如图1所示。图1中, 经卫星天线接收的信号, 进入节传机房的数字音频传输调度设备, 然后通过数字音频电缆将信号送到广播发射机。数字音频传输调度系统均为数字化设备, 系统的数字卫星接收机ACSl240AT与音频四选一小盒DAL-3500采用AES/BU XLR平衡的连接方式, 特性阻抗为110Ω。

为实现阻抗匹配, 在数字音频扩展箱的输出端与数字音频电缆之间使用型号为BCJ-XJ-TRB的阻抗变换器将110Ω变为75Ω, 发射机房音频处理器的输入端使用BCJ-XJ-TRB型阻抗变换器将75Ω阻抗变为110Ω。

数字音频传输调度系统与发射机房之间距离在400m以内使用数字音频电缆传输, 在400m到1000m之间使用同轴电缆传输, 距离大于1000m采用光缆传输。我台采用数字音频电缆传输信号。

我台的数字音频传输调度系统在2007年投入使用后, 频繁遭受雷电袭击, 尤其是数字音频传输调路系统输出端和发射机音频处理器输入端的阻抗变换器极易遭受雷击而损坏, 仅2008年就更换阻抗变换器20余只。为防止雷击造成的播出事故, 遇到天气变化时, 值班人员不得不切换到模拟设备对音频信号进行传输。通过检查和分析, 认定为感应雷造成的设备器件损坏。由于到发射机房的数字音频电缆长度为350m左右, 当雷电发生时, 产生极大峰值和陡度的雷电流, 雷电流在周围空间产生强大的变化磁场, 磁场中的导体感应出很高的过电压, 感应过电压通过电缆击毁阻抗变换器。为了防止雷击造成的事故, 必须解决系统的防雷问题。

2 雷电过电压的形成和入侵途径

2.1 雷电过电压的形成

雷电是雷云间或雷云与地面物体间的放电过程。按照雷电产生的机理, 通常将雷电分为直击雷、感应雷和雷电波侵入等三种。在这三种雷电形式中, 以感应雷对电子信息系统造成的损害为最大, 约占雷击率的90%。

对于电子通信系统而言, 形成雷电过电压的因素主要有:

1. 直击雷的电效应作用产生的过电压。它能使机房电子设备遭受浪涌过电压的危害。直击雷的特点是雷击点低, 所含能量巨大 (主放电电流最高可达数百千安, 电压可达几百万伏) , 温度高达30000K (5倍太阳表面温度) , 在放电区域内时间极短, 对地面设施的破坏性极大。

2.感应产生的过电压, 感应过电压是指当直接雷击发生在建筑物或其邻近物体时, 在雷击点2.5km范围内将产生强烈的电磁辐射, 瞬态空间电磁场造成设备的损坏。感应过电压包括由电感性耦合产生的电磁感应和由电容性耦合产生的静电感应两个分量。对于电子设备而言, 电磁感应分量大于静电感应分量。该过电压主要是通过电源线、信号线或数据线入侵而破坏电子设备。

3.雷电侵入波产生的过电压。当雷云之间或雷云对地放电时, 强大的雷电流迅速变化, 在附近的金属管线上产生的感应过电压 (包括静电感应和电磁感应两个分量) 。如果雷电波以行波的形式侵入机房, 将危及人身安全或损坏设备。

4.雷电反击产生的过电压。雷电反击是指雷击建筑物或其近区时, 造成其附近设备的接地点处地电位升高, 产生出放射性的电位分布, 使设备外壳与设备的导电部分间产生过电压, 从而造成设备的损坏。

2.2 雷电的入侵途径

对电子通信系统而言, 雷电入侵的途径主要有:

1.通过线路侵入

电源、通信和数据线路进入机房前, 很有可能遭受直击雷和感应雷的袭击。产生的过电压和过电流沿线路侵入设备, 造成设备损坏。

通常, 将雷电由线路的侵入分为:

1) 当地面凸出物遭受直击雷打击时, 强雷电压将邻近土壤击穿, 雷电流进入电缆外皮, 并将其击穿, 从而侵入线路。

2) 雷云对地面放电时, 在线路上感应出上千伏的电压, 并通过设备连接线侵入到其它通信线路。这种侵入方式沿通信线路进行传播, 波及面宽, 危害范围大。

3) 当某一线路遭受雷击, 在与之平行的临近线路产生出感应过电压。

2. 通过接地导体侵入

直击雷经过避雷设备 (如避雷针、避雷带、避雷网等) 入地, 导致地网地电位上升, 造成地电位反击而损坏设备。

3. 雷电电磁脉冲侵入安装有电子设备的建筑物, 直接作用于电子设备。

3 雷电防护的一般原则

3.1 防雷保护区

根据国际电工委员会 (IEC) 规范IEC61312-1:1995, 电子通信系统的防雷应根据雷电电磁脉冲的严重程度, 将需要保护的空间划分为不同等级的雷电保护区LPZ (Lightning Protection Zones) , 如图2所示。其中:

LPZ 0区为建筑物或构筑物界面之外的空间。该区所有的物体均处于直击雷区, 各传输线、金属管等都有可能受到直击雷和感应雷的作用而传导全部雷电流, 空间辐射电磁场没有衰减。如果建筑物或者构筑物安装了避雷针, 则LPZ 0区又分为LPZ 0A和LPZ 0B区。

LPZ 0A区:本区处于避雷针保护范围之外, 区内的所有物体都有可能遭受直接雷击, 电磁场没有衰减。

LPZ 0B区:本区处于避雷针保护范围之内, 区内的各类物体不可能遭受直接雷击, 电磁场没有衰减。

LPZ 1区:本区为建筑物或构筑物界面所包围的空间, 区内的所有物体不可能遭受直接雷击。因为1区和0区的界面对雷电流起到一定的分流作用, 对雷电辐射电磁场有一定的屏蔽作用, 所以本区导体传导的雷电流比0区小, 如果屏蔽良好, 辐射电磁场将被衰减。

LPZ 2区:本区内的所有物体不可能遭受直接雷击, 电磁场得到进一步的衰减。

3.2 雷电防护的一般原则

由如图3所示的雷电全方位防护可见, 电子通信设备的雷电防护应将外部防雷与内部防雷有机结合起来, 其一般原则为:

1.外部防雷

外部防雷装置主要用于对直击雷的防护, 是在直击雷非防护区 (LPZ 0A) 或直击雷防护区 (LPZ 0B) 界面采取的防雷措施, 是防雷的第一道防线, 即拦截或吸引闪电, 由接闪器、引下线、接地装置三部分组成。

2.内部防雷

在直击雷防护区 (LPZ 0B) 界面内采取的防雷措施, 主要有:

1) 屏蔽, 它是防止任何形式的电磁干扰的重要手段之一。屏蔽的目的在于限制设备内部辐射的电磁能量泄漏出该内部区域, 防止外来的辐射干扰进入该区域内部, 降低外部电磁能量对被保护对象的危害程度。

2) 均压 (等电位) , 也称为等电位连接, 就是将导体做良好的导电性连接, 使它们的电位达到近似相等, 为雷电流提供低阻抗通路, 使之迅速导入大地而泄放。

3) 接地, 接地在分流和泄放直击雷和雷电电磁脉冲能量中起着重要的作用, 是防雷技术中所采取的重要手段。接地的作用主要是防止人身和设备免受电击、预防火灾、防止雷击和防止静电损害, 保障设备的正常运行。

此外, 使用电涌保护器 (SPD) 防护、合理的布线保持安全距离等措施, 在雷电防护中也起到了非常重要的作用。

4 数字音频传输调度系统的雷电防护技术

对数字音频传输调度系统的防雷需要根据有利于保护对象的不同而采取不同的防范措施。针对我台地处乌蒙山区, 雷害严重 (年雷暴日数超过90天) 的特点, 我们采取了如下措施。

4.1 直击雷防护

在节传机房外安装20m高的单根避雷针, 用以对直击雷进行防护。其防护范围如图3所示, 是以避雷针为轴的折线所构成的圆锥体空间。折线圆锥体的确定方法为:设避雷针高为h, 首先从针的顶端A点向下作45°斜线, 形成锥形保护空间的上部;从针底部的各方向1.5h处向0.75h处作连线, 并与45°斜线相交于B点。交点B以下斜线就构成了保护空间的下部。

被保护物高度为hx, 水平面上的保护半径rx为:

式中hx为被保护物的高度 (m) ;

当h>120m时, p=120。

4.2 感应雷防护

感应雷虽然没有直接雷猛烈, 但其发生的几率比直击雷高得多。感应雷的破坏也被称为二次破坏, 其雷电流变化梯度很大, 会产生强大的交变磁场, 使得周围的金属构件产生感应电流, 这种电流可能向周围物体放电, 对电子设备具有很强的破坏性。

4.2.1 接地

为进一步降低接地电阻, 将雷电流通过低阻抗的接地体向大地泄放, 达到有效降低雷电过电压的目的, 按照当电子设备的信号接地、逻辑接地、防静电接地、屏蔽接地和保护接地, 一般合用一个接地极, 其接地电阻不大于4Ω及当电子设备的接地与工频交流接地、防雷接地合用一个接地极时, 其接地电阻不大于1Ω的原则, 在节传机房外制作防雷接地坑, 坑的长和宽分别为3m, 深3.5m。接地体为不小于2平方米的紫铜板。坑内填充每层50cm木炭, 撒200kg工业盐并浇水夯实, 到最上层50cm处用湿土填充夯实, 并用15cm宽的铜带引出与卫星天线接地系统相连接。经测量, 接地电阻仅为0.3~0.5Ω。

按均压等电位的原理, 将节传机房内所有设备的工作接地、保护接地和防雷接地组成一个联合接地网, 使数字音频传输调度系统的接地和防雷接地共地, 由公共接地点提供保护接地、工作接地和防雷接地等所需的基准零电位, 以防止各系统独立接地在各地线之间产生足以导致设备毁坏的电位差。

为了进一步完善节传机房的均压等电位, 我们对机房内如电缆屏蔽层、安装数字音频传输调度系统设备的机柜、机房的金属构件、金属管线等进行严格的等电位连接, 减小了防雷空间内各金属部件和各系统之间的电位差, 形成了一个统一的低阻抗接地系统, 为雷电流提供了一条连续的低阻抗通路。

4.2.2 电源防雷

我们采用美国ALLTEC公司生产的浪涌保护器SPD (Surge Protection Device) 对电源系统作三级防护, 如图4所示, 使雷电浪涌得到了很好的抑制和吸收。浪涌保护器采用复合设计原理, 利用放电器件氧化锌压敏电阻 (MOV) 、气体放电管 (GDT) 和瞬变抑制二极管 (TVSS) 的各自优点, 避免了GDT泄流大、有续流及MOV、TVSS残压低、泄流小的问题。

1.在节传机房配电柜安装TP-40型三相浪涌保护器, 其每线最大浪涌电流 (8/20μs) 为40kA, 响应时间小于25ns, 漏电流小于9μA, 作为电源系统的第一级防护, 目的是对由外线路侵入的雷电浪涌能量进行吸收。

2.为数字音频设备的UPS电源安装SP-20型单相浪涌保护器, 其最大浪涌电流 (8/20μs) 为20kA, 响应时间小于25ns, 漏电流小于9μA, 作为电源的第二级防护。目的是对通过了第一级防护的剩余浪涌能量进行更为完善的吸收, 对暂态过电压起到更好的抑制作用。

3.在数字音频设备前端使用防雷插座, 作为电源的第三级防护, 达到进一步消除微弱暂态过电压的目。

4.2.3 信号防雷

为避免感应雷电通过线缆损坏设备, 主要采取:

1.在空间布局上, 使电源电缆与信号电缆保持足够的距离。

2.对数字音频电缆使用采用埋地电缆引入方式, 并使用金属管屏蔽, 最大限度地衰减有可能感应到电缆上的雷电压。

3.对数字音频电缆的屏蔽层进行可靠接地。

4.在数字音频传输调路系统输出端的阻抗转换器之后和发射机音频处理器输入端的阻抗变换器之前安装ALLTEC公司生产的ACP-CCTV型信号同轴防雷保护器, 如图5所示。保护器具有插入损耗小、驻波系数小、响应速度快等优点, 不仅可以有效地泄放掉侵入到信号线路上的雷电电磁脉冲, 而且经测量和试验, 对音频信号没有衰减。

选择SPD时, 应注意:

(1) SPD的接入对所传输的信号无衰减, 并且其对地阻抗尽可能大;

(2) 在不超过SPD最大通流量的雷电袭击过程中, SPD必须能够正常工作;

(3) 对雷电袭击应具有足够快的响应速度等。

综上所述, 数字音频传输调度系统的雷电保护如图6所示。

5 防雷维护检查

防雷维护检查工作是数字音频传输调度系统技术维护工作的重点之一, 制度化的检查是保证系统正常运行的重要保障, 我们规定:

第一, 每季度对机房设备的接地电阻测量进行测量并记录;

第二, 每季度对避雷针接地电阻进行测量并记录;

第三, 每季度测量一次卫星接收天线的接地电阻并记录;

第四, 每月对机房所有接地点的连接情况进行检查;

第五, 经常检查防雷器的工作情况, 如发现其指示灯变为红色, 说明防雷器已失效, 必须更换。

6 结束语

通过采取降低接地电阻、等电位连接、合理布线、安装浪涌保护器等措施, 我台的数字音频传输调度系统工作正常, 经受住了多次强雷暴的考验, 取得了对雷电防护的实效, 保证了安全传输发射工作的正常进行。

参考文献

[1]杨克俊.电磁兼容原理与设计技术.北京:人民邮电出版社2004 (8) .

网络音频传输 篇6

关键词:数字音频信号眼图传输系统

1 前言

无线局大功率广播发射台站的主要作用是:利用中短波广播发射机实现对音频信号的远距离传输。发射机的音频调制信号来源较多, 通常接收数字卫星广播信号, 经解码、解复用后, 由数字音频传输系统送到各大功率调幅广播发射机的低频输入端, 作为调制信号, 经D/A转换后, 由广播发射机进行幅度调制发送至各服务区。数字音频信号的传输质量, 直接影响着发射机的播出效果。

为了能够优化节目传输质量性能, 提高节目收听效果, 充分了解数学音频信号传输性能, 维护好数字音频信号的传输链路是安全传输发射的一项重要任务。而眼图无疑是评估数字通信链路质量最有效、简单的方法之一, 它会在很大程度上将数字传输信道上各类参数展示在我们眼前。通过眼图我们可以对接收滤波器的特性加以调整, 以减小码间串扰, 改善系统的传输特性。通过眼图, 我们还可以估计系统的防噪声能力和信道受到噪声干扰的情况。

2 数字信号的基带传输

数字音频信号首先是数字信号, 它的传输系统包括了基带传输和载波传输。数字基带信号都是矩形波形, 在研究频谱时常常只画出能量最集中的频谱范围, 但这些基带信号在频域内实际上是无穷延伸的。如果直接采用矩形脉冲的基带信号作为传输码型, 由于实际信道的频带都是有限的, 则传输系统接收端所得的信号频谱必定与发送端不同, 这就会使接收端数字基带信号的波形失真。因此常采用滤波器产生出平滑波形进行传输。

如图1所示:数字基带信号的产生过程可分为码型编码和波形形成两步。码型编码的输出信号为δ脉冲序列, 波形形成网络的作用则是将每个δ脉冲转换为一定波形的信号。

根据奈奎斯特第一准则:当数字信号通过传输系统时, 接收波形满足抽样值无失真传输的充要条件是仅在本码元的抽样时刻上有最大值, 而对其他码元的抽样时刻信号值无影响, 即在抽样点上不存在码间干扰。也就是说:如果信号经传输后整个波形发生了变化, 但只要其特定点的抽样值保持不变, 那么用再次抽样的办法, 仍然可以准确无误地恢复出原始信码, 因为信息完全携带在抽样幅度值上。

因此, 在大多数有线传输情况下, 信号频带不是陡然截止的, 而且基带频谱也是逐渐衰减的, 这与设计时所确定的滚降系数有关, 如图2所示:当输入端信号为“1”时, 其输出波形如图2 (a) 所示, 该码元y (t) 只要在t0时刻为判决时刻, 就能恢复出信号, 在下一个码元判决时刻t0+Tb到来时为0, 就不会造成串扰。

3 眼图的形成及其测量

尽管数字信号的传输相对于模拟信号而言, 有极大的优势, 但要使其达到理想的传输特性任然是很困难的, 甚至是不可能的, 因为码间串扰和噪声对系统的影响无法彻底消除。

为了对系统性能有一个直观的了解, 可利用示波器, 再现码元传输效果, 从而对系统性能进行估计, 这就是眼图法, 示波器所获图形即为眼图。

具体做法如下:取一台带有时域分析功能的示波器, 将待测信号加到该示波器的输入端, 同时把位定时信号作为扫描同步信号, 也可以调整示波器的水平扫描周期, 使示波器的扫描周期与接收码元的周期同步。从而估计出系统性能的优劣。对于二进制数字信号而言, 示波器的图形与人眼想象, 所以称为“眼图”。利用带时域分析的示波器, 使用连续比特位的眼图生成方法, 能快速测量眼图和抖动。如图3所示, 第一步示波器采集到一长串连续的数据波形;第二步, 使用软件恢复时钟, 用恢复的时钟切割每个比特的波形, 最后一步是把所有比特重叠, 得到眼图。

眼图显示了数据波形图可能取得的所有瞬时值, 在完全随机输入情况下, 各个波形叠加后会在眼图中形成若干眼孔, 眼孔的开启状况能充分说明传输信号的质量, 在有符号间干扰和噪声的情况下, 眼图由许多有一定偏移的线条组成, 看起来犹如构成眼图的线条变宽了, 这等效于眼图聚焦点扩散, 水平和垂直方向眼睛的张开程度都减小了。在无码间串扰和噪声的理想情况下, 波形无失真, 眼开启的最大, 当有码间串扰时, 波形失真, 引起眼部分闭合。若再加上噪声的影响, 则使眼图的线条变得模糊, 眼开启的小了, 因此, 眼张开的大小表示失真的程度。由此可知, 眼图能直观地表明码间串扰和噪声的影响, 可评价一个传输系统性能的优劣。当把眼图抽象为一个模型时, 可以由眼图获得以图4信息:

(1) 最佳抽样时刻应选在眼图张开最大的时刻, 此时的信噪比最大。

(2) 眼图斜边的斜率反映出系统对定时误差的灵敏度、斜边越陡, 对定时误差越灵敏, 对定时稳定性要求越高。

(3) 在抽样时刻, 上下两个阴影区的高度称为信号失真量, 它是噪声和码间串扰叠加的结果, 当码间串扰十分严重时, 眼睛会完全闭合, 此时信息码元无法经过抽样判决准确恢复, 因此必须对码间串扰进行纠正。

4 眼图在数字音频信号传输中的作用

在基层台站中, 我们从卫星接收天线接收数字音频信号, 在远离接收端的发射机房, 我们采用光传输系统进行传输, 在离接收端较近的发射机房, 采用数字音频电缆进行传输。系统中涵盖了光传输、电传输等设备。随着使用时间的推延, 设备和线路的老化, 元器件性能发生变化等原因, 势必造成系统性能有所下降, 这时候对系统建立一套行之有效的测试, 分析方法将对系统的维护, 保证信号的有效传输起到重要的作用。而利用眼图测量法, 是检验系统传输性能最简便及行之有效的方法之一。

我们知道, 在数字音频信号的传输中, 主要的测试指标有:数字信号的幅值;传输阻抗、信号延时、抖动等。在实际应用中, 传输系统异常的表现形式多种多样, 但最本质的表现均为数字音频信号的传输误码。

通过眼图的张合, 可以判断传输系统误码率程度, 从而采取有效措施, 提高传输质量。

数字信道的干扰主要有加性干扰和乘性干扰。加性干扰表现在眼图上, 主要改变图形的纵向张合度, 它往往是由于地阻抗耦合、漏电流等因素产生的干扰, 叠加在了信号上。此时, 可能是因为线路老化引起, 可加强屏蔽、接地、隔离、滤波或更换传输线, 加强线间转换匹配等方法加以抑制。而由于传输线的衰减、时延和阻抗失配等因素引起的反射干扰和码间干扰将使信号眼图产生畸变, 这类信号称为乘性干扰, 它往往使码元间产生抖动。此时可以观察:周期性抖动, 常来自于开关电源和串扰, 而随机抖动, 可考虑基准时钟和锁相环PAL电路。

通过对传输线路的分段测量和定期测量所得基础数据的积累和比较, 可以更准确地掌握传输设备的运行规律, 从而进一步总结维护经验。

5 结束语

在实际使用中, 大多数数字音频信号的传输异常故障, 通过示波器, 利用眼图的日常测量可以预防, 同时, 我们也可以利用眼图, 了解系统的传输性能是否有所下降, 并及时加以处理, 从而保证了信号传输的高品质。

参考文献

[1]张卫纲.通信原理与通信技术[M].西安电子科技大学出版社, 2003.

[2]李建兴.现代通信系统与仿真[M].机械工业出版社, 2005.

网络音频传输 篇7

1. IP协议的优势

IP作为一种传输协议能够在不同的网络基础设施上运行, 不必锁定某种技术或拓扑, 设备采用国际通用标准, 有极大的选择余地。

由于IP流量不绑定到基础物理传输层, 性能与容量的规模, 直接与网络基础设施的能力有关。

IP协议可以与其他网络协议共存, 因此不同的服务可以共享一个共同的网络基础设施。

为了确保网络共享带宽, 可能选择支持大多数网络环境的VLAN和QoS网络结构。

由于IP流量可以通过LAN网段路由, 不同的子网可以共享相同的A/V流量。

甚至可以支持广域网WAN传输, 而不必离开IP域名。

采用IP协议可方便A/V与广泛的IT世界之间的接轨。譬如基于同一个网络连接, PC工作站可参与A/V流媒体的交换, 与此同时使用其它服务。

2. 为什么音频通过IP传输 (Audio-over-IP)

答案的关键在于基于IP网络系统的制造厂商其规模、数量以及灵活性为IT数据网络领域提供了强有力的支持, 采用现代IP技术传输音频的优越性越来越明显。而目前实时音频分配主要采用的是离散信号切换技术, 以专用的路由系统 (交叉点式交换器或纵横矩阵) 为基础。交叉点式交换器属于量身定做的产品, 价格昂贵, 其优点是以最小的延时量, 不改变信号内容和格式的方式传输大量的离散音频信号, 但是这仅停留在模拟音频的应用范畴。音频基于网络的解决方案采用通用的零部件, 不但在价格上有明显的优势, 而且使得广播传输能充分利用其现有的基础设施, 实现更大程度的内容共享和网络配置的灵活性, 并有利于未来的系统升级和开发, 包括支持高清、网络化媒资管理等领域。

3.Audio-over-IP=VoIP?

这是两个不同的专业术语, 很容易混淆。具体来说VoIP是指基于互联网或NGN网络传输的语音服务 (互联网电话) 。其目的和参数与专业音频和广播要求有重大的区别, VoIP通常采用高信号压缩, 使得数据流在网络上畅通, 采用通用的连接协议是关键, 而信号的质量以及延迟要求不是很重要。而专业音频和广播应用范围要求信号传输的高保真, 极低的延时以及支持多通道, 此外, 很多场合要求来自不同的信号源之间的多通道保持同步馈送, 甚至在不同的接收节点。另一个主要的差异是专业音频和广播要求单向一对多点的信号连接, 而VoIP则在多数的场合基于点对点双向传输。

4. 音频通过IP传输的应用领域

典型的应用领域适合于所有要求配置音频路由/混合系统, 音频通过以太网传输的领域, 避免音频数据压缩和IP封装, 主要应用领域和具体优势如下:

z广播中心:中心内部信号分配, 支持多功能基础设施, 集中管理系统;

z区域工作室:内部分配以及采用相同技术通过广域网与广播中心连接;

z转播车:本地信号分配, 容易连接至相同的基础设施和场馆;

z场地:本地信号分配, 支持多功能服务基础设施、通过局域网、城域网和广域网方便地连接至其它场地和广播服务供应商;

z剧院, 歌剧院, 教堂:本地信号分配基于低成本的基础设施支持;

z现场活动 (音乐会) :具有灵活配置性的临时设施。

五拉文纳Ravenna IP网络域音频传输解决方案

在前面的段落中已经介绍了有关模拟域和数字域的音频传输解决方案。近年来有不少专业音频机构采用MADI解决方案, 然而网络化已经成为当今世界的一个基本组成部分, 而考量MADI仅适合点对点的数字音频传输, 专用设备价格昂贵。音频传输从模拟域发展到网络域, 音频通过IP传输的优势是显而易见的, 采用网络技术传输多通道数字音频是顺应发展进步的规律。笔者在此介绍的拉文纳Ravenna是一种音频和其他媒体基于IP网络环境下实时传输的解决方案。利用标准网络协议和技术, 拉文纳可以在现有网络基础设施上运行, 其性能与容量与基础网络架构有关, 易于实现扩展。主要针对专业音频市场, 拉文纳根据广播级指标要求, 具有低延迟量、全信号透明度以及高度的可靠性。应用领域包括广播大楼等的内部信号传输, 也适用于流动性的场馆、现场活动、转播车, 可通过WAN广域网实现各演播室与工作室之间的信号分配与传输。

作为一个基于IP的解决方案, 拉文纳是基于开放系统互联 (OSI) 参考模型的第3层或3层以上的协议层。国际标准化组织制定OSI模型把网络通信的工作分为7层, 分别是物理层 (Physical) 、数据链路层 (Data Link) 、网络层 (Network) 、传输层 (Transport) 、对话层 (Session) 、表示层 (Presentation) 和应用层 (Application) 。IP能够在几乎任何局域网 (LAN) 上传输, 基础层为IP通信层 (CommunicationLayer) , 可通过广域网 (WAN) 连接 (包括因特网) , 如图3所示。虽然以太网的部署在大多数情况下是作为数据链路层 (Data Link) 的下层, 但是IP与一般的基础设施无关, 可用于几乎所有的网络技术和拓扑。拉文纳采用的所有协议和机制是基于IT以及音频领域的工业标准, 包括IEEE, IETF和AES等。虽然当前拉文纳的开发主要集中在专业音频领域, 但是同样的技术今后也可应用在视频传输领域。

拉文纳可以在现有网络基础设施上运行, 由于拉文纳基于纯第三层协议, 因此可以运行在几乎所有的现有网络基础设施上。与IP通讯层或流媒体基于RTP/UDP协议通过IP通讯层传输的解决方案区别是, 它原则上不需要自己的网络设施。拉文纳支持QoS机制, 因此可以与其他网络服务共享网络设施。采用正确的设置, 任何拉文纳的流媒体传输交通将获得优先, 并确保不间断的传输, 而其他交通将尽可能地在剩余带宽中运行。拉文纳的流媒体主要特点是可以通过桥接跨越运行在不同的网络, 使安全的媒体能够运行在通用的网络区域。

不像多数现有的网络解决方案, 拉文纳是一种开放性技术标准, 没有专有许可政策。有兴趣的人士/机构正在积极参与这项开发, 为了强调这种开放性的做法, ALC NetworX公司已与来自专业音频市场的知名企业联手行动, 开发出一系列拉文纳各种技术的样品原型。至2011年9月加入拉文纳开发的厂商有AETA Audio Systems, Digigram DirectOut, DSA Volgmann, Genelec, Lawo, LSB/VSM Control, Innovason, Merging, Neumann, Schoeps, Sound4, 并先后在2011年IBC推出了一系列有关的专业产品。

拉文纳是一种音频和其它他媒体基于IP网络环境下实时传输的解决方案, 其特点包括:

z以精确的媒体时钟传输, 不必依赖由一个独立的系统时钟分配;

z支持网络中所有节点采样率精度播出校对;

z支持多种媒体的时钟, 不必转换采样频率, 不同采样频率的流媒体可实现在同一个网络中传输;

z支持不同的数字格式, 16/24/32bit的数字格式可在同一个网络上存在;

z支持专业的音频、视频以及媒体格式, 也包括适用于控制协议;

z保持完全的比特数位透明度, 信号不会由于传输机制而改变 (如杜比®E信号保持不变) ;

z低延时量, 根据网络基础设施, 传输模式以及流媒体的配置, 可以实现一个子毫秒范围的延迟;

z支持QoS机制, 其中OoS的分区服务 (DiffServ) 机制应用广泛, 允许与其它流量共享资源;

z支持全网络冗余, 可选择采用双网接口集成;

z采用IP层上的标准协议;

z灵活的流媒体配置, 包括独立的数字格式、通道数量以及可用带宽, 可以一个流媒体为基础支持单点传输和多点传输;

z可运行在现有网络上, 共享的流媒体传输环境。

音频从数字域发展到网络域, 各开发商都在寻求音频通过IP传输的解决方案, 其中拉文纳IP协议得到了越来越多的厂商支持, 以下列举若干代表性的厂家参与拉文纳的原因。

瑞士Merging Technologies公司在过去两年已经开发研究了一个专用的基于以太网的音频流媒体协议, 加入志同道合的拉文纳的队伍是非常自然的过程, 并确信拉文纳包括了所有正确的成分, 将成为在广播和录音工业占有主导地位的IP标准。拉文纳最显著的特点之一, 是其子采样同步精度, 即使在最大的网络系统运行, 可同时保持超低延迟。系统具备扩展性, 音频通道规模可以从一两个通道搭建至数百个完全冗余的通道。基于第3层协议, 进一步促使Merging决定采用拉文纳解决方案开发其今后的产品包括核心I/O和控制技术, 拉文纳可以完美地应用到Merging现有的MassCore处理与合成引擎, Merging在2011年IBC展览后开始供应支持拉文纳的新产品荷鲁斯Horus, 以及Pyramix V8。

德国Neumann公司选择拉文纳, 认为拉文纳不仅是一种开放性的IP网络技术, 除了处理音频流媒体功能外, 还可以实现遥控Neumann数字话筒系列产品, 并可实现与调音台功能的全面整合。Neumann公司相信拉文纳技术会在世界范围迅速传播, 用户日益壮大, 包括专业演播室和录音棚。该公司话筒设计师Breitlow先生向笔者透露, 由于体积限制目前无法将拉文纳硬件植入至现有的Neumann话筒芯体内, 他们的第一步计划是在Neumann数字话筒系列的外置盒增加一个拉文纳接口, 实现支持拉文纳IP解决方案。而笔者在2011年4月NAB看到Schoeps开发的一款数字话筒已经将拉文纳植入话筒芯体内, 输出接口不再是传统的XLR, 而是RJ45接口和以太网线。

法国Digigram公司近年来着重进行声卡、IP编解码和数字音频网络技术开发。音频质量、高效率以及使用方便是广播工业的技术要素, 因此在2007年Digigram就着手开发基于EBU N/ACIP推荐的, 即欧广联推荐支持的广域网络基于IP音频传输的研发, 而拉文纳协议在音频基于IP同步传输方面, 具备许多优异的特性, 特别适用于采用开放性, 标准网络架构的大型广播机构。Digigram加入拉文纳行列, 计划将其IP音频产品配置支持拉文纳接口, 在IP与以太网解决方案之间提供桥接, 以便现有的Digigram用户将系统集成至更先进的拉文纳协议。

笔者在2011年4月NAB和2011年9月IBC看到支持拉文纳解决方案的产品从Neumann、Schoeps话筒、Lawo调音台、Merging的AD/DA和音频工作站到Genelec监听音箱, 以及DirectOut公司的产品支持开放性的音频网络格式等。各支持拉文纳IP的厂家一致认为, 只有开放的格式才有发展前途, 上述厂家为拉文纳解决方案提供了一个初步完整的解决方案。音频工业发展进入了一个崭新的阶段, 拉文纳是音频网络发展的未来, 拉文纳的组织来自各个领域的传媒工业, 团队日益强大, 专业音频进入网络域化不可能为可能。

音频传输从模拟域到数字域, 如今发展到网络域, 音频通过IP传输, 特别是采用拉文纳协议的音频传输解决方案, 具有极大的优势。摆脱了以往模拟域和数字域点对点传输的约束, 一个信号可以同时在网络中传送到任何所需的节点, 采用标准IT的交换器取代昂贵的模拟或数字切换矩阵。过去在模拟或数字域, 分别需要大量信号传输电缆、同步电缆和遥控电缆, 而拉文纳IP解决方案仅采用一个标准的RJ45接口和以太网线, 即可传输包含上述三种信号, 到目前为止传输从话筒, 到信号处理系统至音箱, 已经形成了一个完整的解决方案。另外IP解决方案所有设备很容易支持全网络冗余, 双网接口和双电源系统, 以提高安全系数。适合大规模应用、低延迟、高度稳定的音频和控制数据传输可通过标准的网络基础设施。

六网络域新感念音频产品荷鲁斯 (Horus)

本文介绍一款由Merging开发的, 支持拉文纳协议的核心产品荷鲁斯Horus。荷鲁斯Horus的设计, 当应用在传统模拟和数字域音频范围时, 仍旧可以作为一款高品质的带前置话放的模数/数模 (AD/DA) 转换器;当荷鲁斯Horus采用拉文纳模式时, 采用标准的RJ45接口可实现连接整个系统设备。可以简单地将这个2U盒子看成网络上的一个节点, 可以称之为一个输入、一个输出、或者称为输入输出的集合。应用范围无论是广播电视、电影、CD/SACD母盘制作、录音室或现场音乐录音、剧院、博物馆、豪华游轮, 或任何专业应用需要音频传输从A点至B点, 或A至B+C, 或C至A+部分 (D+E+F) 。采用标准网络连接, 交换器和接口, 荷鲁斯Horus结合Merging的MassCore技术, 组成一个功能和灵活性超强的转换器, 并可实现路由控制, 与其它支持拉文纳设备互连配置在一个网络上, 满足你的任何设计想象和要求。

荷鲁斯Horus采用19寸2U机箱, 前面板与后面板见图4。

可以按照传统的模数/数模转换器模式运行, 也可以在拉文纳模式运行, 基本功能包括如下:

z最多支持24路高品质的话筒 (带开关选择48V幻象供电) /线路模拟输入, 24路线路平衡输出, 可通过以太网实现软件遥控, 以60等分增量为1dB;

z可通过Pyramix Mixer界面路由和控制;

z 24路模数/数模转换器, 采样率支持44.1kHz至384kHz, DXD/1.2mHzDSD;

z符合低功耗“绿色”环保设备, 全负荷仅耗能小于15 Watts;

z具有电源切换自动哑音保护电路, 以便保护功率放大器和音箱的电流冲击;

z标配有1×64 MADI Coaxial&Optical, 24x AES/EBU和拉文纳以太网接口支持176 I/O@1Fs (冗余双RJ45接口) ;

z可选择性支持第二个64-MADI扩展槽 (Coaxial&Optical) ;

z同步支持字时钟Wordclock In/Out、参考视频In、LTC、MIDI和RS422, 所有同步信号可基于以太网;

z可通过内置DIP开关设置国际标准输出电平;

z前面板配有480×282触摸屏, 本地控制路由/增益/同步, 支持HTML遥控 (配置外置触摸屏) , 两个支持独立PCM192kH或DSD/DXD监听耳机插控;

z一个GPIO扩展槽 (Sub-D25) 可选择性支持16触点GPIO;

z支持冗余双电源 (IEC标准) 。

当荷鲁斯Horus运行在拉文纳模式:

z通过一根以太网电缆连接, 即成为一个可灵活配置的IP节点;

z通过一根以太网电缆允许最多支持128通道MADI, 24通道AES/EBU以及24模拟通道;

z允许并行的模拟路由至AES/EBU, MADI和以太网 (模数转换) 或AES/EBU, MADI和以太网路由至并行的模拟 (数模转换) 。

荷鲁斯Horus+拉文纳Revenna解决方案若干技术指标:

z总谐波失真加上噪声值THD+N>105dB;

z动态范围DNR>122dB>125dB (A计权) ;

z共模抑制比CMRR>50dB 20Hz~20kHz;

z荷鲁斯Horus系统延时量Latency<2ms;

z荷鲁斯Horus (2ms) +Pyramix MassCore (2us) 总系统延时量Latency<2ms;

z荷鲁斯Horus (2ms) +Pyramix Native ASIO (10ms) 总系统延时量Latency<12ms。

Merging宣布将在2012年完成荷鲁斯Horus+拉文纳Revenna模式支持兼容苹果Mac OS X Core的通用ASIO驱动器, 以便Mac音频用户使用荷鲁斯Horus不必采用Pyramix, 见图5。

七音频网络域时代的展望

音频技术从模拟域发展到数字域, 现在进入网络域时代, 笔者有幸经历这三个过程。通过物理媒体介质如传统磁带光盘的发布方式, 正在被流媒体网络发布取代。美国影像租赁巨头百视达Blockbuster创建于1985年, 而在2010年9月提出破产申请, 关闭其租赁业务就是一个警示, 显然依赖传统物理媒体介质时代已经过去了。高清数字电视通过网络进入家庭已经成为现实, 采用当今数字与网络综合技术将演播室、录音棚、音乐厅现场以及母带质量的音频通过网络以流媒体的方式进入家庭也即将实现, 届时可能发烧级音频系统不再是那样神秘, 价格不再昂贵, 通过互联网连云端连接配有高端数模转换的音频服务器, 不但进入专业机构而且完全有可能进入家庭。Merging公司在2011年10月AES 131届纽约年会上发布了相关的技术开发成果。

参考文献

[1]Audio Contribution over IP:http://www.ebu-acip.org/Main_Page

[2]Ravenna IP:http://ravenna.alcnetworx.com/

上一篇:全面核算下一篇:公共财务受托责任