网络音频

2024-10-09

网络音频(共10篇)

网络音频 篇1

当今社会,数字音频站已经广泛运用于广播电台,为了保证广播节目制作及其安全播出,必须做好日常的维护工作,建立一个可靠的工作条件,确保网络不出现故障等。基于此,对数字音频站网络的维护措施进行了探讨。

数字音频站的优点是容量大、安全性高、时间性强、自动化程度高,它使广播节目的音质上升了一个层次,与激光唱机差不多,不但提升了数字音频站节目的播出效果,同时也使其更安全、更自动化。

数字音频站网络的构成

1.直播工作站

(1)直播界面的特点包括锁定功能、具备校验、录音、校时、转播、时长调整、日志保管、提供编组持续放映、文本提示、试播、播出时间调整、日志管理、整点报时以及半点报时、信使、电平显示、循环放映所选节目、矩阵型节目变色提示等。(2)如果由于不按要求操作使机器关机,到下次开机时能够自动的调到关机之前的播出节目表,同时继续从断点位置播出。

2.节目录制编排工作站

(1)利用电脑的专业声卡能够实行128轨的数码录音。(2)可以记载多样机器传送的音频信号。可以接受采样频率为96KHZ,分辨率为24位的录音。(3)与字处理器内的编辑文本相比,普通的编辑功能也很容易使用,而且不会丢失突然中断的任务资料。

3.录音工作站

(1)用户能够按照自己的意愿挑选录制完的音频,为播出体系或其他设备提供精准的文件所在位置。确认用户所需的文件块。(2)按照播放的进程,可以在慢录站以及配备普通声卡的各个管理站实施非线性检索、录音通道的监听回放工作,能够起到停播报警的作用

数字音频站网络的维护措施

1.硬件操作问题

(1)由于切换台的按钮未在主播机的状态开启了主播机,导致鼠标及键盘无法操纵主播机的启动。(2)电脑开机后,人工拔出了PS/2键盘或者PS/2鼠标插头,键盘或是鼠标就不起作用了。那是由于PS/2接口有电流通过(5V电压),根本就不支持开机后插拔。所以,除过支持USB等支持热插拔的设施,其它的都不能带电插拔。(3)直播过程中的调音台由主播机控制。只有在启动了主播机的情况下,直播机房的高音台才会传输音量。(4)由于主持人不小心碰到了某个按钮,影响了声音传送,通过点击调音台右上方的“RECALL”按钮就能恢复。(5)在记录数据的过程中,意外的没网了,最有可能是和传送数据的有关的机器出现故障导致的。(6)如果服务器的RAID其中某个热插拔硬盘出现故障同时又意外没电了,服务器重新开机,选点击F1Continue就能恢复正常。

2.软件操作问题

(1)录制节目的过程中,电脑运行不给力。为了满足主持人的需求,使录制站工作效率进一步提升,就要清除垃圾文件。(2)电脑处于录制界面状态时,波形音轨没有正常显示,一段突然就不见了,只需要在Window主界面空白位置按下鼠标右键,依次点击属性→设置→高级→疑难解答,然后将“硬件加速”设成“无”就可以了。(3)录制站内:文件夹无文件名,导致其他图标都没有文件名显示。应对措施是:在主播界面空白位置按鼠标右键,然后点击“属性”→“外观”→“方案”→“Windows标准”就OK了。(4)如果直播界面没有显示完全,只要把800×600调至1024×76像素就行;中间的时钟局部没有显示,只需将屏幕最下面的"开始……"向下移动就好。(5)电脑工作的过程中,偶尔会用到小键盘,却没有反应,按一下Num Lock”或者“Caps Lock”就可以了。(6)往往会出现主持人更换文件名之后无法打开,这是因为主持人更改的是文件扩展名,然而扩展名是不可以更改的。(7)播出站栏目里的音频文件可以通过人工删除,不过由于数据库里的文件内容未改变,不要人工刷新,不然又会恢复之前删掉的文件。(8)如果未登陆或者未选择"明天"节目单,就会引起在主播机直播界面状态下的执行任务无法完成。(9)备播机内的节目无法按时上单或者没有上单。应先重新安装SQL2000Personal(先卸载,再开主机);随后在Air2000/S1播出站进行程序设置Version1.9.4V建立本地数据库;最后一步在Airbackup里先按“备份Slconfig”、再按“恢复本播出站Slconfig”就可以了。(10)因为接连按了两次备播机直播界面状态的“录音”,导致形成的音频文件并没有实际内容,从而弹出格式不支持的窗口。其实,按下"录音"经过几秒之后才会激活。(11)由于程序里面“F2”键已被设置为界面右下方转换的键,因此如果发现备播机直播界面闪烁,估计是不小心碰到“F2”引起的,点一下F2就好了。此外,如果在备播机要用模拟状态录音的时候,有电平的啸叫声发出,在只需在Vx222的Monitoring下点击“Mute”就OK了。

此外为了保证系统的安全,控制操作人员对权限资源的访问程度,节目制作软件的分区功能,设置密码,每个人有一个密码,拥有密码的人只能进入规定的分区内制作节目。对节目单编制、文件管理分别设立全权用户(Administrato)、分级用户并分别设置密码,使之进入相应的用户界面,完成相应的工作。

总结

由于数字音频站是将计算机多媒体网络技术相结合而实现采、编、播乃至传输全数字化、全自动化,进而实现资源共享。为了保证安全优质地播出,持续的网络播报是信息数据传输技术的关键,必须采取相应的对策保证网络安全可靠运行。

摘要:当今社会,数字音频站已经广泛运用于广播电台,为了保证广播节目制作及其安全播出,必须做好日常的维护工作,建立一个可靠的工作条件,确保网络不出现故障等。基于此,对数字音频站网络的维护措施进行了探讨。

网络音频 篇2

电脑没有音频设备的解决方法(根据步骤逐一检查,可能会帮助您找到问题所在):

第一步:检查声卡驱动是否正常,鼠标右键点击“我的电脑”——>选择“属性”——>从“常规”切换到“硬件”选项卡中——>点击打开“设备管理器”——>展开“声音、视频和游戏控制器”前面的+号——>查看第一项和第二项是否出现感叹号或问号,亦或是第一项直接显示“传统视频捕捉设备”,出现类似情况都表明声卡驱动安装不正常,请直接按A步操作——>如果显示有音频设备的型号参数,但上面出现一把红色的叉,请按B步操作:

A步:声卡驱动不正常或未安装解决起来也简单,首先百度搜索“驱动精灵”——>下载安装后打开驱动精灵——>在“基本状态”中,程序将自动检测当前有问题的驱动程序——>然后点击“升级驱动”,驱动精灵全程自动下载安装驱动程序,傻瓜式操作,非常简单——>等到驱动程序安装结束,重新启动计算机即可,如果“没有音频设备”的问题依旧,请接第二步; B步:声音设备上出现一把红色的叉,表示驱动程序可能是正常的,只是用户停用了音频设备所导致的,仍然在“设备管理器”中——>鼠标右键点击显示红叉的项目,然后选择“启用”即可,将所有带小红叉的项目都启用;

如果“没有音频设备”的问题仍然存在,请接第二步;

第二步:启动“windows声音服务”,点击“开始”菜单——>选择“运行”——>在运行中输入“services.msc”(不含引号),点击确定打开“服务(本地)”窗口——>在右边窗口中下拉滑动条,找到“Windows Audio”服务——>双击鼠标左键打开该服务——>将“启动类型”设置为“自动”——>再点击“服务状态”下方的“启动(S)”按钮,启动“Windows Audio”服务——>最后点击确定退出;如果“没有音频设备”的问题仍然没有解决,请看第三步;

第三步:经过上述操作之后,如果问题依旧,请先使用360安全卫士、金山毒霸等杀毒软件对计算机进行一次全盘扫描杀毒,扫描完毕之后在使用第一步的方法安装驱动程序,如果仍然显示“没有音频设备”很有可能是声卡硬件损坏造成的,您可用尝试更换一张独立声卡后重新安装驱动程序,或者将电脑送指定维修点维修。

网络音频 篇3

摘 要:视音频资料是网络课程中的重要组成要素,对其进行格式转化、编辑处理是网络课程开发的一个重要环节。本文主要探讨在网络课程中如何运用FormatFactory处理视音频资料,以期帮助网络课程开发者提高工作效率。

关键词:FormatFactory;网络课程;视频;音频

中图分类号:G434文献标识码:B文章编号:1673-8454(2009)24-0067-02

随着网络技术和现代教育技术的飞速发展,网络课程作为资源建设工作的重点和核心越来越受到重视。网络课程为学生营造了一个自主学习的平台,学生可以根据自己的学习需要有选择地进行预习、巩固新旧知识点,有利于个别化学习的实现。网络课程中所提供的教师课堂实录、专家讲座等视音频资料,使学生犹如身临其境,易于激发学生的学习动机,有效地维持学习兴趣。由此可见,视音频资料作为网络课程中的重要组成要素,对其处理的恰当与否将直接影响网络课程的使用效率,进而影响学生的学习效果。

网络课程应具备安全、稳定、可靠和下载快等特点,但网络课程中提供的大多数视音频文件较大,导致下载速度慢、网上播放不流畅等问题,容易使学生产生厌学情绪,从而影响教学效果。因此,在网络课程的设计与开发过程中,对视音频资料进行适当的加工处理是必不可少的环节。FormatFactory界面简洁,操作简单,可以轻松完成网络课程中视音频资料的格式转换、剪辑合并等工作,提高网络课程中视音频资料的质量。

一、FormatFactory简介

FormatFactory是一款万能的格式转换器,支持几乎所有多媒体格式转换到各种常用格式,它可以把RM、RMVB、MPEG、MOV、WMV、AVI、DAT、FLV等视频格式转换为AVI、FLV、SWF等常用格式,还可以将各类音频格式,如AC3、MP3、PCM、WAV、WV、WMA等转换到MP3、WMA、WAV等常用音频格式,以此提高网络课程的下载速度。

FormatFactory还拥有把所有图片格式转换到 JPG、BMP、PCX、GIF、PNG等格式的功能,它集视频、音频、图片转换功能于一身,只要安装FormatFactory就无需再去安装多种转换软件,它为网络课程开发者节省寻找其他格式转换软件的时间,提高工作效率。

二、FormatFactory处理网络课程中的视音频

1.网络课程中视音频格式转换

网络课程中收集的视音频素材可能是各种各样的格式,要想使这些素材能够更好地为网络课程服务,为其所用,就需要对这些视音频素材进行格式转换,FormatFactory所拥有的强大功能能够帮助网络课程开发者方便快捷地完成视音频格式转换的任务。

(1)设置视音频文件的输出路径

打开FormatFactory后,选择“任务”菜单下的“选项”,则会弹出一个“选项”对话框,可以选择“输出至源文件目录”,或在“输出文件夹”选项下设置文件的输出路径即可。

(2)选择视音频文件的目标转换格式

FormatFactory左侧工具栏中有视频、音频、图片、光驱设备DVDCDISO、高级等选项,如图1所示。选择“视频”菜单下“所有转到WMV”、“所有转到AVI”、“所有转到FLV”等选项中的任意一项,即将进行视频文件的目标格式转换。在弹出的对话框中选择“添加文件”按钮,添加所需进行目标格式转换的视频文件后,单击“确定”即可。音频文件的操作与此类似,这里不再赘述。

(3)对目标视音频文件进行预设配置

添加即将进行目标格式转换的视频文件后,将其选中,单击鼠标右键,选择“转换设定”命令,在弹出的对话框中可以根据实际需要对该视频文件的视频流、音频流、附加字幕等进行相应的设置,如果是音频文件只需对音频流进行设置即可。

(4)开始转换

设置完毕后,选择“任务”菜单下的“开始转换”,或者单击左上方工具栏中的“开始”按钮,即可开始转换。

2.网络课程中视音频资料的剪辑

为网络课程提供的视音频素材中,部分片段可能跟教学内容不相关,需要对其进行适当的删减。Premiere、Edius、会声会影等专业视频编辑软件,其操作相对来说较为复杂,要求操作者具备一定的理论基础和软件基础,而FormatFactory是一款即装即用的软件,界面友好,操作简单,完全能够胜任网络课程中视音频剪辑的任务。运用FormatFactory进行视音频剪辑的具体操作如图2所示,首先选择视音频资料的目标转换格式,其次,添加目标剪辑文件,然后选择“截取片段”按钮,最后,在新弹出的对话框中通过拖动进度条调整视频剪辑的开始与结束位置,当调整到合适的位置后,点击“开始时间”按钮确定开始位置,点击“结束时间”确定结束位置,当然也可以直接输入时间数值来调整视频剪辑的始末位置。

3.网络课程中视频资料的合并

在网络课程视频编辑过程中,有时由于教学需要可能要把多个视频文件进行剪裁与合并,FormatFactory可以实现视频文件混合格式的剪裁与合并,如可以把MPEG和AVI格式的视频文件合并输出为一个FLV格式的。具体操作如下:选择工具栏左侧“高级”菜单下的“视频合并”选项,在弹出的窗口中对“输出配置”进行设置,即把输出目标格式设置为AVI、MP4、MKV、3GP、WMV、FLV、SWF等,添加、剪裁视频文件的方法与视频转换的操作相同,这里不再赘述。FormatFactory 所提供的“视频合并”功能最大的优点在于它可以把多个不同格式的视频文件转换为一个目标输出格式视频文件,这是许多视频编辑软件所不具有的功能。

结束语

网络音频流数据传输探讨 篇4

关键词:网络,流媒体,数据传输,实时广播

0引言

在计算机网络技术迅速发展的今天,网络成为我们生活中不可缺少的一部分。人们每天都要从网络上通过视频、音频传输来获得大量的信息。作为获得信息的一个重要途径——声音是人类接受信息的重要媒体,声音传输占有重要地位,但目前网络音频传输存在着很大的不足:

1) 声音质量不满足要求。

随着生活质量的不断提高,人们希望广播的声音质量能达到CD的水平,而目前的声音广播质量在频带宽度、动态范围和干扰电平等方面都达不到这样的要求。

2) 传输方式单一,传输质量较差。

在当今信息社会,人们期望通过网络实时接受音频数据、音频传输智能化,传输的两方能够实时进行音频交流。尽管目前计算机网络的发展十分迅速,但它传送数据的容量和质量不能满足用户要求。

为了克服这些缺点,大幅度地提高声音广播的质量、接收质量和增加数据业务,势必采用目前比较先进的网络音频流传输技术。

虽然需要采用目前比较先进的技术来研究网络音频流数据传输问题,但是它和传统的音频文件传输非常相似,也可以说,网络音频流数据传输是采用多播、组播、单播等的通信方式来传输,实现点到多点,点到点的通信,这也正是本文中重点阐述的问题。在所研究的问题中,一个重要的问题是利用计算机控制系统来控制音频流数据的网络传输,因此要涉及到计算机控制系统。

1计算机控制系统

1.1计算机控制系统的概述

计算机的发展以网络化、模块化和微机化为特征,为其应用开辟了无限广阔的前景。计算机解放了人类的智力,提高了人类的能力和工作效率,计算机在工业领域正成为不可缺少和不可替代的强有力的控制工具。由于计算机控制系统的应用,许多传统的控制结构和方法被替代,工厂的信息利用率也大大提高,控制质量也更趋优良和稳定,计算机的发展也推动了自动化控制理论的应用和发展。

现在,由于计算机的微型化、网络化、性价比的上升和软件功能日益强大,计算机控制系统不再是一种昂贵的系统,它几乎可以出现在任何场合:实时监控、数据采集、信息处理、数据库等。

近20年来计算机控制系统的普及和应用有了突飞猛进的发展。而计算机控制系统的性价比的不断提高更加速了这种趋势。在过程控制方面的软件技术如:DDE、ACTIVE X、OPC和COM等的引入,给工业生产带了可观的效益。可以说,在各个领域中没有计算机控制的参与,各方面的工作将很难开展。在我们研究的软件里就是用计算机的控制来实现音频数据在网络上的实时传输。

1.2计算机控制系统的软件开发

Visual C++6.0是一个Windows下简单,易学,高效的可视化软件开发平台,它以所见即所得的可视化界面设计风格和32位面向对象程序设计的特点,已经被广泛应用到各个领域,成为众多开发人员采用的工具。VC不仅提供了良好的界面设计能力,而且在串口通信方面也有很强的功能,它提供的MSComm通信组件隐藏了大部分串口通信的底层运行过程和许多烦琐的过程,它使用户能够方便的访问Windows下串口通信驱动程序。所以整个串行通信程序的开发过程变得十分简单易行,程序员不需要处理烦琐的细节,而通过利用通信控制组件只需要编写少量的代码来实现主要应用功能和界面设计,就可以完成软件的开发过程。

2音频流数据传输

随着现代网络技术的发展,作为第四媒体的网络开始带给人们的是更多形式的信息模式。从在网络上出现第一张图片,到现在各种形式的网络视频,三维动画,人们的视听觉感官在网络上得到了很大的满足。而同时面临的是另外一种不可避免的尴尬:正是由于人们需求的不断提高,上网人数的不断增加,加之网络硬件设备的局限性,使得文件的大小成为网络传输一个不可忽视的参数。一方面,人们希望能在网络上看到生动清晰的媒体演示,另一方面人们又不得不去面对如此慢的网络速度下文件传输所需的大量时间。为了解决这种矛盾,一种新的媒体技术应运而生,这就是“流媒体”。

2.1流媒体的定义

流媒体是指应用流技术在网络上传输的多媒体文件,而流技术就是把连续的影像和声音信息经过压缩处理后放上网站服务器,让用户一边下载一边观看、收听,而不需要等整个压缩文件下载到自己机器后才可以观看的网络传输技术。该技术先在使用者端的电脑上创造一个缓冲区,在播放前预先下载一段资料作为缓冲,与网络实际连线速度小于播放所耗用资料的速度时,播放程序就会取用这一小段缓冲区内的资料,避免播放的中断,也使得播放品质得以维持。

2.2流媒体的构成

流媒体是由各种不同的软件构成的,这些软件在各个不同的层面上互相通信。基本的流媒体系统包含以下三个组件:

播放器(Player) 用来观看或收听流媒体的软件

服务器(Sever) 用来向观众发送流媒体的软件

编码器(Encoder) 用来将原始音频视频转换成流媒体格式的软件

这些组件之间通过特定的协议互相通信,按照特定格式互相交换文件数据。有些文件中包含了由特定编码解码器编码的数据。这种编码解码器通过特定的算法压缩文件的数据量。

2.3流媒体的技术原理

流媒体传输的实现需要缓存。因为网络以包传输为基础进行断续的异步传输,对一个实时A/V源或存储的A/V文件,在传输中它们要被分解为许多数据包,由于网络是动态变化的,各个包选择的路由可能不尽相同,故到达客户端的时间延迟也就不等,甚至先发的数据包还有可能后到。为此,使用缓存系统来弥补延迟和抖动的影响,并保证数据包的顺序正确,从而使媒体数据能连续输出,而不会因为网络暂时拥塞使播放出现停顿。通常高速缓存所需容量并不大,因为高速缓存使用环形链表结构来存储数据:通过丢弃已经播放的内容,流可以重新利用空出的高速缓存空间来缓存后续尚未播放的内容。

3多路音频网络实时广播系统

3.1多路音频网络实时广播系统

传统公共广播系统是由广播节目源、信号前级放大处理设备、功率放大器、其它周边设备及线路负载(扬声器)组成。

随着多媒体计算机硬件水平的提高和相应的专用软件的开发,为多媒体公共广播系统的普及应用打下了技术基础。使得真正意义上的“多媒体公共广播系统”开始了实际应用。

多路音频网络实时广播系统又是多媒体广播系统的一个部分。它的软件有以下特点:

1) 网络输入设备可以是麦克风、CD机、文件或其他连线设备,输入设备可以选择任意声卡。

2) 音频接收端可以选择声卡,声道等。

3) 音频接收端可以选择接收多台电脑的音频数据。

4) 音频发送端可以网络广播,让多台电脑接收数据。

5) 音频接收端支持多块声卡,声卡分配由用户选择。

6) 支持所有支持动态连接库编程的语言(如:VB,DELPHI,C++Builder,VC++等等)。

7) 注意网络测试,必须有两台电脑,IP地址必须在广播范围之内。

如果用于公共场所,可集信息、公共广播、背景音乐等多种功能于一体。在以音乐(或音乐铃声)完成信息传输的同时,在同一时间不同地点进行实时广播。

音频实时广播系统如果用于超市,既可以定时播放背景音乐,也可临时插播商品信息或通知,为超市创造轻松的购物氛围,为顾客提供更加完善的服务环境。

与传统公共广播系统相比,采用多路音频网络实时广播系统可以节省不少节目源播放设备、信号前级放大处理设备(如前置放大器、矩阵切换器、节目定时器等),在降低系统设备的总体造价的同时又提高了设备的可靠性;由于采用各种格式音频文件进行播放,省去了大量CD唱片和录音磁带,降低了日常使用费用;与此同时节目定时自动播放功能可以在一定程度上实现无人值守。总之,多路音频网络实时广播系统是当今社会技术进步的一种体现。

3.2实时广播中面临的困难

网上的实时广播要求事件的影像文件实时的编码,并且将文件流直接发送到服务器上。服务器将获得的文件流直接向观众广播。目前在局域网内可以采用广播协议将视频信号发送到网内的各个终端,但是如果用户所处的位置并不是和服务器处于同一个网段,那么可以采用组播(多播)协议,使用户正常接收。

在客户端与媒体服务器之间建立一个单独的数据通道,从一台服务器送出的每个数据包传送给每一个客户机。每个用户分别对媒体服务器发送单独的查询,而媒体服务器向每个用户发送所申请的数据包拷贝。这种传送方式称为单播,需要足够的带宽来保证一定的服务质量。在一个组织内部网络,在客户端较少的情况下,是完全可以满足图象质量与声音质量的要求。

其基本设置如图1所示:

要使实况信息能够顺利传输而又不更改所有网络配置,采用流媒体技术进行实况转播成为众多传输方案中的上佳选择。目前流媒体的不足之处主要体现在没有规范统一。MS、REAL、APPLE都有自己的标准和独立的通信协议,如MS采用MMS,REAL采用RTSP,虽然可以采用HTTP协议接收,但是并不是很适合流媒体的传输。如果采用MMS或RTSP协议,在一些防火墙和路由器上就难以通过。

3.3使用恒定比特率编码进一步优化

当流媒体通过调制解调器之类的固定宽带时,就需要固定带宽的编码解码器。WME内置“速率控制”模块,其使用一个中间缓冲区平滑原来信号的峰和谷,这样就输出了一个固定的比特率。编码和解码器监控缓冲区的空间并动态改变压缩质量以保证得到目标比特率。这个编码模式称为恒定比特率编码(CBR)。

3.4音频编码

在网络音频传输的过程中,音频数据传输的优劣直接影响到音频播放效果的好坏,所以,应该为音频编码。

对音频编码的方式有两种:低数据率和高数据率。

在低数据率下编码时,例如采用56K的MODEM接入网络,选择最低的音频数据率就可以得到足够好的效果,尤其是语音质量。比较低的音频数据率还可以使系统在拥塞或数据丢失造成的低数据率下依旧保持音频信号的连续。如果带宽有限,不妨将音频编码为单声道,进一步降低数据率。

在高数据率下(>300kbps)编码时,音频数据可以占到带宽的15%至20%,但是不必超过64kbps,因为在48kbps时,WME就能够提供接近CD音质的音频,而在32kbps时能够提供调频质量的音频,这些对于实况转播来说已经足够了。

考虑到本方案只是利用流媒体技术做网络音频的传输,因此不必专门架设流媒体的服务器,编码器和存储器,利用一台本地高性能的计算机就可以满足实时传输的需要,一旦任务结束,机器仍就可以挪为他用。其设置如图2所示:

4结束语

与传统公共广播系统相比,采用多路音频网络实时广播系统可以节省不少节目源播放设备、信号前级放大处理设备(如前置放大器、矩阵切 换器、节目定时器等),在降低系统设备的总体造价的同时又提高了设备的可靠性;由于采用各种格式音频文件进行播放,省去了大量CD唱片和录音磁带,降低了日常使用费用;与此同时节目定时自动播放功能可以在一定程度上实现无人值守。减轻广播值班人员的劳动强度。总之,网络音频流数据传输是当今社会技术进步的一种体现。

参考文献

[1](美)J.C.Whitaker.数字音频技术宝典(第一版)[M].张雪英,刘建霞,译.北京:科学出版社,2004.

高通音频调试总结 篇5

----夏珊珊

之前会议电话项目我们设计的方案是:外部的codec内带音频处理dsp接6270模块工作。外部codec+6270与高通的codec+dsp工作方式大致相同。所以调节音频的工作原理可以以高通内部的原理来作依据。

在调节会议电话的时候我们遇到了一个很大的问题,底噪。我们在这个问题上纠结了很久。调节了mic的滤波电路,高通的AGC参数,TX,RX filter 参数,都没有明显的改善,后来我们把mic断开接地,发现tx端还是有很大的噪音,截取输入到高通的音频噪音比较明显,从而我们确定了这个噪音是由外部的codec所引入的。调整音频的时候分析噪音来源比较重要,这样相应调整各部分增益来使噪音源影响尽量减小。

对于噪音处理,发现不管使用高通的AGC压制噪音还是使用外部CODEC带的DSP处理噪音都对音质有很大的损伤。所以建议在调整音频之前先最大限度的保证结构和硬件设计的优化性,毕竟软件可以对数字噪音处理比较理想,但是对于模拟噪音就不是万能的了。具体对于噪音的处理后续会在文档中提到。

高通音频通道及调整

基本概念

回音:Near end 端不说话,far end说话了后经过上图的path,经过喇叭播放后在空中回荡,又被mic收回去,在far-end听到了自己的声音。

Echo path:从Echo Canceller出来,经过gain、a/d转换 到speaker 经外面的环境,然后又被mic收回,通过一系列的通道到Echo Canceller。

Acoustic echo path:从speaker 出来,在环境中回荡后再进mic

从上图可以看到:

如果TX进来的ECHO跟我们估测的ECHO相近,Ataptive filter相减TX进来的echo可以消除回音。

Ataptive filter:用于模拟echo。

PCD(Path Change Detect):当使用者在移动,acoustic echo path也会改变。SPDET:用于检测是far end speaker讲话或者near end speaker,防止near end speaker讲话的时候被抑制掉

理想的状态是TX进来的echo,跟我们估测echo相近,相减就为0,但是实际上不可能,所以需要一个DENS消除非线性的回音,我们选择0~4KHZ是因为这个范围的声音是人声范围。

调整顺序:

设置音量等级和AGC gain→EC gain和 limit→codec和mic的gain→Ec parameter。高通的default volume 基本上可以使用于各个普通的场合。

AGC gain 我们首先调整外围的gain,比如tx agc、txvolume,AGC处理噪音比较有效,但是会相应的牺牲tx端的音质及音量大小。如果这个噪音会随着Rx_Volume变化,在拔出手柄或者静音Rx_CODEC_GAIN(0x0000),噪音明显减弱,那么这个噪音是数字噪音,可以使用RxAGC减弱,具体的操作方法是:

 设置Rx AGC工作在静态增益模式(compFlinkAIGFlag=0x0000); 减弱‘rx_agc_static_gain’为0dB(compFlinkStaticGain=0x2000); 增加‘rx_agc_exp_thres’ 到-40dBm0mu(expFlinkThreshold=0x1180).同样TX端的数字噪音也可以调整TX AGC 消除,调整的方式于RX AGC相同。在音频通路上,建议调整增益的地方是codectxgain 和txvolume,这样做的目的是防止送入codec处理的音频信号太大出现削顶失真,使EC无法很好的模拟回音并处理掉回音。所以我们尽量在EC处理完毕后对信号进行放大。

EC gain和limit 外围的gain调整完毕后调整EC block gain(input gain、output gain)在调整的时候,rx volume 是调整到最大处理,这样做为了避免rx 方向上声音太小,扬声器声音不够大,不易于测试回音。

Nlpp limit:当input太大的时候,rx收到的声音特别大声,但是spk不总是这么大声,这样使ECHO收到的东西太多失真,设置limit的话使突强的时候使进入EC的echo不要太多。AF limit:控制TX方向的,EC 无法收敛,或者收敛的速度太慢,收到的东西突强太多,这样使用limit 解决,用于限制突然大声的信号。

Codec及mic的gain 随后设置codec和mic的gain,文章开端曾提到若模块有噪音,噪音的来源必须找到,并相对于此来设置codec及mic的gain。我们的应用噪音是来自于codec芯片本身,所以对于mic增益的降低对噪音是没有益处的,因为噪音会随着ADC的放大而放大,衰减而减弱。Mic增益小,相对的ADCgain必须放大才能让tx端听到清晰的声音,这样反而把噪音放大了。所以为了让产生的噪音最小,我们尝试把mic的增益放大,ADC gain衰减来减弱噪音,达到比较好的效果。所以调整这部分的增益需要根据具体的情况,具体的模块相应调整。

Ec parameters 对回音来说,结构及材料也有很大的影响因素。我们在设计的时候必须要考虑到这些因素才能更好的实现音质效果。比如SPK与mic必须尽量的拉开距离;mic腔体不能太大,mic使用专门的泡膜包起来;机壳的材质最好使用吸引的材料,防止大声音播放的时候机壳震动影响mic等等,这些在前期的时候最好设计考虑到。

关于EC参数,高通有几组默认的回音参数,从Speaker phone 到bluetooth 几个等级。通常尝试的时候从普通的模式到aggressive尝试,ECHO canceller的肯定会伤害到double talk的能力,所以可以不用不压抑太多就不要压抑太多。如果尝试模式的参数没有echo,就选择压制的比较小的那组参数。总之是在Double talk 和echo canceller取得一个平衡。

细调

如果使用aggressive那组参数,echo还是没有消除,那么查找echo path delay Echo会随着echo path改变,echo path有长短。当echo path delay设置不好,会使echo收敛不好。

如果不知道要设置多少的话就先设置为0,然后慢慢向上调整。

调整进入AF的参数

调整进入AF的两个进入EC的input的大小,他们的大小关系必须在一定的范围,AF才能正常的收敛。

X[K]> Z[K],AF才能正常的收敛。从网路端送来的信号,ECHO是从环境处理后的声音,肯定是稍微有点小,但是如果经过codec处理后就可能比X大,那么就使用Inputgain降低,然后增大OutputGain。

EC已经收敛了,如果有非线性的echo无法消除,通过设置 DENS_tail_portion: DENS_tail_alpha: DENS_NL_atteu:

这几个参数设置越大,echo 消除能力越好,但是影响double talk 高通给出的参数适用于大部分的场合,只需要在默认参数的基础上微调就可以了。这些参数的调整如果使用工具调整就比较方便了。下面就讲讲音频调试工具。

音频调试工具

音频调试工具的比较(这个是引用了钟明同学的文档,他的高通文档讲解的比较清晰了,我对其引用补充下吧 O(^_^)O)

AT Command: 引用了6100的使用的AT命令作个简要的介绍。设置回音的ECHO命令AT+ECHO和AT+ECHO1可以设置回音的28个参数。

AT+CLVL: 音量级别设置 AT+RXVOL: RX端音量设置 AT+CMUT:静音设置 AT+CMIC: mic音量设置 AT+SIDET:侧边音设置

AT+ECHO:设置手持与免提模式下的回声各个参数 AT+ECHO1:设置蓝牙耳机与普通耳机的回声参数

QACT 需要导入正确的audio_cal.xml,通常这个文件在工程里带有 使用步骤

1.配置QPST,使使端口出现在active Phones tab。

如果设备没有连接上或者XML文件导入错误,在QACT v1.x的版本会弹出这个窗口。表示只能在PC上调整,而无法在线的把数据导入到模块。

导入正确的xml文件

如果连接成功,可以看到以下图片,选择“否”,也就是不把XML 中默认的结果导到模块里面去。(我们这里只是调试,不要导入.XML 中默认的值)

我们在里面会调整的比较多的是: 调整codec的gains

Graphical拉AGC 参数,从Data获取参数

拉TX,RX filter 曲线

选择对应的path,device,拉出曲线后可见右边的7个参数,对应于代码里voc_pcm_path_cal_type结构体中的tx_iir_filter。

QACT在线调试必须通话挂机后才生效。而且拉TX,RX filter无法模拟模块里原来的声音曲线,调节音质曲线个人比较倾向于使用Qfilt。

QFILT 使用音频分析仪器获取未处理的(TX/RX filter全部设置为0)频响曲线。把这个曲线数据保存为*.EXP格式。

之前在龙旗做测试的时候发现使用仪器获取曲线数据无法直接保存为.EXP格式,保存为.ASM格式,将保存的数据去掉100之前及4000之后的数据,加上固定的格式如下:

# 09-27-06 15:32:32.49 Hz dBPa/V 100 0.239521 105.83 0.174744 112 0.105024 118.322 0.0793721 125 0.0562545 132.288 0.0526554 140 0.0522274 149.666 0.0886258 160 0.144394 169.706 0.17004 180 0.128156 189.737 0.0954074 „„„„ 3768.29 0.286294 4000 FAIL 保存为.EXP格式,红色的是RX的首尾固定格式,Tx的首尾固定格式如下:

# 09-29-06 15:05:11.04 Hz dBV/Pa „„ FAIL 使用QFILT导入对应的RX或者TX数据,导入数据之前必须配置右边的相关设置。选择Test Mode,Test Class,Test Path及Filter Type 0.676438

导入文件后的初始化曲线,这个曲线跟使用仪器测出来的频响曲线一致。

通过调整滤波曲线后的图如下:绿色是调整后的曲线,黄色的是原始的曲线,红色的滤波器的调整曲线。我们调整曲线的目的是确保调整后曲线在两条白色的曲线之间,且比较平滑。

调整到合适的曲线则点击Get Cofficients 获取调整的参数

在实际测试的时候如果把这个参数写入程序然后编译下载效率太慢了,这个时候可以直接使用QDV把这些实时的数据写入到模块,在通话的过程中实时生效,使用测试仪器测试使用调整后的参数曲线是否能通过测试。

QDV QDV使用需要导入正确的rpt文件。这个文件可以跟高通提SR获取。

之前遇到使用了错误的rpt文件导致有些参数设置不正确,所以一定要确保使用正确的文件。

启动QDV,首先看到以下的界面:

MEMA , MEMB , MEMC , MEMI值一定要设置正确,这个值可以通过查看代码获取。设置完成后进入以下界面

它的工具条如下所示

选择导入.rpt文件。

选择完.rpt文件后 点击 打开一个Text view 界面,右击选择需要修改的参数。

选择new可以导入一个新的参数。

导入后如图,选中变量后点击

可以修改变量值。

网络音频 篇6

一、音频监控器网络故障的分析

1. 故障现象

我台各频率播出正常, 但是自动控制系统声光报警器一直报警无法关闭, 无法在软件上对3号音频监控器进行主备路信号切换, 调出系统工作日志, 报警信息显示为“3号音频监控器与音频控制单元通讯中断”。

2. 故障分析

由系统工作日志可初步判断为网络故障, 当然也不能排除3号音频监控器的硬件故障。仔细研究后发现, 3号音频监控器虽然不能通过自动控制系统设置和切换信号源, 但是可以在面板上正常操作。这说明设备能正常工作, 基本可以得出是在网络连接环节出了问题。我台音频监控相关设备网络连接如图1所示:

由 (图一) 可知, 3个音频监控器 (型号为MD2200AM) 、1个音频控制单元、1个声光报警器、客户机和服务器全部连接到集线器形成一个局域网。在局域网内测试网络设备之间是否连通有个很好的办法就是Ping命令。在客户机上分别Ping三台音频监控器, 返回的信息显示, 1号音频监控器 (IP为192.168.9.12) 、2号音频监控器 (IP为192.168.9.13) 网络连接正常, 3号音频监控器 (IP为192.168.9.14) 无法连接。为排除网线的原因, 将3号音频监控器与集线器之间的网线更换, 再Ping, 仍然无法连接。经过上述排查, 现在可以确定问题出在3号音频监控器的网络模块。

二、音频监控器网络故障排除

由于我们没有网络模块故障的处理经验, 设备商建议返厂维修。考虑到台里尚有一台备用音频监控器尚未投入使用, 返厂维修也会影响正常播出, 我们决定通过自己的努力解决该问题。首先, 利用软件将备用设备的IP地址设置成与3号音频监控器一致的192.168.9.14。测试后连接正常, 将其替换到系统中, 可正常进行控制和监测工作, 报警也能清除。于是, 我们按照同样的步骤对原3号音频监控器重新IP设置, 测试工作正常后, 就把已经功恢复功能的3号音频控制器装回原位继续工作, 将备用音频控制器继续留作应急保障, 至此故障彻底解决。这样一来, 既不用把设备返厂维修, 又保证了我台音频监控器的备份机制。

三、实践中总结的IP设置方法

在摸索如何排除此故障的过程中, 我们通过研究设备用户手册及附带程序, 总结出一个实用的音频监控器IP设置方法, 完整操作过程包括以下步骤:

第1步:准备工具。准备一台电脑, 一根网线, 一台音频监控器以及IPsetting程序。

第2步:复位音频监控器默认设置。将音频监控器插上电源线, 然后按住面板上的shift键8秒直到设备发出“嘀嘀”声。此时, 音频监控器IP将复位为192.168.0.12, 对应的音频控制单元IP将复位为192.168.0.100。

第3步:测试复位默认设置是否成功。用网线连接电脑和音频监控器, 将电脑IP地址设置为192.168.0.100 (此时电脑即相当于音频控制单元) , 子网掩码设置为255.255.255.0。如果电脑Ping 192.168.0.12连接正常, 则表明复位成功。

第4步:根据需要进行IP设置。以我台此次故障中的音频监控器及其控制单元设置为例, 3号音频监控器的IP为192.168.9.14, 音频控制单元IP为192.168.9.100。打开IPsetting.exe, 在“音频监控器IP”框内输入192.168.9.14, “音频监控器Port”输入1000。“控制单元IP”框内输入192.168.9.100, “控制单元Port”框内输入5002。参数全部设置后, 如 (图2) :

上图框内的各项参数, 除“音频监控器Port”固定为1000外, 其他IP地址等参数需根据实际网络配置情况而定。比如, “音频控制单元Port”的参数根据对应的“音频监控器IP”最后一项数值变化, 对应关系为:“音频监控器IP”为192.168.X.12, 则对应“音频控制单元Port”为5000;192.168.X.13对应5001;192.168.X.14对应5002;192.168.X.15对应5003, 以此类推。192.168.X.12其中的X表示可在0-9之间任选, 但是建议与自动控制系统局域网所处的网段保持一致, 如原来局域网的网段在192.168.9则所有网络设备全部设在192.168.9, 否则将出错。

第5步:测试IP设置是否成功。参数填写完毕后, 点“确定”, 音频监控器会发出“嘀嘀”声提示设置完成。最后, 将电脑IP地址改为192.168.9.100, 子网掩码设置为255.255.255.0。再次使用Ping命令测试是否连接成功。如果电脑Ping 192.168.9.14正常, 则表示IP设置成功。

四、总结

如今自动控制系统已经在我省各广播转播台广泛使用, 维护自动控制系统的稳定运行自然成了我们技术人员工作重点, 确保安全播出更是一切技术工作的中心。这次音频监控器故障的排除过程, 让我们收获了不少维护自动控制系统的经验, 也让我们在今后的安全播出工作更有把握、有信心。

参考文献

[1]厉毅主编.计算机网络技术.北京市:中国科学技术出版社, 2006.

网络音频 篇7

传统的音频传输技术是应用数字电缆、光纤等进行点对点的音频信号连接。但是, 随着计算机网络的快速发展, 应用网络技术的音频信号传输技术越来越成熟。使用基于网络的音频传输方案使得媒体行业、广播机构的音频传输基础架构有了巨大的改变, 并且为内容共享和网络分发实现了更大的灵活性。

早在上世纪90年代就出现了基于以太网的网络音频传输技术。Cobranet、Ether Sound等为代表的网络音频传输技术就大规模的应用于广播机构和媒体行业。一方面, 这种技术解决了多音频链路的综合布线困难问题, 同时也解决了远距离音频传输、音频数据备份、传输链路自动冗余等一系列在模拟传输时代无法面对的问题。

但是, 基于以太网的网络音频技术因为是在OSI模型中的2层设计, 所以, 必须是在专网 (专用小型局域网) 中运行, 并不能进行跨网的传输。为了迎合市场的需求和新技术的发展, 市场上出现了基于IP的网络音频传输技术。这种技术是基于OSI的3层协议设计, 所以, 天然的就可以进行跨网传输, 甚至于在WAN中传输。这种技术也被称之为Ao IP技术。Ao IP技术备各个机构或者厂家研发, 由于各个厂家采用了各自不同的技术标准, 在系统集成过程中不可避免的造成了互通的障碍以及设备的浪费。在2013年, 为了推进多种Ao IP技术的互联互通, AES67标准应运而生。这个标准规划了Ao IP各种设备之间的互联互通标准, 为网络音频的传输技术制定了发展的基础。

1 Ao IP技术概述

说到Ao IP技术就不得不说OSI网络模型。从底层向上, OSI参考模型的七层分别是物理层、数据链路层、网络层、传输层、会话层、表示层以及应用层 (图1) 。

物理层实际上是为硬件的物理链路提供电子特性。

数据链路层是逻辑连接, 定义了网络类型。例如:数据链路层定义这是一个以太网还是一个异步传输模式 (ATM) 网。这里也有许多数据网络传输协议。数据链路层分成了两个子层, 媒体访问控制层 (MAC) 以及逻辑链路控制层 (从底层向上看OSI参考模型时, 它在MAC之上) 。

网络层——本层进行网络的路由操作——把数据“打包、分包或解包”并提供路由信息。这一层的公共协议是英特网协议 (IP) 。

第四层是传输层。这一层在OSI参考模型中的含义与我们在移动音频时所使用的术语“传输”是不同的。传输层提供了决定传送方式的协议。最流行的协议就是传输控制协议 (TCP) 。

Ao IP的网络音频技术就是建立在这四层基础之上的应用。它天生就具备了跨网段传输的能力, 甚至于可以在广域网传输。Ao IP是建立在开放的标准技术之上的, 利用现有的网络架构以及网络基础设施, 实现音频数据的网络传输。

2 Ao IP技术网络协议和技术要求

2.1 RTP和UDP实时传输协议和用户数据包协议

RTP是一个实时网络传输协议。RTP网络传输协议详细说明了在互联网上传递音、视频的标准数据包格式。

UDP是OSI参考模型中一种无连接的传输层协议。它提供面向事务的简单不可靠信息传送服务。

2.2 IGMP Internet组管理协议

IGMP协议, 是Internet协议家族中的一个组播协议。该协议运行在主机和组播路由器之间。

IGMP协议现在共有三个版本, 即IGMPv1、IGMPv2和IGMPv3。

2.3 PTP精确时钟协议 (IEEE1588)

IEEE1588协议的全称是“网络测量和控制系统的精密时钟同步协议标准”。该协议是通过硬件和软件将网络设备 (客户机) 的内时钟与主控机的主时钟实现时间同步, 提供同步建立时间小于10μs的运用。

IEEE 1588v2是一种主从同步系统。在同步过程中, 主时钟周期性发布PTP时间同步协议及时间信息;从设备系统从其时钟端口接收主时钟端口发来的时间戳信息, 并据此调整本地时间, 使主从设备时间保持一致的频率与相位。

2.4 Qo S服务质量

Qo S (Quality of Service) 指一个网络能够为各种不同的服务提供不同的优先级服务的能力, 是一种网络安全机制。当网络过载或拥塞时, Qo S服务能确保核心业务量不受延迟或数据丢弃, 同时保证了网络的高效运行。

2.5 音频数据编码和传输带宽

AES67的标准对音频数据的编码规范进行了定义, 以便于各种Ao IP设备互通。标准规定采用16/24bit的线性非压缩音频编码格式, 48k Hz的采样率;每个音频流最多8个音频通道。

每个数据包包含48个采样点的音频, 所以每个数据包就是1ms的音频。每个数据包的大小被限制在1440bytes。这个数据包小于以太网的数据包限制1500bytes, 避免了采样数据将被分割成多个数据包的风险。虽然以太网可以设置大数据包传输, 但是, 这样将对网络以及网络设备提出更高的技术要求。

根据以上的规定计算, 一个立体声传输的带宽需求的大约是3Mbps;8个音频通道占用的带宽大约是10Mbps。根据这样的需求, 就可以设计Ao IP系统需要网路架构, 以及在现有网络中的带宽需求。

3 Ao IP在广电行业中的应用探讨

Ao IP技术适合于部署在各个细分专业音频市场, 像演播室、扩声系统和录音棚等。可能的应用领域包括 (但不是限于) 在广播机构、剧院、音乐厅和其他固定安装的内部信号分配系统以及在场馆和赛事直播、转播车的灵活设置支持, 甚至于设施间链接跨WAN连接以及在生产及记录的应用。

广电作为细分的专业音频应用领域之一, Ao IP技术带来了广阔的技术提升空间。下面我们就探讨一下Ao IP技术在广电领域的使用场景。

3.1 远程的音频传输

网络世界的迅猛发展, 给设备制造商带来了巨大的商机, 网络设备的成本也急剧下降。相对传统的音频线缆的点对点的布线结构, 网络布线也节省了大量的线材和施工工作量。新的Ao IP网络音频技术正是在这种背景下进行设计开发的技术。它应用了大量的开放标准的网络技术, 在现有的网络架构上进行开发设计。应用Ao IP技术不会对现有的网络架构做任何的改变, 就能够实现音频数据的网络传输。

在广播电台的业务流程中, 几乎都在电台的大楼和发射台站进行了网络布线, 不管控制网络还是传统的音频传输网络 (图2) 。那么在现有的网络基础上部署Ao IP的网络音频设备, 实现节目音频的网络传输, 无疑是可以节省巨大的基础投资成本。

Ao IP技术支持的多通道网络音频传输的通道数大大的多余传统的音频设备。一般的传统音频设备也就是几路, 多的达到十几路;利用TDM技术的MADI协议最多也就是64路;Ao IP技术理论上是可以达到512路的音频通道。

最重要的区别于传统音频传输设备的是这个网络是可以综合使用的网络。不同于传统的音频传输设备 (包括MADI、基于以太网的网络传输设备) 独占整个物理链路, 支持Ao IP的网络设备只是占用这个网络的一部分带宽, 其他的网络带宽完全可以传输其他数据内容, 包括控制数据、监测数据等 (图3) 。

同时, Ao IP支持的网络多播技术也是音频数据进行网络传输的利器。通过网络多播技术, 可以在不多占用网络带宽的情况下将广播节目数据传输发射台、电视台、地球站以及其他应用等等多个目的地

以上论述说明, 在现有的网络架构基础上, 不需要额外的大量的布线就可以实现从演播室或者总控机房到发射台、地球站等等多目的地的多路音频的远程传输。

3.2 音频传输链路监测

音频传输链路的监测越来越成安全播出的重要保障手段之一。通过监测可以实现故障的预警、报警, 让运维人员更快、更准确的处理故障, 保障广播节目的不间断播出。

在现有的音频传输链路技术架构中, 如果需要对整个链路进行监测, 就需要增加音频采集设备以及网络编码, 从而获取传输链路中的音频数据到监测平台。当然, 有些专业设备自身支持监测功能, 也可以实现安全监测。但是, 由于各个设备厂家支持的监测协议千差万别, 给整合整个监测平台带来了巨大的工作量和复杂度。

Ao IP技术是利用开放的音频和IT网络标准技术设计的。所以, 在开发和系统集成上具备了更多的便利条件, 可以大大的减少开发集成成本。随着技术的发展, 越来越多的音频专业设备厂商推出了支持Ao IP的设备。例如:LAWO、NTP、Studer、Infomedia等等设备厂家的调音台、矩阵、智能切换器等等设备。将来, 整个广播节目传输链路的专业音频设备都会支持Ao IP技术, 或者具备Ao IP的网络音频接口。基于以上两个方面, 实现广播音频的传输链路的监控将会成为标准化的功能 (图4) 。

通过Ao IP技术, 整个广播音频传输链路的监测数据将会更加丰富的呈现在运维人员面前。这也将会大大提高运维人员的工作效率, 减少传输链路故障的处理时间。

3.3 构建便利的录音、播放网络

利用Ao IP技术, 很多厂家开发了基于Ao IP的虚拟声卡 (Virtual Sound Card) 。例如:Audinate公司的Dante Virtua Soundcard、LAWO公司Ravenna Jade。这些虚拟声卡软件都支持将现有的标准网卡虚拟成为Ao IP的声卡。

通过虚拟声卡技术, 计算机设备就成为Ao IP网络的一个节点。计算机设备是网络的基础, 大量的音视频应用都是在计算机设备上运行的。数量繁多的音视频编辑、录音、播放软件系统完成了人类对音视频的功能需求。Ao IP技术又将这个功能向前推进了一步。通过Ao IP和计算机设备, 我们可以方便的实现网络的音频录音、播放, 而且是多通道的。

相比传统的多通道录音、播放来讲, 由于实现多通道的技术不一样, 需要繁多种类的多通道声卡。如今, 使用Ao IP技术则简便多了, 一块网卡和虚拟声卡驱动就可以完成所有的问题。不仅在构建成本上节省了, 而且利用Ao IP网络可以获取更多的音频资源 (图5) 。

对于电台的录音系统来讲, 构建一个Ao IP的网络将实现丰富的音频节目数据源。试想, 如果在总控部署一套Ao IP音频采集系统, 将丰富的音视频节目源送进Ao IP网络, 在录制机房、录音棚、录制站点部署支持Ao IP的录制调音台, 那么各个录制站点通过Ao IP的网络都可以从总控得到丰富的节目源进行节目的录制编辑。相比传统的录制系统将节省大量的布线工作 (图6) 。

4 结束语

总结以上所述, 在开放的标准基础上的Ao IP技术给广电行业带来了新技术的同时, 也对传统的广播技术带来了巨大的挑战。如何利用Ao IP技术, 结合广电本身的行业特点, 去适应现代信息技术的飞速发展将是需要重点研究的一个课题。

参考文献

一种高性能实时音频网络电台方案 篇8

信息技术的革命与发展、计算机的普及、多媒体技术的发展以及互联网的迅速崛起, 应运而生了流媒体。流媒体技术是在数据网络上以流的方式传输多媒体信息的技术。近年来, 随着宽带网络的发展和用户需求的驱动, 流媒体技术和相关的应用得到越来越多的关注, 被认为是未来高速宽带网络的主流应用之一。实时音频流服务也就是通称的网络电台也成为比如的研究热点。在我国进行独立自主开发安全可靠、具有自主知识产权的流媒体增值业务平台已是当务之急。

本文提出了一种基于高性能DSP的网络电台方案。文中首先分析了该平台的数据流、功能需求和对应的系统结构, 然后重点讨论了数据处理单元和数据转发单元的硬件、软件设计要点, 接着给出了构建的实验系统的技术参数, 最后在测试分析的基础上给出了结论。

二、系统的搭建

在本文研究中, 高性能DSP可以实时编码模拟输入的音频信号, 级联的Linux系统作为流媒体服务器, 实现实时信号处理和网络接入服务的分离, 提高了系统的可靠性。在系统搭建的时候, 考虑到MP3是目前无论是互联网还是便携式播放器应用中最广泛的压缩音频格式, 我们的流媒体服务器的音频标准选用了MPEG-1的音频编码Layer3即MP3。系统的基本结构如图1所示。

经过AD变换后的PCM音频送入到MP3音频编码器, MP3音频编码器输出的MP3码流传送到流媒体服务器RTSP Server, RTSP客户端通过互联网接收MP3码流, 通过任一MP3播放器收听。

上述系统分四个处理单元:数据处理单元、数据转发单元、互联网络、流媒体终端。系统中各单元的软件设计、硬件设计, 必须综合考虑性能需求与可扩展性等多方面的要求:

1. 高性能的信息处理单元满足实时的MP3编码需要。

2. RTSP服务器具有一定的兼容性和负载承受能力, 对RTSP客户端没有特定的要求。

3. DSP端的信息不能让外部用户直接获取, 流媒体服务器和信息处理单元之间实现的链接尽可能简单, 完全可控。

4. 能够提供机制, 调整MP3编码参数, 明确显示系统的工作状态。对于后两个处理单互联网和流媒体终端不是本文的讨论范围, 本文将重点讨论数据处理单元和数据转发单元的硬软件设计方案。

三、数据处理、转发单元设计

1. 硬件设计。

在本文的研究中数据处理、转发单元主要有五个模块:音频信号采集模块、数字信号处理器、USB控制模块、太网控制模块和数据转发模块。硬件原理略图如下图2所示。

(1) 数字信号处理器TMS320C6713B。该处理器主频为200到300MHz, 包含八个独立的运算单元, 其中有6个可以作为浮点运算单元, 处理能力为1000~1800MFLOPS, 指令执行单元是VLIW架构, 开发工具的C编译器效率很高。

运算能力强的浮点数字信号处理器能很好的满足隐信道传输平台的要求, 直接支持浮点运算, 避免了算法向定点处理器移植过程中定标的过程, 这样针对音频编码器各个环节的各种隐藏算法能方便的集成到该平台上。

(2) 音频信号采集模块TLV320AIC23B。该芯片可以直接连接C6713的同步串口, 立体声采样率从8k Hz到96k Hz, 量化位数从16位到32位。本系统中上述参数都是可通过软件进行动态配置, 以满足MP3编码器和隐藏算法对不同抽样率, 不同量化位数的要求。

(3) USB控制模块SL911HS。本系统中提供直接从移动存贮器读取数据的功能, 增强系统的可扩展性。通过软件的方式, C6713可通过该控制模块访问移动存贮器。

(4) 太网控制模块RTL8019AS。与数据转发单元的通信, 采用以太网接口, 实际系统工作时, 通过该接口直接与数据转发单元通信。采用全双工模式通信, 这样的模式优点是同服务器接口容易, 作为嵌入式系统, 该接口方案基于TCP/IP的协议栈开发软件, 可以避免设计底层的通信协议, C6713和RTL8019A的驱动软件编写也很容易。

(5) 数据转发模块。数据转发有三项任务:一是接收数据处理单元的音频码流;二是流媒体服务器, 处理与流媒体客户端的会话;三是配置管理数据处理单元。在本文的研究中, 选用了带有双网卡的工控机作为硬件平台, 安装Linux操作系统, 所有软件运行在该系统上。在系统设计时, 从DSP接收码流和流媒体服务器为一个进程, 配置管理数据单元为另一个进程。

2. 软件设计。

系统在软件设计过程中采用数据驱动的原则, 从外部输入输出的数据实现中断的触发, 即在中断服务程序中设置标志位。在主循环中, 通过检测标志位, 判断音频缓冲区、网络状态, 启动编码、信息嵌入, 然后发送MP3码流。如图3所示给出了数据处理单元的流程图。

在主循环中, 通过检测标志位控制流程。最重要的标志位有两个:一个是从数据转发单元来的控制字, 包含运行状态的查询、配置的修改, 如编码码率, 输入增益的调整;另一个是音频缓冲区是否满的标志, 如果缓冲区满, 则读取该缓冲区数据, 经过信息编码后, 将数据包送出。

中断服务程序包含定时器中断、模拟音频输入串口中断、网络接收发送数据中断和USB接口输入中断。由于核心数字信号处理器的处理能力非常强大, 中断服务程序的处理相对开销较低, 因此所有的中断分配了同样的优先级。

核心编码算法的DSPs移植也是很重要的一环, 移植使用了TI数字处理器的快速浮点运算库, 通过Profile分析的结果, 按编码器算法框架内各函数的执行次数和开销百分比, 分布实施优化策略, 其中的时频变换可以使用FFT来计算。

因为USB接口为低速外设, 读取移动存贮器的数据文件时, 可以根据文件的大小和系统可用内存空间, 决定是否分块读取, 减少系统开销。

四、系统测试

本文按照前述方案完成软件硬件设计后, 构建了一个高性能的实时流媒体系统, 结构如图4所示。数据处理单元与数据转发单元通过“直连”模式的双绞线连接, 组成一个内网, 配置一个独立的网段。数据转发单元的第二个以太网口与外网相接, 客户端通过该网口访问流媒体服务器, 用户也可以远程登录服务器后, 维护和管理整个系统。由于数据处理单元内的TCP/IP协议栈只处理内部约定的交互命令, 这样客户端无法访问到USB连接的移动存贮设备。

系统在研制过程中, 各模块都进行了正确性测试, 系统集成后, 进行了稳定性测试, 最后是系统指标测试和负载测试。在系统的性能参数中, 处理器的负载和延迟是最重要的两项技术指标。

1. 延迟测试。

在确保系统能够长时间稳定工作之后, 我们测试系统各功能部分的延迟时间。主要包括以下三项: (1) DSP从上电到发包开始的时间: (2) 客户端Real Player从开始点播到连接服务器成功的时间: (3) 音源播放到客户端Real Player播出声音的延迟时间。表1给出了测试过程中记录的延迟最大值, 最小值和平均值。通过多次测试, 各类延迟时间记录如下:

2. 负载测试。系统分别对数据处理单元和数据转发单元进行负载测试。

(1) 数据处理单元, 使用Profile测试。测试时使用的MP3编码器输出码率为128kbps。通过对12个不同类型的测试序列进行数据处理, 测试的DSPs负载均小于10%;

(2) 数据转发单元, 使用Linux下TOP指令查看CPU负载。测试中发现在用户接入的瞬间, CPU占用率会有所增加, 但是很快稳定, 在20个接入时, CPU稳定后占用率仍低于1%。

从测试结果可以看出, 系统能够进行实时的在线广播, 延迟参数完全满足应用要求, 数据处理单元的CPU资源有充分的余量, 为使用更复杂的音频编码算法和信息嵌入算法, 甚至扩展视频流媒体应用留下了足够的空间。

五、结论

本文提出的基于音频流媒体的实时传输系统, 具有实时压缩音频数据, 实时转发, 原信息与外网隔离等优点。能满足实时应用的要求。由于数据处理单元的处理器有强大的运算能力, 可以引入视频、音频等多种编码算法, 直接通过软件升级来设计各种流媒体传输系统。

摘要:以高性能DSP作为音频运算单元, 支持多种音频编码器的动态加载, 输出实时压缩的音频流, 与基于Linux系统级联组成实时音频网络电台。分析了在系统的功能需求和结构的基础上, 以MP3音频流为例, 对数据处理单元和数据转发单元的软件、硬件设计方案做了详细的论证, 实验结果表明实时性、可扩展性、可靠性可满足互联网音频广播的要求。

关键词:音频编码,流媒体,数字信号处理器

参考文献

[1]TMS320C6713, TMS320C6713B floating-point digital signal pro-cessors Data Sheet, SPPS1861, May, 2004

[2]TMS320C6000CPU and Instruction Set Reference Guide, SPRU189F, October2000

网络音频 篇9

一、非线性视音频编辑网络教学的主要内容

网络教学是当前我国高校教育中的一种教学模式。从理论上来说, 网络教学主要是通过计算机网络这种手段对学生之间开展高校教育的教学方式。网络教学不需要学生与教师面对面, 通过网络即可接受教育。

所谓非线性, 实际上指工作流程不是在时间轴线上, 而是任意的, 分割的, 其工作素材是可以前后随意调动的, 经各种处理后, 重新编排的技术。非线性编辑则是指电视节目后期制作系统, 它主要是通过数字压缩技术将视频、音频素材数字化, 存储在计算机硬盘中, 然后利用视频编辑软件对数字化素材进行多种处理。

二、非线性视音频编辑网络教学的方式

一般来说, 网络教学主要包括同步式教学和异步式教学。同步式教学主要是教师和学生同时在网络上进行互动教学的一个模式。同步式教学侧重的是同一时间。而异步式教学则是教师只要利用互联网的WWW服务及电子邮件服务来开展相关的教学。另外, 部分学校开通了讨论学习模式和探索学习模式, 但是相对来说应用起来比较少。

非线性视音频编辑教学相对于其他文科类的教学来说, 更为复杂, 技术性高, 如果单纯地分享一些学习教案, 学生往往都看不懂。因此, 笔者在接受网络学习的过程中, 都是采用同步式网络教学。在笔者接收的过程中, 一旦有学生听不懂, 老师就会及时解答。这样同步式网络授课对于学生掌握非线性视音频编辑教学起到了重要的作用。

三、非线性视音频编辑网络教学存在的问题

非线性视音频编辑网络教学发展的时间较短, 因此, 在网络教学开展的过程中, 不可避免地会出现一些问题。下面, 笔者就非线性视音频编辑网络教学中存在的问题进行介绍。

1、非线性视音频编辑网络教学的观念没有改变

实际的网络教学活动中, 部分教师认为对学生开展非线性视音频编辑网络教学仅仅是一种手段, 并没有认识到网络教学的时代性和高效性, 不利于网路教育的开展。

结合笔者的工作来看, 部分教师认为网络教学是将师生间的口耳相传改换成网络上的信息交互, 教学质量就可能大有提高。这样的观念认为教学质量有可能提高是正确的, 因为更多地利用网络资源可以丰富教学内容。但是只简单地认为“将师生间的口耳相传改换成网络上的信息交互”这样的想法不正确。在非线性视音频编辑网络教学开展的过程中, 作为教师将引起教学思想、教学模式和教学方法的改变, 相反, 如果不能够及时更新观念, 那么, 开展网络教学是效率和质量的效果并不会理想。

2、自主学习资源匮乏

在实际的学习工作中, 网络教学并没有为学生提供种种有利于进行自主学习的资源。举一个简单的例子来说, 非线性视音频编辑软件Adobe Premiere Pro是非常专业的软件, 涉及到界面以及操作问题, 很多学生一次性都无法掌握熟练, 在这种情况下, 学生可以通过自主学习资源来进一步加强对知识的巩固。

3、考核力度不到位

第一, 对非线性视音频编辑网络教学教师的考核力度不强。这在某种程度上就容易出现网络教师的旷课以及其应付教学工作的开展。另一方面, 教师开展的网络教学中缺乏对学生的一种考核。在日常的高校教学中, 我们每一章节或者是每一个月都会进行定期的考试, 即便是在每堂课上, 也会通过提问学生来分析学生上一节课掌握的情况如何。但是在网络教学中, 就缺乏这样的考核制度, 不利于学生真正掌握非线性视音频编辑的知识。尤其是对于Adobe Premiere Pro而言, 如果有一章节落下了, 其他章节的掌握都会有一定的问题。

四、解决非线性视音频编辑网络教学存在问题的对策

为了进一步解决当前非线性视音频编辑网络教学中的问题, 笔者就结合自己的工作经验, 给出以下的解决对策:

1、更新非线性视音频编辑网络教学的观念

更新非线性视音频编辑网络教学的观念是解决当前非线性视音频编辑网络教学中存在问题的前提和基础。更新教师非线性视音频编辑网络教学的观念要通过开展培训的方式来进行的。从理论上来说, 自从网络引入教学以后, 作为教师要意识到网络教学的重要性。只有教师能够跟着与时俱进, 那么, 在开展非线性视音频编辑网络教学的过程中, 才能够进一步适应信息技术与课程整合的要求。未来网络教育将促使家庭教育社会化, 社会教育家庭化, 能够使得高校网络教育人性化发展。

2、丰富自主学习资料

丰富自主学习资料是解决当前非线性视音频编辑网络教学中存在问题的重要措施。就笔者的工作经验来看, 自主学习资料的数量和质量如何对于学生接受知识的效果有很大的影响。一般来看, 很多高校都重视教师的课堂教育而忽视了自主学习资源的丰富。实际上, 在今后的工作中, 我们要进一步丰富自主学习资料。

首先, 举一个简单的例子来说, 笔者就视音频编辑方面的自主学习资料进行充实, 不仅在网上学习Adobe Premier软件的资源放, 更是将其他的软件, 比如gold wave、cool edit pro以及soundforge等软件方面的知识也自主学习。这样, 在了解其他软件方面知识的同时, 也会通过比较, 对Adobe Premier软件印象更深。

另一方面, 在今后的工作中, 我们需要进一步提高自主教学soundforge资源的深度和精度。这就要求相关专业的教师认真研究教材要求, 做好备课工作。

3、加强一些非线性视音频编辑方面实例讲解

非线性视音频编辑方面实例讲解课程是一门实践性要求较高的课程, 而传统教学中先基础后实习的教学模式, 客观上形成了理论与实践的脱节, 但是网络教学模式可以具有选择性的学习, 边实践边基础, 或是先实践后基础等, 从而培养出一批具有独立分析问题和解决问题能力的全面素质人才来。我们利用大量的实例把教材和教材以外的知识技术分段制作成动画或视频, 供网络学习者实习使用。

4、加强相关的考核力度

加强相关的考核力度是解决当前非线性视音频编辑网络教学中存在问题的主要措施。笔者这里提到的加强相关的考核力度主要是指对教师的考核和对高校学生的考核两方面。

第一, 加强对教师的考核力度。在今后的工作中, 学校要进一步完善教师工作制度, 统一规范教师的要求。认真开展教学活动, 对学生要有耐心。学校领导可以通过定期反馈学生对教师的满意度调查等方式来推动教师做好非线性视音频编辑的网络教学工作。

第二, 加强对学生的考核力度。加强对学生的考核力度是确保非线性视音频编辑网络教学质量的关键。教师要定期对学生进行考核, 以随时了解学生的掌握情况, 督促学生接受网络教育, 提高教学质量。

摘要:非线性视音频编辑教学相对于其他文科类的教学来说, 更为复杂, 技术性高, 如果单纯地分享一些学习教案, 学生往往都看不懂。因此, 笔者在接受网络学习的过程中, 都是采用同步式网络教学。

关键词:非线性视音频编辑,问题,对策

参考文献

[1]宋鸿荣;传统特技与数字特技[J];现代电影技术;2011 (07)

[2]李娜;谈数字特效在影视制作中的应用[J];有线电视技术;2011 (07)

[3]杨帆;论数字音乐在影视作品中的作用[J];新闻传播;2011 (07)

[4]田君;浅谈非编网络在电影后期制作中的应用[J];现代电影技术;2010 (04)

[5]孔伟;高职影视制作专业的课程设置模式探究[J];艺术评论;2010 (04)

网络音频 篇10

1. 非线性视音频编辑的网络化实施过程

1.1 网络化工作流程

目前, 我台使用的网络系统是大洋公司的D3-EDIT。D3-EDIT作为最新一代的非线性编辑软件, 网络化的工作流程可以详细分解描述如下:

(1) 采访申请 (记者提出) 、申请审批[栏目编辑等) 、新闻标题 (记者登录) 、新建标题 (编辑稿件) 、标题报题、标题审查审稿 (部门主管) 、审查通过;

(2) 上载工作站、按标题登记、采集素材、收录工作站、按标题登记素材;

(3) 标题送配音、配音工作站为标题配音;

(4) 视频编辑 (按标题编辑) 、标题上字幕;

(5) 编辑结束、栏目送审、标题审查 (审片) 、审查通过送串片、节目串编 (制作人员) 、节目送审、节目审查、成片播出或下载。

1.2 制作和存储的一体化

制作和存储的一体化问题关键在于压缩格式, 非线性编辑系统D3-EDIT和在线近线存储须选用相同的压缩格式。D3-EDIT系统网络建设的做法是:素材只需要一次上载, 在上载时拟同步生成MPEG-2帧和MPEG-4两种码流;MPEG-2帧编码作广播级的制作和存储码流, MPEG-4的码用于检索和粗编, 这样可以确保库存节目能直接调到制作系统进行编辑制作。

至于压缩比的选择, MPEG-4选择1M bps码流已经足够, 对于SP、S X、DVCAM、DVCPR025信源的节目, MPEG-2可选用25Mbps以上的码流, 对于DVW、IMX、DVCPR050信源格式的节目, MPEG-2可选用50 Mbps的码流制作的剪辑和存储的编目在各自工作站独立进行, 全部工序流畅有序。此外, D3-EDIT工作站在向中心存储体上载素材时按照2轨50 MBPS码率MPEGⅡ格式的素材计算, 每台工作站将占用的带宽为13.5 MBPS。

1.3 视音频码流和网络信息的一体化

视音频数据和网络信息虽然在两个网络平行运行, 但相互的数据结构是密切相关的, 通过数据规划将二者建立关联。这样, 制作、播出和存储主流业务的运行也联动着网络信息系统内容更新。电视台的业务实际上是在网络信息系统的调度管理下运作, 二者的一体化能够保障全台管理的流畅、有序和高效。

2. 非线性视音频编辑网络系统的功能剖析

2.1 上载工作站

上载工作站主要负责素材资料的集中上载工作。相对于传统的上载工作站, 我台使用的D3-EDIT系统可以在上载的同时完成编目和自动索引的生成。

上载时, 系统将自动进行场景检测, 将采集的素材分割成独立的片段。而且导入的素材自动转换视频格式, 用户无需参与转码操作。为了方便以后的一致引用, 导入素材时对文件进行编目处理, 添加元数据信息, 也可以根据预先详细定义的二级编目实现素材的对照上载。

2.2 精编工作站

D3-EDIT系统的精编工作站实际上就是一个实现后期制作的编辑工具。作为一个功能完善的非线性编辑机, 主要功能如下描述:精编工作站可对素材进行入出点再设置, 然后以各种灵活的方式编辑到时间线;时间线任意位置素材的添加、插入或覆盖和其它组合编辑方式;无限次编辑操作步骤和恢复、重复;2路实时视频、8路音频、多层字幕实时播出。

此外, 精编工作站中的模板方式可以实现常用特技, 如闪白、马赛克、叠画等。也可以根据实际情况, 再制作其它特技效果, 然后将其保存在专门的数据库, 同其他电视制作的工作成员共享资源。模板方式也可实现格式较为固定的标题字幕、滚屏字幕、唱词以及左飞等效果。并可用字幕软件实时制作效果更为丰富的多种方式的字幕, 字幕软件以插件形式实现视音频/字幕制作一气呵成。

2.3 下载/直播工作站

D3-EDIT系统的下载/直播工作站可将节目下载到磁带或者播出视频服务器, 也可在本工作站直接播出。本工作站完全识别制作系统的节目文件和视频串联单文件, 可将播出需要的素材超实时的剪裁传送到本地磁盘上作为本地素材播出。系统定义的播出表可直接播出制作系统的串联单格式, 或独立的AVI、MPG节目文件格式。通过双机同步播出防止可能的问题。

3. 非线性视音频编辑网络系统的安全保障

目前, 我台的非线性编辑网络都采用了D3-EDIT系统, 其运行安全和可靠性是至关重要的, 必要的安全规划和管理措施是必不可少的。

3.1 节目制播存环节的关键设备全部采用冗余配置

对于非线性编辑网络来说, 其稳定性无疑是最重要的。假如网络中某一环节出现故障, 导致网络瘫痪, 将直接影响节目的正常播出。因此, 将其关键设备冗余配置十分必要。这些设备包括服务器、光纤交换机、以太网交换机以及光纤磁盘阵列等。这样, 一旦某一关键设备发生故障, 可及时启用备机, 保证了非编网络制作节目的时效性。

3.2 对网络资源和用户进行必要的划分和授权

对用户权限的设定是网络安全性管理的必要手段, 通过权限设定, 可避免用户有意或无意地破坏网络环境, 更加规范用户对网络的操作, 保证网络的稳定运行。

3.3 核心业务的视音频网络必须和公网隔离

上一篇:过程中需要注意的事项下一篇:小区留守妇女