视讯视频

2024-05-13

视讯视频(精选6篇)

视讯视频 篇1

0 引言

伴随着科技的不断进步,各种新技术和高性能的电子元件的不断升级换代,视讯会议系统的使用者对系统性能的要求也越来越高,不单需要清晰地地到会议的声音,而且对图像的质量要求也越来越高,这就使得现代会议系统组成已经不是将会议系统传输过来的声音简单地以扩声的方式展现出来的系统,它涵盖多个系统,例如多媒体显示系统、集中控制系统、会议表决、签到系统等。各个系统之间通过标准接口实现无障碍操作的系统集成。

1 高清视频显示系统的现状

传统H.320视频会议在90年代发展之初的时候,还是以CIF格式作为视频会议的标杆,而在21世纪之初, 采用新一代的处理器使得视频会议系统显示效果从CIF视频(352×288)提升到4CIF(704×576),当时由于比原来视频会议的CIF标准提高了4倍分辨率,被称为“高清视频会议解决方案”。然而,视频还不够完美,视频还具有模糊不清,以及一些细节丢失的缺陷。因此,是标准CIF图像像素的9倍20倍等以上的720P(1280×720)、1920×1080(1080i、1080p)的图像使得视频会议变得更加逼真和现实,也就是目前流行的数字电视标准的高清。

显示系统已经从最初的辅助系统转变成为主要系统,成为使用者最为关注的部分。显示系统主要由投影仪、等离子显示器、数字液晶电视、液晶显示器或液晶监视器、辅助的矩阵切换及信号处理构成。

经过近几年高清电视的推广和数字电视的播出普及,目前普遍的电视机(37英寸以上)都能够满足全高清显示要求的物理分辨率。民用高清大屏幕电视机的普及,带动了电视机高清标准向工程领域扩展,高清产品逐渐地被应用在工程领域,因为大屏幕显示是非常适合工程的产品,尤其是企事业单位的会议室,随着高清电视标准的普及,在民用方面,普遍是高清标准,即720P分辨率,民用高端可以达到1080P全高清标准;随着显示标准的深入推广,目前民用大屏幕电视机都已达到高清标准,而在工程领域,大部分厂家也已经推出高清摄像机、POLYCOM宝利通、中兴等推出高清视频会议终端,这些高清产品的应用无疑会使高清显示设备的应用更加普遍,相信高清显示在工程领域的应用很快会成为主流,逐渐成为会议视频显示系统的首选标准。

2 会议室高清显示系统的实现

2.1 显示终端要求

显示终端符合高清要求。投影仪、等离子显示器、数字液晶电视、液晶显示器或液晶监视器物理分辨率达到1920×1080P,且真实画面比例为16∶9;这个画面比例不是通过转换实现的。显示终端亮度要达到>3000ANSI的会议室普遍要求,具备VGA、RGBHV分量、DVI(数字视频接口)、HDMI(高清晰多媒体接口)、串行控制接口RS-232、复合视频,考虑长时间使用的稳定性,如使用投影仪应首选工程类投影仪;等离子采用专业工程用等离子显示器,与民用显示设备相比,专业工程显示终端不带音箱,且接口丰富、采用插槽式设计,根据需用接口,进行订购;具备DVI、RGBHV分量插槽接口,而这两个接口在民用显示设备上一般不具备,而DVI和RGBHV分量又是工程最常用的接口,因此,在选择显示终端时,首选工程用显示终端,其次为民用显示设备(如等离子电视,液晶电视等)。选择显示终端时须注意接口是否满足与视讯会议终端、矩阵或者模式(协议)转换设备接口的对接需要。控制室监视可采用以下方式。

(1)VGA监视器

如果采用带有VGA接口的监视器或者VGA显示器,一般只能监视1280×720@60Hz的视频信号。

(2)高清监视器

具有HDMI接口的高清监视器只有专业厂商在生产,进口如SONY,国产如瑞鸽,价格都比较贵。

(3)液晶电视

采用具备HDMI接口的小尺寸液晶电视可以监视1080/60P的高清图像,而价格比较便宜。

2.2 各种视频信号接口的类型、传输画面质量比较、信号传输特点

2.2.1 常用的高清视频信号接口包括模拟和数字信号。

2.2.1.1 模拟接口

色差分量(YUV或YPbPr)可以传输1080P高清格式视频信号,它的标准是CEA-770.3-D,很多摄像机或录像机都配置了分量输出接口。

RGBHV/VGA。IBM制定了采用RGB模拟信号的VGA视频标准。是IT业使用时间最长的视频传输方式。它支持从640×480(VGA)一直到高达2560×1600(WQXGA)的各种分辨率。

2.2.1.2 数字接口

(1)SDI。串行数字接口(SDI)标准由移动图像和电视工程师协会 (SMPTE)制定。有两种SDI标准:标准清晰度SD-SDI(SMPTE 259M定义的标清)和高清晰度HD-SDI(SMPTE 292M定义的高清-最高支持1080/30P或1080/60I)。

(2) DVI。数字视频接口(DVI-Digital Visual Interface)标准,由数字显示工作组(DDWG)开发。 DVI1.0规范即可支持2048×1536@75的分辨率,如图1所示。

(3) HDMI。2002年4月,HDMI工作组由Hitachi, Matsushita Electric (Panasonic), Philips, Silicon Image, Sony, Thomson and Toshiba. 等企业创立,以开发更加灵活的HDMI标准。HDMI可兼容DVI,并同时支持Dolby Digital(杜比数码音效)/DTS(数码环绕音效)数字音频格式。接口尺寸较DVI小,消费类产品常使用。

2.2.2 各种接口传输画面质量比较

各种接口传输的画面质量比较如图2所示。

2.2.3 主流高清视频信号传输特点

2.2.3.1 RGBHV/VGA

视频的色彩信息通过线性化的(三原色)红、绿及蓝(RGB)分量获取。RGBHV/VGA在工程中常用RGBHV(及5芯75-3同轴电缆)线缆进行传输。

不同分辨率的RGBHV信号所需的模拟带宽。在UWXGA分辨率(比1920×1080 @60稍高)的情况下,模拟带宽需求已达到100MHz,在通过RGBHV线缆时衰减很快。

RGBHV-3电缆在100英尺(33m)的衰减就达到6.8 dB,对图像的细节影响已经比较明显,如下所示:

为了获得更好的传输性能可选择BC-5X26(与国内RGBHV-3粗细相当)。BC-5X26五芯迷你高分辨率增强视频电缆的100英尺衰减特性如下:

2.2.3.2 色差分量

通过将RGB信号转换为色差分量可有效降低带宽、成本,并解决延迟及现今的运行功耗等问题。

如图3所示,色差分量采用3根同轴电缆进行传输。

720/60P及1080/60i的亮度信号所具有的带宽限制为30MHz,同时其色彩差异信号的带宽限制为15MHz。

1080/60P的亮度信号具有的带宽限制为60MHz,同时色彩差异信号的带宽限制为30MHz。

以下是迷你同轴高分辨率视频电缆BC-3X(与75-2相当)的外形和100英尺(33米)衰减特性:

从以上可以看出在33米情况下,1080/60i信号的衰减就会达到3dB以上,如果加上矩阵的衰减,以及矩阵到显示设备的衰减,实际衰减可能达到7dB。这会影响到一些画面细节的表现。在大屏幕上比较容易察觉。

如果采用模拟分量传输,需尽量将整个链路的衰减控制在3dB以内。因此应尽量选择更粗的电缆。

2.2.3.3 HD-SDI

SDI和HD-SDI最早是由有线电视设备厂商开发的技术,它将色差信号数字化后采用一根同轴电缆进行传输。

在ITU-R601(SDI)数字电视标准中,采用10比特量化时亮度信号的码率为:

取样频率×量化比特数 = 13.5(MHz)× 10(Bit)=135Mbps

2个色差信号的码率为:

2×6.75(MHz)×10(Bit)= 135 Mbps

总的码率为:

亮度信号码率+色差信号码率=135+135=270Mbps

270Mbit/S是标清数字分量演播室使用的SDI接口标准码率。

在SMPTE 274M(HD-SDI)数字电视标准中,采用10比特量化时亮度信号的码率为:

取样频率×量化比特数 = 74.25(MHz)× 10(Bit)= 742.5Mbps

2个色差信号的码率为:

2×37.125(MHz)×10(Bit)= 742.5Mbps

总的码率为:

亮度信号码率+色差信号码率 = 742.5 + 742.5 = 1485Mbps

从上述计算中可以看到,高清晰度电视的码率是标准清晰度电视的5.5倍。

传输距离的问题:虽然HD-SDI的带宽达到1.5Gbps,但是由于采用数字方式进行传输,信号衰减很大的情况下,接收端仍然可以恢复出原始信号。通常允许的衰减可达20dB,因此采用高质量的同轴电缆可达到100m甚至更长。

经过实际测试采用BC-1X(与佳耐美L-5CFB相当)同轴电缆可以传输70m以上。

2.2.3.4 DVI

DVI它把视频信号分为R、G、B、H、V五种信号用TMDS技术编码,通过3个通道传输,这三个通道传输R、G、B三原色,HV编码在B信号通道里面传输,R、G、的多余位置用来传输音频信号。每个通道的最大带宽为1.65Gbps。

当图像分辨率太高,每个通道的像素带宽超过1.65Gbps的时候,DVI会采用6个通道进行传输,既将一个通道的信号分配到2个通道中传输。图4显示QXGA(2048×1536@60)分辨率要采用双链路模式,即同时使用6个通道。HDTV(1920×1080@60Hz)只需要工作在3个通道。

DVI线缆的长度一般不超过15m。虽然有均衡技术,但是由于DVI带宽很高,因此对距离很敏感。

DVI信号可以通过调制解调技术在双绞线上传输,一般DVI双绞线传输器采用2根超5类屏蔽线可以将1080P DVI视频传输至30米距离。

在长距离传输情况下为了降低干扰最好采用光缆。如4芯多模光缆可以将1080P的 DVI信号传输至500m距离。如果采用双链路模式,需要采用8芯光纤。在工程中可选用成品光纤线缆。

2.3 确定高清显示采用的信号传输类型

根据以上数字视频信号的各种特点及特性,结合视讯会议系统的安装现场的实际情况进行合理的选择和规划。建议数字信号是最理想的传输类型。首先,如果采用DVI、HDMI,对于传输距离小于15米的会议室,比较合适;如果大于15米,则需要根据设计方案中需要的线缆布放的长度选择采用DVI延长器、HDMI双绞线延长器、光纤收发器等辅助设备,同时还需考虑辅助设备对传输长度也有距离限制;如果信号来源较多,还需配置VGA转DVI、DVI矩阵等,在信号传输中,需借助各类信号转换、延长器等设备,才能够完成会议室高清数字信号的传输,但由于信号转换环节复杂,所需焊接接口较多,对于工程安装和维护带来一定的困难,信号稳定性降低,因此要实现数字高清显示,对施工工艺也提出很高的要求;同时,所需的信号源也应为数字输出。其次,采用目前使用比较广泛的模拟信号传输,即分量视频传输,使用RGBHV端口,传输距离可以提高到30米左右,使用高质量、高线径的线路、距离还可提高。

无论采用数字或模拟信号传输,在设计时都应在信号环节、设备选型、实际应用、造价成本上给予充分的分析。

2.4 根据信号源普遍性、多样性和信号源的切换要求配置相对应的矩阵

要实现高清显示还要考虑信号来源种类的普遍性。以VGA信号来源为依据,首先考虑视频会议中使用的VGA接口设备的信号最高分辨率是多少,包含电脑的输出。录播服务系统的输入输出以及其他VGA信号源。会议室视频信号源还有视频会议终端以及高清摄像机,这两个设备的VGA输出为1920×1080,如中兴 T600(T800)系列、SONY-Z330摄像机都能够满足高清信号要求;如果输入信号较多,还应考虑视频信号切换,可以采用的矩阵包括RGBHV矩阵,DVI矩阵或HDMI矩阵。

(1)RGBHV矩阵

采用RGBHV矩阵传输高清信号,如果最高分辨率设计为1920×1080@60Hz则模拟带宽解决100MHz,则矩阵的带宽至少应该是300M以上。

在采用RGBHV矩阵时,在矩阵的接线施工中应该保持R、G、B、H、B各个通道的线缆距离长度相同,如果距离不等,由于带宽较高,可能出现各个信号到达显示设备的时间不同,造成像素模糊。如1条垂直的白线,线的左边偏红,右边偏蓝。

RGBHV矩阵可以用作色差分量YPbPr的切换,Y信号一般接G通道,Pb信号接B通道,Pr信号接R通道。

(2)DVI/HDMI矩阵

DVI数字视频矩阵切换器是为了将计算机数字视频信号进行重新分配和组合的矩阵交换设备,该设备可将DVI数字视频输入信号切换到输出通道的任意通道上去。可广泛用于所有需要进行DVI信号分配和组合的场合,应用领域涉及军工、多媒体教学、电视电话会议、金融、科研、气象等领域。

HDMI数字矩阵是针对全部是 720P/1080P等高清网络数字视频流输出到高清液晶拼接屏等显示终端而制作的产品,用于完成解码、切换、存储、转发、远程控制等功能。单机最大支持24路高清视频解码输出能力继承与发扬多厂家兼容的优势,完成多路高清视频集中1:1输出的超级解码能力。

DVI矩阵具有较大容量可选,如32×32

HDMI矩阵的容量一般比较小,如8×8。

高清矩阵的设备选择,矩阵的选择主要是需要考虑带宽的因素,是否支持全高清分辨率,一般的矩阵生产厂家都有高清矩阵产品,选择上,条件允许的情况下,首选RGBHV分量矩阵,可以有效避免采用15针接头容易脱焊、断路、短路的系统故障;为保证信号的稳定尽量选用大厂家和名牌产品。

2.5 线缆的选择

为实现高清信号的传输,线缆的选用是至关重要的,不能忽视线缆,因为它直接影响到图像显示质量,有些可以直观地通过图像显现出来,如果因为线缆的原因,造成图像质量下降,那后续的工作将会很麻烦,因此,主张选用高品质线缆,例如EXTRON高清线缆,如果因为成本的原因,可以选用国内大厂的产品,但规格相应提高,例如,可以选用SYV5*75-3的线路替代进口SYV5*75-2规格的线缆。

3 结束语

以上各部分的参数及特点对于高清视讯系统的高清视频信号部分设计起着至关重要的作用,图像效果的好坏是参会人员进入会场参会时的第一感官印象,对系统设计的成败具有关键作用,因此,在设计过程中需注意设备选型的重要性,所选设备之间信号的兼容性。当在视频部分的设备、线缆的选型搭配确定之后,可以根据会场的特殊需要进行功能性扩展。比如,多图像拼接、单图像分割、大屏幕图像融合的显示设计,也可以进行对高清视频会议系统中的远程高清视频会场的视频源及信号源部分的远程控制设计。

摘要:主要针对目前高清视讯系统的设计中关于视频信号部分、视频源、视频部分相关设备以及各种搭配使用的线缆进行介绍,通过对各组成部分的特点进行分析,为人们提供一个具有参考价值的针对特定的安装条件进行搭配的意见和建议,共同探讨满足使用者实际需要达到高清显示效果的设计搭配及实现过程。

关键词:高清视频,数字接口,模拟接口,VGA,RGBHV

参考文献

[1]王晖.高清视频会议系统的实现[J].智能建筑与城市信息,2010(2):83-84.

[2]仲元昌,林永,蔡增增,等.视频会议系统关键技术及应用研究[J].电视技术,2010(6):93-96.

[3]罗强强,朱志祥.集中式多点视频会议控制单元MCU的实现[J].西安邮电学院学报,2005(3):60-63.

[4]多媒体视讯技术发展历程[EB/OL].专网通信世界,中国电力通信网.(2011-03-11).

[5]张云勇,朱士钧.中国联通多媒体视讯网现状及未来发展[J].通信世界,2006(41B):1-1.

[6]王建宇.视频会议室的构建要求[J].科技创新导报,2006(2):85.

[7]李超,柴文磊,刘劲松.高清视频会议系统技术浅析[J].信息安全与技术,2010(8):50-51.

视讯视频 篇2

南京杰迈视讯科技有限公司是2010年创立于南京高新技术产业园的国家重点高新技术企业。公司致力于为城市智能交通、数字医疗、智能建筑行业用户提供高清智能化技术、产品和应用服务,立志发展成为中国第一、国际领先的城市智能化整体解决方案提供商。

美国杰迈视讯研发中心(GM Innovation Technology Inc),已完成了产品技术积累与产业化生产,公司高清智能视频系列产品畅销欧美市场。目前公司在高清人工智能音视频处理、高清视频医疗诊断、视频模式识别、音视频物联网等技术研究处于国际领先地位,取得了多项相关国际、国内发明专利。针对国内市场研发的《智能高清网络视频监控信息系统》、《城市高清智能交通管理平台》,已推向市场,受到了用户的一致好评。

核心智能产品

智能高清网络视频监控信息系统

该系统颠覆了传统的集中式离线视频分析管理模式为分散式实时处理系统模式,将繁重的后台处理任务分散到各个智能摄像机前端(智能前置),减低了对转发服务器、存储服务器等终端设备的高性能依赖,大大提高了整体监控系统的实时性、稳定性、灵活性和扩展性,使大规模集成高清网络监控成为可能。

城市高清智能交通管理平台

视讯“枯木逢春” 篇3

“小业务”焕发新彩

技术的成熟、应用的广泛,使原本被业界视为“难以长大”的视频会议,转眼间变得炙手可热。

孙定: 视频会议是一种很古老的业务,无论是基于硬件、软件,还是基于互联网,视频会议在IT圈子里一直被视为“小”业务。最近我们发现视频会议开始热起来了,这是为什么呢?有哪些因素促使大家去关注这个业务呢?

张鹏国: 影响视讯会议发展的因素主要有几个方面:视频的编解码技术、网络应用环境,此外还有视频应用相关的配套技术,如存储技术、流媒体技术等。

首先是视频编解码技术的发展。如今,无论是视频编解码算法本身,还是包括图像的处理等协议的细节都已经非常成熟了,而且相关的软硬件技术也非常成熟。随之而来的是,视频会议正由4CIF向1080P/720P高清发展。实际上,H3C今年推出的MG9000系列终端和ME8000都是基于高清技术实现的,可支持720P甚至1080P的高清。

其次,带宽变得越来越廉价,这使得视频大规模、长距离传送的瓶颈逐渐消失。

第三,其他与视频应用相关的技术,尤其是存储技术的发展,也在一定程度上推动了视频应用的发展。大规模的图像存储一直是非常大的难题,牵扯到海量存储空间管理、内容检索、此外还有视频压缩的算法等。今年以来,IP SAN等大规模存储技术发展很快,每TB的存储价格下降较快,使得视频不仅仅局限于实时应用,还可以较低的成本实现大规模视频的存储、点播、查询检索等应用,这也为视频应用模式的丰富创造了有利条件,客观上促进了视频应用的发展。

第四,个人化的互联网中的视讯应用也在逐渐升温。这更是大规模应用视频的好机会。

孙定: 这种技术的成熟,给视频会议的应用带来怎样的变化,视讯的升温源于需求端怎样的变化?

张鹏国: 除了大家经常提到的高清之外,从应用角度看,视频会议还有一个很重要的发展趋势,就是走向融合:由单纯的会议模式走向多种视频应用的融合。

首先,传统的视频会议与监控系统有融合的趋势。监控业务是以单向视频为主的,但同时具备视频的存储、点播等功能;视频会议是双向的、实时的业务,但是缺乏存储、点播等功能。如今越来越多的用户需要在以前单向监控业务的基础上实现双向实时交互的业务。

比如,在应急指挥应用中,开视频会议的市领导需要在会议中随时调阅任何一个监控点的实时图像进行会商,以提高指挥决策的效率及准确性;而且要求可以通过电视墙,也可以用桌面的电脑终端,调用全市任何一个监控点的图像,如一个交通路口、餐馆、酒店等。这次汶川地震就有一个鲜明的例子。我们看到在应用中应急指挥不仅需要图像接入端的融合,而且需要控制端的融合。

去年我们实现了监控系统和视讯系统的融合,使得监控图像可以动态实时地引入到视讯会议中,而不需要经过模拟转接,这个特性已经在H3C参与的多个地方的应急指挥建设中应用。

另外,我认为未来5~10年内,信息发布业务一定会成为很重要的视频应用。信息发布会慢慢地向很多领域去渗透,包括视频会议与信息发布相结合、视频监控与信息发布相结合等。目前H3C在一些项目中,已经遇到有些客户提出类似的需求。

孙定: 我们一直关注视频会议行业的进展。近期,惠普、思科等各大网络通信公司都相继发布了视频会议解决方案,传统的视频会议系统也在升温。您认为单纯视频会议系统,前景如何?

张鹏国: 任何一种产品在面临变革的时候,不同的厂商会选择不同的变化。其实,视频会议最根本的问题是由于应用模式受限、市场空间有限,所以市场表现一直很平淡。无论是惠普、思科,还是我们,都在寻找好的解决问题的办法,或是改变视频会议的形态,或是衍生新的模式。

比如,思科等提出的网真系统是对传统视频会议模式转变的一次不错的探索,走的是把特定的视频应用做精做深的道路。

此外,可能还有厂商会重新定位客户群,将视频会议向个人化应用发展,原来面向会议室的专业用户,以后可能会面对会议室之外的个人用户。

从“点心”到“主食”

与监控、互联网、信息发布等业务的融合,使视频会议焕发了新的生机。未来,融合视讯有着广阔的应用空间。

孙定: 通过您的介绍,是不是可以这么理解,H3C视讯的业务重心已经不仅仅在传统视频会议上,而是在与监控业务、信息发布业务、互联网业务的结合上?

张鹏国: 视讯会议仍然是H3C的重点,但除了满足传统的视频会议外,同时我们也会关注多种视频应用的整合。应该说在中国市场,传统的视频会议每年的增长是相对缓慢的。但是,其他视频应用却处在快速发展中,如视频监控等。

当一种产品或一项技术,一直没有获得大规模爆发应用时,就必然需要产生演变,生成新的业务变种或者新的产品形态。

传统的视频会议就是这样,一直没有等到大放异彩的那一天。在整个IT建设中,视频会议一直被视为“点心”,而不是“主食”。原因在于视频会议不是基础设施,会议室的数量是有限的,视讯会议的应用场景和应用方式都比较受限,很难成为IT中的基础应用,因此持续建设量有限,后续扩容量不多。

以一个政府行业为例,比如某省有18个地市、220个县,即使每个地市、县都配置一套视频会议,全省信息中心再做一套MCU双机备份,总共239套终端,这就够了,一般不会再有扩容的机会了。什么时候会再建设呢?这就得等设备老化了,完全不能用了,或是技术产生更新换代的时候。

但是另一方面,其他视频应用,如视频监控、视频信息发布等,却处在蓬勃发展中,同时这些视频应用都存在相互渗透、相互融合的趋势,所以我们认为,将视频会议与监控、信息发布、互联网业务结合,能拓展更广阔的应用空间。

孙定: 在您看来,融合视讯有着很好的前景。那么您认为融合视讯业务会在哪些领域受到青睐?

张鹏国: 目前来看,视讯融合的趋势还是以政府和公共服务为主。这主要包括视讯与监控的结合应用,以及面向公众的信息发布平台的视讯应用。应用领域包括政府机关、医疗行业、教育行业,以及金融行业等。

其次,就是互联网上的播客、晒客等个人的视讯应用。因为个人用户市场才是真正的大规模应用的市场,当视讯面对每一个用户时才会有前途。在这些领域,传统的视讯技术将与流媒体、IM等互联网技术和应用相结合。

孙定: 目前看,视讯融合在各个领域都衍生出怎样的应用?能否举例说明?

张鹏国: 监控和视频会议的结合,目前在应急指挥领域已经有了很好的应用。除了前面提到的视频会议和视频监控在实时通信上的融合外,应急指挥中的视频应用还要求将实时的视频通信与非实时的视频存储、检索、点播等应用相融合。应急指挥常遇到的问题是,不仅要知道现在,还要知道历史;如在进行应急指挥时,不仅仅要知道事件的现状,还需要知道事件发生前的状态,了解事件发生的起因及过程,视频会议与监控结合就是要解决这个问题。

类似的需求在医疗行业中也存在,如我们的视频会议系统和视频监控系统经常在同一医院中被采用,将视频会议系统应用于远程视教,将监控系统应用于手术过程视频采集及录像,既用可作为医疗事故的调查取证资料,也可做成医学教学课件。远程视教和手术录像结合,使得异地远程的学员可以在听讲解的同时,既可以看到手术现场的图像,如病人的创伤面,也可以调看以往的手术录像。

还有信息发布业务,用的比较多的是金融行业。目前中国的各家大型银行几乎都在做信息发布平台。

统一标准期待“蝶变”

走视讯融合之路,需要打破固有思路,甚至需要重构市场格局,这不亚于一场变革。但视频应用需求标准的不统一,使得“蝶变”速度并不快。

孙定: 目前多媒体业务在H3C总营业额的比例是多少?在H3C的多媒体产品线里,新的融合业务占到多少比例?

张鹏国: 视频和监控产品的销售额今年占到公司总额的1/8,目前H3C业务最大部分还是以交换机和路由器为主的网络产品线。但是包括视频和监控在内的整个多媒体产品线,这两年来每年都实现了约150%的增长,相信未来能占据更大的公司营业份额。

整个H3C多媒体产品线包括两部分:监控和视频会议,其中单纯的监控业务份额超过50%,剩下以视频会议为主,其中大概有1/5是与视频监控融合应用相关的业务。值得注意的是,视频监控相融合的虽然属于新的应用模式,市场需求却增长得很快,所占据的业务比例也在不断增长。

孙定: 这是否意味着,监控和视频会议融合会成为未来几年中的应用热点?

张鹏国: 这是一定的。单纯的视频会议应用有很大的缺点,无论在技术还是在应用层面,单纯的视频会议应用只是解决一个多方的、双向的、实时通信的问题,但是在多媒体应用领域,有很多实际应用需要实现非实时的、点播图像处理等功能。因此,只有与监控等应用充分融合,视频会议系统才能更好地满足用户的实际应用需求,这也是监控与视频会议应用加速融合的原因。

孙定: 这是个宏大的愿景,但这面临很大的挑战。最大的困难在什么地方?

张鹏国: 从技术储备角度看,H3C已经具备一定的基础。H3C不论是在多媒体,还是在网络、存储、通信管理软件等领域,都有比较长期的产品和技术积累。在多媒体方面,H3C多媒体产品线包含视音频处理平台、多媒体通信软件平台、专业多媒体实验室3大技术平台,经过几年的耕耘,这几方面都有了相当的积累。

最大的困难不是来源于技术本身,而是来源于视频应用需求的不确定性,也就是标准的不统一。很多视频应用要么缺乏标准,要么地方性或行业性标准林立,但是缺乏一个权威性的标准,难以形成规模化的市场。标准不统一现象在视频会议市场稍好,在视频监控市场则比较严重,市场需要重构。我们希望这个市场“蝶变”的速度快一点。

事实上,从目前的形势和构建和谐社会的需求看,包括灾难救援、军队、卫生部,以及人力资源和社会保障部等政府各部门都在加强融合平台的应急指挥系统的建设,并力求快速采购、快速部署。如果有关机构从整体布局出发对行业标准进行规划,这种行业的标准无序状态一定会改善。

此外,我认为目前这个行业缺乏一个有效的牵头组织,例如在互联网行业的互联网协会这样的机构。视频应用行业应该有个领军组织,来引导市场规范化、有序化。

CEO感悟

百花齐放需要百家争鸣

视频会议与监控应用的融合是势不可挡的一种应用趋势,张鹏国对此十分肯定。他认为,随着视频应用需求逐渐融入到社会的各个角落,视讯与监控的充分融合统一只是时间问题。而在这两个应用领域均有着成熟技术与应用经验的H3C,无疑在这一轮应用大潮中抢得了“先机”。

同时,张鹏国认为,要使视讯市场走向标准化的正轨,首先要解决的就是技术的标准化。这需要各项核心技术长期的投入,包括视频会议的编解码技术、嵌入系统的技术、芯片的技术,还有周边相配套的网络技术和存储技术,以及网络安全技术。

在做好自身技术投入的同时,张鹏国深深地认识到,重建视讯市场的秩序更需要加强合作。“我们不光是项目中的合作,还要在技术和解决方案领域展开合作。因为视频会议与监控的业务模式会有多种演变。百花齐放,需要百家争鸣。”

张鹏国认为,任何一个企业单靠自己,在视讯这个市场都是做不大的。H3C的选择是,通过合作把市场做大、做规范。“我们会加强合作,推动产业链上下游的打通。”(文/李敬)

采访手记

以包容应对无序竞争

在与H3C 多媒体产品线各部门的接触中,让记者感触最深的就是渗透进其公司企业文化的“包容”精神。

这种“包容性”贯穿于H3C 多媒体产品的业务中。在标准林立、模拟与网络对峙的视频监控领域,H3C高调“融合”,推动着开放标准平台的建立;并且建设性地率先倡导视讯与监控、信息发布、互联网的融合。H3C以“包容”应对无序的竞争,“融合”推动着市场的规范与标准化进程。实际上,依托开放标准的平台,与产业链中各环节携手,推动产业发展已经成为整个H3C发展的“主旋律”,多媒体产品线的开放融合就是其中一个缩影。

对外,H3C的“包容性”体现在合作与开放上;而对内,H3C则展开了多媒体产品线的“井”布局,将监控、视讯、存储、安全等纵向部门,根据各种解决方案横向整合成战略部队,靠监控、视讯等多媒体解决方案销售拉动网络、存储、安全等业务的增长。

视讯视频 篇4

应急通信的业务需求变化

数码视讯是一家多媒体厂商, 以前关注应急通信中的卫星通信。如今, 公网4G、政府专网甚至依托于短波通信的无人机等通信手段与交互手法越来越丰富, 并且提供的相应链路带宽也越来越宽, 这些通信技术的发展使得业务使用模式也产生了新的变化, 裴文哲先生具体介绍了以下三个方面:

一是由集中型向服务型转化。以前把所有的基于应急通信的信息统一汇总到指挥中心, 现在由于通信手段的发展, 更多的情况下还要把信息共享到前端, 是一个双向化的过程。指挥中心的人不仅仅需要知道应急通信的信息, 前方一线的人员更希望知道后方人员知道的信息以及其他友邻单位的信息。

二是从规模化向精细化转化。以前强调对一个区域的覆盖, 例如, 以前在灾害应急指挥的过程中, 应急通信发挥了极其重要的作用, 强调一辆车或一架飞机能覆盖到的区域, 能知道灾害现场发生了什么就可以了;而今, 这个要求会更高, 在灾害或突发事件现场, 后方指挥人员不仅仅需要知道现场一个面上的情况, 比如派过去一架无人机, 就希望能了解到是否有人遇难、某个桥梁出现了什么问题。一个一线人员通过背负式设备进入现场, 这就需要设备从规模化向精细化、小型化转化, 而单兵设备小型化更加关注电池续航能力、服务能力。

三是由单一型向交互型转化。在我国应急通信领域, 以前分部门、分时间段、分体系建设, 单个部门建设自己部门的系统, 不同时期使用的技术标准更新, 造成标准难以兼容;不同体系有自己的视频会议、视频监控或卫星链路, 这些手段在某些情况下可以通过一个终端来实现, 也就是说, 不用通过不同体系来完成一个功能。交互型就是能够把不同部门、不同时间段、不同体系已经附带的信息 (如多媒体信息) , 在应用的时候都拿过来, 这就是行业里以前和现在一直都在提的互联互通。伴随着技术的发展, 通信手段的不断革新进步, 出现上述三点变化。

用户急需解决视频业务的问题

视频业务也称多媒体信息, 裴文哲先生表示, 用户在使用过程中急需解决的问题有两个:

第一个问题是小型化。无论哪个行业, 都需要派去现场的单兵能够把现场多媒体信息在第一时间传回指挥中心, 或者能够在第一时间与后端进行交互, 这是十分迫切的需求。但是如今不仅是多媒体信息的处理设备 (如我们编解码的板卡) , 也包括通信设备, 设备电池的续航能力、重量, 这些也是数码视讯等多媒体厂家要考虑的。在设备小型化方面, 数码视讯一开始从MPEG-2, H.264, H.265, 尺寸也由当初的大板卡逐渐向小型化转变, 低功耗、高质量、小型化也是我们一直追求的方向。

第二个问题是交互 (互联互通) 。这个问题最大还不是来自于技术体制, 而是能否有个机会把所有的厂家设备实现互通, 例如通过一个网关来实现相应的交互。这也是数码视讯这几年投入的重点之一, 我们研发出来的视频网关或者说多媒体网关, 基本上可以涵盖主流的视频会议厂商、视频监控厂商、视频指挥厂商, 这是我们两三年逐渐积累的结果。通过这个网关能够实现不同体系、不同部门已有的多媒体信息之间互通。不同厂家设备来做互通或联调, 需要各个厂商的意愿, 技术实力以及场景和机会。互联互通是一个长期的工作, 并不是把各个厂家的设备简单调整就可以实现互通, 因为每个厂家设备在依托相同标准的同时, 也一定有各自的技术, 互通的过程就是把设备原有的属性改动, 因此, 各个厂商需要权衡的。在这个基础之上, 还需要有一个机会, 能够把不同的厂商集中到一起, 让大家有机会和动力进行联调。数码视讯正是在行业中有这个机会, 在不同的项目中, 逐渐把不同主流厂家的设备实现联调互通。

视频行业未来发展

基于数码视讯对多媒体通信的理解, 预计视频行业未来发展体现在三大方面:

第一方面是视频压缩。这不仅仅是从MPEG-2到H.264, H.265, 还包括两个含义, 一是对国有标准的支持。国有的器件与产品背后最核心的应该有一个自主的标准, 既广电领域的AVS, AVS+等国家标准, 也包括公安等行业标准。第二方面是对大数据包括视频数据的支持。这种视频压缩不仅仅针对多媒体通信, 而是针对将来大数据中, 存储的不同类别的数据。大数据中的多媒体信息或视频信息, 基于压缩技术的海量数据的利用效率, 比如节省30%~4 0%的存储空间;基于自己的视频压缩包括压缩格式, 在将来, 从这些海量的视频数据当中调用时, 是否能够提供更多的便利性, 视频检索、视频模糊搜索等, 用什么方式进行视频压缩与存储, 都是有应用场景的。

第二方面是多媒体通信平台。从应用角度来讲, 视频会议、视频监控、视频指挥的概念越来越模糊, 无非就是终端与终端之间进行多媒体交互。数码视讯多媒体通信平台, 可以帮助用户实现多媒体信息的交互, 也可以通过这个平台帮助用户建设点播视频节目网站, 还可以通过这个平台实现简单的视频指挥平台。其架构我们是从多媒体通信的角度提出来的, 但从使用者的角度来看, 可以涵盖以前划分的那几种。

第三方面是视频智能分析。视频采集、视频平台建立之后, 如何使用这些数据, 已经逐渐为用户关注, 这就需要进行视频智能分析。最早应用交通、安全区域检测等, 比较成熟的机动车的车牌识别。随着视频采集、压缩、视频通信或者多媒体通信网络覆盖的越来越广泛, 采集的视频图像越来越清晰, 传输高质量视频的带宽链路成本的降低, 在后端进行视频智能分析的条件就成熟了。基于它做研判的应用逐渐成为多媒体通信平台比较看重的功能。数码视讯在视频智能分析领域已经进行了几年的技术储备, 通过与国内高校合作, 走产、学、研的发展道路。现在, 基于视频智能分析也是围绕数码视讯多媒体视频通信平台, 重点对区域、物体、车辆、目标 (如飞机) 的识别告警等应用, 能对多媒体视频通信平台建立的视频素材有一个简单的智能分析与研判。

视讯视频 篇5

实现宽带双向、全媒体、全业务运营是建设下一代广播电视网络 (NGB) , 实现广播电视网“三网融合”业务承载的目标。随着网络接入带宽的迅速提升, 点对点的高质量双向视频传输已经成为可能, 为“三网融合”中的基础业务语音电话向视频电话的升级创造了条件。在文献[1]中, 作者已经对基于SIP协议的Vo IP业务的网络承载指标进行了分析, 本文将着重就视频电话业务在IP网络中的承载指标进行探讨。

文章共分四个部分, 其中:第1部分就基于SIP/RTP协议的视频电话承载技术和流量特点进行介绍;第2部分就国际上关于多媒体视频测试的标准和指标进行综述;第3部分介绍视频电话业务的仿真实验, 并对实验结果进行分析讨论并给出相应的网络指标建议;最后对全文进行分析总结。

1视频电话技术简介

视频电话指使用利用IP协议以分组报文来承载视频和同步语音的技术, 是对Vo IP技术的扩展。

1.1业务信令

视频电话信令的交互流程与Vo IP类似, 具体流程可参考文献[1]。不同之处在于, 通信双方在约定语音编码格式及UDP端口号的基础上, 还需要增加关于视频编码格式信息的协商。在SIP协议中, INVITE报文的SDP信息会在音频媒体信息之后紧跟关于视频媒体信息的描述, 包括视频流的属性以及通信使用的UDP协议端口号。图1给出了SIP INVITE报文中体中的SDP信息, 可以看到紧随语音信息描述之后的是关于视频编码的信息, 举例中为H.264编码格式。

当通信双方协商完音视频格式和通信端口后, 视频和音频媒体流将使用分别使用不同的UDP端口进行传输和交互。

1.2 RTP协议[2]

1.音视频载荷的封装

RTP协议报文头部的句法如图2所示, 其中, 前12个字节在每一个RTP报文中都存在;CSRC字段当多方通话场景中对Mixer (混流器) 进行标识。重要的字段包括:

1) 载荷类型 (Payload Type) , 用于标记RTP packet所携带媒体类型, 以便调用适当的编解码器解码或者播放, 当接收方无法识别类型号时会对RTP报文进行忽略。媒体类型号在RFC 3551[3]中给出, 比如:ITU-T G.711μPCM编码类型号为0, AAC-LC音频编码的类型号为113, ITU-T H.263视频编码为34, ITU-T H.264视频编码为96。

2) 序列号 (Sequence Number) , 每个媒体流的序列号初始值均为随机生成, 后续的RTP报文对序列号加1, 接收方可以根据该序列号重新排列数据包顺序。

3) 时间戳 (Timestamp) , 反映RTP packet所携带信息包中第一个有效字节所对应的采样时间。

4) 标识数据源 (SSRC) , 用于标记数据流的来源, 以便区分不同的媒体流。

紧随报文头部的是多媒体信息载荷, 不同编码格式的报文映射和承载方法有专门的RFC进行说明, 比如:RFC 5391[4]是关于ITU-T G.711.1语音编码的映射方法, RFC 2190[5]是关于ITU-T H.263视频编码的映射方法, RFC 3984[6]对应ITU-T H.264视频编码。通常不同的音视频编码载荷还需要附加的头部信息, 以便媒体内容在有限长度的IP报文中进行承载。

由于音视频编码器的输出直接被封装为RTP报文, RTP报文会因媒体载荷自身的数据结构和IP报文最大传输单元 (MTU, 通常按照以太网线路传输取1500字节) 的限制导致报文长度的参差不齐。以H.264为例, 在传输时会出现多个RTP报文承载一个NALU, 也会出现一个RTP报文中承载多个NALU的情况。这与采用TS over UDP或TS over RTP方式传输多媒体流的应用有很大不同。后者的报文长度通常为固定值1356字节 (包含IP、UDP、RTP报文头部以及7个TS包) , 采用以太网传输时数据帧长度为1370字节。图3和图4是分别对H.264 over RTP以及TS over RTP方式传输的视频媒体流进行长度统计的结果。比较可以发现, H.264的视频业务流中由近4/5是1280以上长度的报文 (分析发现多为FU-A类型的报文) , 其余各个长度区间也有不等的分布;而TS over RTP传输方式时, 报文长度都是相同的为1370字节, 因此全部分布在1280~2559区间。对音频的承载也存在类似的问题。当音频编码为ITU-T G.711μ时, 报文长度为固定值;而采用MPEG4 AAC-LC编码时, 报文长度是变化的。报文长度的动态变化会导致信源发出的多媒体流的间隔不均匀, 使信源输出的报文即带有一定的“时延变化”。

2.音视频的同步

RTP报文中的Sequence Number标记了音视频数据采样帧的先后顺序, Timestamp的步长则反映了采样的间隔。由于RTP协议的保密机制, 不同数据流Timestamp初始值随机生成。Timestamp没有单位, 仅反映音视频采样数目的累加变化, 其间隔与成帧周期和采样间隔有关, 例如:G.711的采样率为8000Hz, 成帧周期为20ms, 每个Timestamp的间隔为8000×0.02=160;H.263的采样率为90000Hz, 25fps, 每个Timestamp的间隔为90000×1/25=3600;H.264的采样率为90000Hz, 30fps, 每个Timestamp的间隔为90000×1/30=3000。因此, 音视频格式码流采样率、帧率的不同了导致其Timestamp间隔的不同, 随之产生了音视频码流在播放时的时间轴对齐的问题, 也就是“音画”同步问题或“唇音”同步问题。

最为直接的解决方法是将音频流的起始帧和视频流的初始数据帧进行对齐, 这需要保证音频流起始帧的Timestamp所对应的绝对时间 (一般采用NTP时间, 单位为秒) 与视频流起始帧的Timestamp所对应的绝对时间保持一致。由于音视频独立进行编码, 其两种编码器的采样间隔不同, 其采样输出时间也就很难对齐, 仅靠RTP协议自身难以解决这个问题。

这种情况下, 需要借助RTCP协议Sender Report报文中所提供的Timestamp与NTP时间的对应关系, 实现音视频回放时在时间上同步。假设关于音频和视频的RTCP Sender Report报文中提供的音视频流Timestamp值和NTP值对应关系为: (T_sr_a, N_sr_a) 、 (T_sr_v, N_sr_v) , 音视频编码的采样时钟间隔为clock_a和clock_v。那么在N_sr_v时刻, 对应的音频Timestamp T_a值 (注意一般与T_sr_a不同) 应为:

在播放时应将Timestamp等于T_a的音频报文和Timestamp为N_sr_v的视频报文进行对齐播放。对于后续的报文, 都应以这两报文为基准。通常音频的Timestamp相比视频的间隔更为精细, 因此可以选择以音频时间作为基准, 后续音视频播放的对齐应满足:

借助以上机制, 只要接收端的音视频解码器的缓冲长度足够, 并且不发生报文丢失和差错, 报文到达的时延和时序变化对音视频同步的播放不会造成影响。

2视频业务质量的评价

根据前文的介绍, 音频视频媒体流是分离传送的, 仅在接收端回放的时候进行时间上的对齐, 因此可以独立进行业务质量的评价, 文献[1]中已经就Vo IP业务的语音质量评估进行了介绍, 在此主要分析视频质量及音视频综合质量的评估参数和评估方法。

衡量多媒体图像质量的最普遍和最广泛使用的参数是PSNR (峰值信噪比) 。但是由于人的视觉对于图像中的误差敏感度并不是绝对的, 感知结果会受多种因素的影响, 比如:人眼可能对某个区域的感知结果会受到其周围邻近区域的影响, 因此, PSNR值无法与人眼看到的视觉品质达到完全一致, 甚至PSNR较高者图像相在人眼看起来比还会比PSNR较低者差。因此, 对于视频质量的评估还是以人的主观评价为主。近年来, ITU-T和IETF均发布了相应的标准和建议。但两个组织所发布的建议的侧重点有所不同, ITU-T的标准更多的关注于对视频本身的质量评测, 而IETF则关注IP传输网络可能对视频传输带来的影响。

2.1 ITU-T建议

ITU-T P.910[7]建议给出了视频的等级分类以及相关属性, 以及适用于TV3、MM4、MM5的非交互 (Non-interactive) 主观视频质量评价方法。在视频等级分类中, 对应四个电视级别TV0、TV1、TV2、TV3, 和三个多媒体级别MM4、MM5和MM6。其中的TV0至TV2级别分别对应演播室 (无损) 、后期制作和节目播出三个前端环节;TV3适用于终端用户接收和中高质量等级视频会议级别;MM4适用于中等质量的视频会议, 帧率通常大于30fps;MM5对应低等级视频会议并允许编码器进行丢帧处理;MM6对应视频监控级别, 通常为连续的静止图像帧。视频属性如表1所示。应当指出的是, 网络传输指标中的传输时延指标参考了ITU-T G.114早期版本;时延变化指标则以不产生时间扭曲 (Time-Warping) 效应为原则, 50ms的限制应为参考ITU-T Y.1541建议的结果。该建议出还给出了三种测试方法:绝对等级评分 (Absolute Category Rating-ACR) 、劣化等级评分 (Degradation Category Rating-DCR) 和对比方法 (Pair Comparison-PC) 。其中, ACR测试无需参考视频, 适用于对原始视频的绝对质量评估, 分为Excellent、Good、Fair、Poor和Bad五个评分等级;DCR评分过程需为对原始视频和“降质”后的视频进行比对, 分为:Imperceptible、Perceptible but not annoying、Slightly Annoying、Annoying和Very Annoying五个评分等级, 该方法适用于视频传输中的失真度评估测试;PC则是对一段序列经过不同系统后输出的结果进行比对评分。ITU-T P.911参考了ITU-T P.910标准, 基本框架与P.910相同是关于音视频 (Audiovisual) 主观评价方法。

ITU-T J.247[8]建议中给出了基于全参考模型的视频客观感知 (Objective Perceptual) 评价方法, 该建议中给出了四个评估模型, 分别由日本NTT、德国OPTICOM、英国Psytechnics和韩国延世大学提出, 该建议所评估的视频分辨率适用于VGA、CIF和QCIF三种格式。

ITU-T J.148[9]建议给出了关于多媒体质量的客观感知评价模型, 模型框图如图5所示, 其基本思想是通过视频质量评估函数 (Video Quality Estimation Function) 获得视频质量 (Vq) , 语音质量评估函数 (Audio Quality Estimation Function) 获得语音质量Sq, 再利用多媒体质量集成函数 (Multimedia Quality Estimation Function) 结合时语音时延和视频时延参数, 对Vq、Sq进行线性加权, 获得最终的多媒体评估质量MMq, 以及音频影响下的视频质量Vq (Sq) 和视频影响下的音频质量Sq (Vq) 。ITU G.1070[10]建议按照J.148的模型给出了多媒体视讯业务具体评价方法, 其中的语音质量评估使用的是ITU-T G.107的E-Model, 语音质量的评估获得参数为R-Factor;视频质量的评估则综合考虑了编码算法、丢包率以及编码算法对丢包的容忍程度。但是, 该模型仅将图像的分辨率限定为QVGA (320×240像素) 和VGA (640×480像素) , 并将屏幕尺寸限定为2.1英寸至9.2英寸。

ITU-T Y.1541[11]建议给出了互动类业务 (包括:视频及语音电话类业务) 的IP网络承载指标建议, 为传输时延小于100ms, 时延变化小于50ms, 报文丢失率和差错率分别小于10-3和10-4。但该标准并未在视频和音频的编码方式和传输速率与网络承载性能之间建立对应关系。

2.2 IETF相关建议

由Ineo Quest和Cisco共同起草的IETF RFC 4445[12,13]提出了媒体传送指数 (Media Delivery Index-MDI) 的概念, 用于监控网络状态, 评估网络承载流媒体视频 (尤其是MPEG) 的能力。MDI包含延时因子 (Delay Factor-DF) 和媒体丢失率 (Media Loss Rate-MLR) 两个参数。DF将网络传输时延和时延变化换算为流媒体解码所需的缓冲需求;MLR为每秒的媒体封包 (TS包) 丢失数, 换算到IP报文应除7后取整。对于3.75Mbps的标清视频, Ineo Quest建议, DF值为100ms;MLR小于8 (合每秒丢包数少于2个IP报文) , 同时, 十五分钟丢包数少于128个封包 (合每秒少于18个IP报文) , 24小时丢包少于1024个封包 (合少于146个IP报文) 。目前提供IPTV和VOD测试的仪表均能够统计MDI值, 并通过MDI估计多媒体业务的主观评分 (MOV和MOS-A) 。MDI仅适用于使用TS over IP封装后的网络视频传输性能评估, 不适合与直接在IP报文承载的多媒体性能质量评估。

综合来看, ITU-T的建议已经形成了关于多媒体视频和音视频综合评价的主观评价方法论以及客观评价方法的基本方法论, 以及常用典型分辨率的客观评价的基本方法。但是, 相比语音质量评估建议相比, 其所覆盖的分辨率、码率、编码算法的应用场景依然有待完善。IETF仅对承载MPEG TS流的情况进行了建议, 适用于IPTV业务承载的场景。对于NGB中视频电话业务的网络承载要求, 需要根据上述建议中提供的评估方法、网络承载指标依据, 对具体的业务场景进行进一步研究。

3视频业务质量仿真实验

为研究视频电话业务的网络承载要求, 考察IP网络参数指标对视频电话业务的影响, 我们依托“NGB技术应用实验室”搭建了业务仿真平台开展了对多项关于网络性能指标和视频电话业务质量相关性的研究实验。网络性能衡量指标与文献[1]中相同, 分为传输时延、时延变化、报文丢失和报文差错四个指标。

3.1仿真环境和条件

视频电话业务的评估实验拓扑如图6所示。测试中使用两台电脑, 一台作主控和另一台作协同。主控电脑上安装视频业务模拟软件和视频质量分析软件, 用于模拟主叫方的SIP Agent执行呼叫, 并可以对收发到的视频进行缓存, 进行媒体流质量分析;协同安装视频业务模拟软件, 模拟被叫SIP Agent, 应答主叫的呼叫, 并将接收到的多媒体流发送回主叫。测试中每次呼叫持续3分钟。数据网络损伤仪则用于仿真通话双方之间的IP承载网, 可对经过仪表的每个数据报文产生时延、时延变化, 并制造报文丢失, 插入错误字节信息。

根据ITU-T P.910标准中对视频的等级划分, 我们分别选取了TV3和MM4级别的多媒体流进行评估, 两个级别的音视频流样本参数如表2所示。其中TV3级别适用于高分辨率移动或固定终端 (如:电视、平板电脑、中高性能智能手机) 的应用场景, MM4级别适用于较低分辨率便携终端 (低性能手机及其它终端) 的应用场景。

评估音视频质量的评估方法分为无参考模型 (NR, No Reference) 和全参考模型 (FR, Full Reference) 。无参考模型通过检测网络的状态 (时延、丢包) 获取MDI值, 结合视频流的分辨率、码率等参数, 通过一定的数学模型换算为相应的MOS值。全参考模型对应ITU-T 910/911标准中的DCR方法, 仪表需对信源发送的和信宿接收的到视频进行缓存, 在测试视频传输结束后, 通过对二者进行比对可计算PSNR值并与根据一定的数学模型对MOS-V值进行换算。基于DCR指示评价相对于原始图像的视频质量损伤, 不能感知视频源本身的清晰程度。这不同于语音质量的全参考评估, 语音编码的算法会影响R-Factor、PESQ、MOS评分。在评估测试中, 我们分别采用了无参考模型和全参考模型, 最终结果以全参考模型的下获得的结果为准。

3.2实验结果

1.传输时延和时延变化

在仿真实验中, 主控设备和协同设备通过网络损伤仪进行连接, 当网络损伤仪时延设置为0时, 两台设备为背靠背连接, 时延可近似为0。实验中过程中分别加入100ms、200ms、300ms、400ms的固定时延, 对收发双发的视频图像进行实时比对。我们发现当视频时延超过200ms时会感觉明显的到延迟的差异。

时延变化测试中, 设置固定传输时延为200ms, 分别将报文间隔的双向 (正向和负向) 变化范围由50ms增加至150ms, 音视频质量均显示为最优值, 未发生变化。测试中, 我们还对高清格式音频传输流中的报文发送间隔进行了统计, 发现视频流的最大报文间发送间隔为31.98ms, 最小发送间隔为0.047ms, 平均间隔为7.13ms;音频流的最大报文发送间隔为79.62ms, 最小发送间隔为2.2ms, 平均间隔为32ms。

2.报文丢失和差错实验

测试过程中通过使用数据网络损伤仪产生丢包和错包损伤。丢包测试中, 分别统计了丢包率为0.005%、0.01%、0.05%、0.1%、0.5%、1%时的视频质量;错包测试中按照0.005%、0.01%、0.05%、0.1%、0.5%、1%的概率选取报文, 对所选报文的第80至280字节按照1%的概率产生比特错误, 并统计视频质量。图7和图8分别给出了两个被测码流样本在全参考模型下的平均MOS-V随错包和丢包的变化趋势, 由于DCR并评分中, 5分对应Imperceptible (无察觉) , 4分为Perceptible but not annoying (可察觉但不厌烦) , 我们取4.5分作为满足业务质量评分。

3.3实验结果分析

1.传输时延

IP网络中造成时延的因素包括:网络设备转发产生的时延, 主要为报文在队列中等待的时延;以及传输链路本身产生的时延。用户对时延的感受主要为表现为交流过程中语音和视频交互的响应时间。

ITU-T Y.1541标准的早期版本中规定Class0的时延为150ms, 之后修订为100ms。目前, 文献中对多媒体视讯类业务的时延要求通常参考ITU-T Y.1541的规定。文献[14]对多媒体视讯相类似的另一种互动类业务-“在线实时游戏” (主要为动作射击类游戏) 的时延体验进行了研究。实时游戏的时延包括人机交过程中的机器响应时间和网络传输时间, 研究结果显示当时延小于139ms时用户对游戏体验表示满意。应当指出的是, 实时游戏过程的人机交互过程和场景变换是高速变化的, 并且通常实时游戏的图像显示帧率要求在40fps以上, 而多媒体视讯中人与人的交互过程中基本不会有高速的场景切换, 动作也相对缓慢, 视频数据帧的速率变化通常在30fps。因此, 可以对多媒体视讯业务的时延要求进行一定放宽。

在实验中我们观测到时延大于200ms是接收端的视频会感受到明显的差异, 结合ITU-T Y.1541标准的规定及人机互动响应时间的要求, 并参考文献[1]中Vo IP语音业务对时延要求, 建议视频电话业务的单向平均时延传输时延上限控制在150ms以内。

2.传输时延变化

时延变化表现为业务数据报文到达对端时所经历传输时延的不同 (变化) , 通常会围绕平均传输时延呈现高斯分布。其产生原因有多个方面:首先是业务复用带来的时延变化, 这一点我们前文中已经进行了分析;其次, 网络传输带来转发时延和路径时延, 当业务报文经过网络节点 (交换、路由设备) 时, 不同节点、不同时刻的负载状况不同造成缓存队列的长度和转发时延的不同;在极少情况下 (一般为骨干网络发生网络故障, 出现链路倒换时) , 同一条媒体流中的不同报文, 也会经历不同的路径和不同的传输时间到达对端。

时延变化对视频电话业务质量影响也分为两个方面:一方面是对音频和视频本身质量的影响, 主要由于当解码器的缓冲区发生下溢或溢出时造成音视频抽样信息的缺失, 从而导致音视频业务质量的下降;另一方面则可能发生唇音不同步的现象, 主要由分别解码后回放时时间上不同步导致, 根据文献[15], 当音频和视频之间的时间差超过80ms时, 用户将会感受到明显的不同步。第一种影响等同于报文的丢失, 可以通过增加缓冲区长度或者采用动态缓冲算法来解决;第二种影响根据前文的分析, 可以通过RTP/RTCP协议中NTP与Timestamp的对应关系来实现回放的同步。

在实验测试中, 当平均时延固定200ms改变时延变化的区间, 视频质量未发生明显变化, 仅表现为接收端图像的延时, 并且也未出现唇音同步的问题。综合考虑传输时延和时延变化二者的关系, 以及音视频流复用本身的报文间隔变化, 建议网络传输带来的时延变化应小于50ms。

3.报文丢失和和报文差错

丢包和错包主要发生在报文传输的过程中。链路的缺陷、网络的倒换、网络节点对流量的整形处理都会导致丢包;当链路发生不可检错误时, 则会产生错包。视频报文的丢失和差错均带来会导致视频质量劣化, 表现为PSNR的降低、画面的模糊 (Blurriness) 和马赛克 (Blockness) 现象, 当某些关键数据帧 (I、P帧) 丢失和差错所造成的影响还会扩散, 对一个GOP (Group of Pictures) 中的后续解码图像质量带来影响。图9是测试过程中监看的截图, 左图为原始图像, 右图为丢包降质后的图像, 椭圆框标记出了报文丢失对高清视频造成视频模糊和马赛克现现象。

对于丢包带来信息的丢失, 视频解码器会感知此类错误, 通过错误掩盖机制对错误进行平滑处理。同时, 丢包造成的视频质量劣化在无参考模型和全参考模型下均有所反映。图10显示了丢包率为1%是的网络状况, 显示的是源端与宿端无参考模型下视频质量的MOS-V值, 其中源端视频无损伤, 表现为上部的绿色曲线;由于宿端发生了丢包, 视频质量的MOS-V值平均降低了约1分;图11则是对原始视频和接收视频进行逐帧比对后的到的MOS-V值统计, 其变化趋势与无参考模型下的趋势基本一致。

网元设备通过CRC校验发现错误报文时, 通常会对报文进行丢弃;对于报文中载荷中的数据信息变化, 能够感知视频内容的网元设备也会对报文进行标记 (比如将H.264 NALU Type字段的F标志置1) , 但译码器通常不会这种报文进行处理解码, 而启用错误掩盖机制对缺损图像进行平滑, 其结果依然等同于丢包。一旦发生网络设备和视频解码器都无法感知的错误, 将解码器无法对错误进行弥补, 就会造成明显的视频质量降低。图12、图13分别给出了错包为率1%时的网络状况和视频质量统计。对比可以发现, 由于未发生报文丢失, 无参考模型无法通过网络状态对视频质量进行估计, 图12中的显示的根据MDI换算的MOS-V值仍为理想值;但实际上, 报文的错误已经导致了解码后图像畸变, 图13中利用全参考模型的评估结果反映出了这一变化。

根据以上分析, 我们最终以全参考模型下获得的MOS-V测量值作为视频质量的评估依据。根据测试结果高清分辨率和CIF分辨率业务所应达到的网络丢包和错包指标应满足表3中的要求。

4总结

视讯视频 篇6

平安金融中心是由中国平安保险 (集团) 股份有限公司出资新建的一座高538m的超高层综合型办公大楼, 由一座超高塔楼和二期酒店组成, 主楼高115层, 商业裙楼高10层, 地下5层, 总建筑面积约460665m2, 其中办公楼共分8个区域, 另外有2个空中大厅。该中心集商业办公、购物休闲、餐饮娱乐等多功能于一体, 总投资约90亿元, 计划于2014年竣工。

2 需求分析

对于平安金融中心这样的现代化商业楼宇来说, 透过与数字科技、多媒体技术的紧密结合, 创作多媒体的新表现方式, 实现具有震撼力的互动视频, 并更快速便捷地进行讯息传播是其智能化设计所要追求的目标。

除了楼宇主体、固定设施以外, 该项目还应该有三个主要的核心, 即:

智能化的高清视频通信 (会议) ;

视讯化办公;

中国平安金融集团共享的数字化平台。

为实现上述目标, 我们选择VMS (互动多媒体视频服务平台) 技术作为平安金融中心企业视讯服务平台的关键技术。

VMS是一项为迎接大规模视频流媒体应用而量身定制, 消除了当前IT技术中的交换机瓶颈、服务器瓶颈、储存器瓶颈的下一代双向交换式互动视讯多媒体视频网络技术, 受到中国广电部门的高度重视。传统的IP网络流媒体丢包率在千分之一以上, 会不断地出现破碎、丢帧、堵塞、马赛克、唇音不同步等现象。VMS技术的全球数千公里异地传输丢包率仅为百万分之一, 不会出现以上各种传输故障。

3 构建数字化网络平台

(1) 平安金融集团的平台化联网

平安金融集团总公司与各个分公司之间实现资源共享, 能够通过视频的方式使其他的地方分公司与总公司联网, 实现真正意义上的视讯化办公。

(2) 平安金融集团内外部沟通

集团各个部门之间可以通过高清的双向视频进行更多、更加直观的内部沟通。

集团可以同集团以外的业务相关部门或者销售渠道公司通过视频通信或者视频会议的方式进行联网, 提高工作效率。

4 视频会议应用

4.1 传统视频会议和VMS平台高清视频会议比较

(1) 传统视频会议的特点

传统视频会议的特点是:图像质量低;视频会议不稳定, 现实条件下丢包率过高, 经常出现马赛克, 受网络传输的限制, 经常出现黑屏、易受干扰、图像往往出现波纹和噪点;音频质量不高, 常出现口型和声音不同步、语音失真等现象;网络结构不灵活;系统操作复杂、需要大量人员进行维护;高清视频会议成本过高、性价比过低。

(2) VMS平台视频会议的特点

VMS平台视频会议的特点是:视频、音频质量高;数百兆的高清视频全球异地传输延时仅为0.2秒;系统稳定性高, 完全不受黑客、病毒的干扰;现实条件下的丢包率仅为百万分之一;视频音频同步编码, 不会出现口型声音不同步的现象;业务功能强大, 不受网络条件的限制, 一套平台支持多媒体业务, 操作简单, 不需要大量人员维护;组网结构灵活、可根据具体情况随时增加参会点, 性价比高。

4.2 高品质的视频会议

(1) VMS技术采用国际通用的H.264高清编码, 可以支持高品质 (高清) 、大屏幕的多媒体视频播放, 能够根据具体需求进行图像品质设定调节。

(2) VMS平台支持多种终端接入, 电视、电脑、笔记本、投影仪、LED大屏幕、电视墙均可成为视频会议的终端点。

(3) VMS平台可以支持系统内的每个终端达到双向高清至双向超高清视频品质 (400kB~40MB码流任意设定) , 达到1920×1080的分辨率, 满足高品质、超高品质视频会议的要求。

(4) VMS平台的128k音频采用完全同步编码, 不会出现口型声音不符、声音失真等现象。

(5) VMS平台具有延时会议表决功能。

(6) VMS平台具备会前短信或精准屏幕字幕通知功能, 可支持公司老总、不同部门的经理根据大会需要在会前或表决后使用短信或字幕信息发布功能通知相关人员。

4.3 平台控制和多种视频会议模式

(1) 一台VMS平台服务器可支持上百个、上千个终端点同时进行众多不同的功能服务。

(2) VMS平台具备多种模式, 例如领导发言、圆桌会议、自由讨论等模式;并且拥有强大的可扩展性, 可以根据具体需要开发出新的视频会议模式。

(3) VMS平台可在视频会议中加入中、英等多种语言的精准字幕, 可在进行视频会议前广播会议通知、会议准备事项等信息。

(4) VMS平台具有多种控制模式, 可以由后台或与会人员控制进行视频的切换, 令各分会场均可以观看主会场或其他分会场的图像, 主会场可以轮巡各分会场。

(5) VMS平台具有演讲者控制模式, 可以使所有分会场观看演讲者画面, 主会场可指定观看任意分会场画面或任意轮播观看分会场。

(6) VMS平台可以在视频会议正常进行的同时, 不中断视频的前提下, 显示透明的投票 (图文服务) 菜单, 提供会议互动、通知、投票和抽样调查等互动图文服务。

4.4 全矩阵切换

VMS平台提供全矩阵切换功能, 即保证在一个有多个分会场的会议中, 任意分会场都可以看到其他所有分会场的图像信息, 实时了解其他会场的情况。

5 VMS平台的设计功能描述

除上述章节介绍的高清视频会议外, VMS平台为平安金融中心提供的企业视讯服务大致可分为信息发布与交互式咨询、实时及延时通信、应急指挥及监控、网络教学及VOD四种类型。

5.1 信息发布与交互式咨询

信息发布与交互式咨询包括公共信息发布和无人值守的智能咨询。通过无人值守的智能咨询台, 访客可以进行自助的多媒体视频信息导览查询, 还可以在需要进一步服务时启动双向视频通信功能, 直接与服务中心的服务人员进行面对面的沟通。通过在无人值守咨询台的屏幕上选择不同语种的服务, 不同语种的参观者可以直接与服务中心对应语种的服务人员进行面对面的沟通。此外, 无人值守咨询台还可作为触摸屏信息查询终端, 支持实时动态资讯信息、公共信息及商业广告显示等功能。

5.2 实时及延时通信

实时及延时通信包括全高清可视通话和视频邮件。

5.3 应急指挥及监控

5.3.1 应急指挥和调度

VMS平台集数十种视频、数据、语音、通信和多媒体服务于一个平台, 可提供点对点或点对面、实时或延时的交换式网络服务。VMS平台本身即是一个应急和调度的应用平台, 并且被广泛地应用于城市、医疗、机场、电力、煤矿、集团等的应急指挥。

系统接收到平安金融中心内的突发事件报警信息后, 可立即将该突发事件相关的所有信息和数据, 包括突发事件位置信息、突发事件周边的相关影响信息、相关历史资料和数据等切换到应急处理指挥中心的大屏幕上。

通过VMS平台, 可以随时发起视频会议, 使参与应急处理的各个单位、部门和个人都可以通过电脑或者显示屏幕调用应急事件相关的影像和语音信息, 并能够与应急处理指挥中心进行多方实时视频会议。

5.3.2 桌面视频监控

(1) 全部的VMS平台终端均为双向终端, 在提供播放服务时, 可以利用其未被利用的上行通道进行本地视频的上传, 使领导和管理人员可以通过桌面的电脑或屏幕实时观看这些区域的现场实况。

(2) 监控摄像机的视频信号也可以接入VMS平台, 进行平台化整合, 提供高品质的监控视频资源给授权终端。遇到紧急情况的时候可以将现场实时录像上传, 进行全网广播, 可以提供给专家, 方便其进行指挥和调度。

(3) 监控视频同样可以通过VMS平台进行录制, 并可以在任何具备权限的终端进行播放, 还可以通过视频邮件进行发送, 或通过现场直播功能进行直播。

(4) 通过在桌面上浏览大楼内现场视频, 领导和管理人员可以实时掌握大楼内的情况, 获得人流量、是否有异常情况等第一手信息。

5.4 网络教学及VOD

网络教学及VOD功能包括网络教学和讲座、视频点播P-VOD、企业 (自办) 频道、延时电视和预约录制。

6 结束语

上一篇:中学诗歌教学中的美育下一篇:专业基础理论课