视频监控的关键技术

2024-07-28

视频监控的关键技术(精选12篇)

视频监控的关键技术 篇1

一、数字视频压缩编码技术

压缩编码的目的是为了符合一定的场合要求, 例如:存储空间的要求或者是传输过程中的网络带宽或速率要求等等, 因此需要对数字视频进行压缩编码, 从而能够利用较少的存储空间对数字视频进行存储和传输, 同时能够保障解压后图像的清晰度。目前, 对数字视频进行压缩编码主要是为了去除数字视频中空间或者时间上的冗余信息, 目前主要的数字视频压缩编码技术分为以下几种:

(一) 国际标准化组织制定的MJPEG技术。MJPEG数字视频压缩技术的基础是静态视频的压缩技术, 其主要特点是对数字视频进行帧内压缩, 因此, 在该压缩技术的实现过程中可以忽视不同帧之间的关联关系, 这种技术对于视频编辑有着重要的作用。利用MJPEG的数字视频压缩方法能够获取高清的图像, 但是, 经过压缩后的数字视频仍然存在大量的冗余信息, 所以在存储过程中还是需要占用较大的空间, 同时也会影响数字视频的实时传输速率;如果进一步去除冗余信息, 可能会造成视频画面失真, 因此在进行编码压缩的过程中, 需要选取适当的压缩比例, 一般为6:1。

(二) 国际电信联盟的H.26X系列标准。H.26X系列的数字视频压缩编码技术产生于20世纪90年代, 这种压缩编码方式采用的是混合编码技术, 能够达到更好的压缩比例。H.26X系列的标准与国际标准化组织的MJPEG技术相比, 主要是在压缩过程中利用了视频帧之间的相关性, 从而进一步减少视频内在空间方面的冗余信息, 因而能够达到48:1的压缩比例。同时, H.26X系列压缩编码技术的计算量比较少, 能够占据更少的CPU, 可以进一步提高数字视频压缩编码的速率。

(三) 国际标准化组织制定的MPEG标准。MPEG标准主要包括MPEG1、MPEG2和MPEG4等多个标准形式, 其主要的技术特点和运用场景如下:第一, MPEG1压缩技术标准, 该标准不仅仅能够对视频的压缩编码, 而且可以对视频和音频进行复合编码, 所以MPEG1技术标准的核心算法是如何实现对音频和视频的联合编码, 由于同时去除了对音频和视频的冗余, 因此, 能够进一步节约存储空间, 从而获得更高的压缩比例。MPEG1技术诞生以后, 得到了广泛的运用和认可;第二, MPEG2压缩技术标准, 该压缩编码标准以MPEG1为基础, 在引用MPEG1原有架构的同时, 进行了一定范围的扩展, 例如:可以对不连续的视频信号进行处理, 可以同时支持同步和异步的传输方式等等;第三, MPEG4压缩技术标准, MPEG4在MPEG2的基础上引入了对象的概念, 能够使得压缩编码技术的实现更加简单, 一些重复的操作可以得到复用, 同时允许在数字视频的压缩编码过程中进行人机交互, 从而满足不同用户的个性化需求。

(四) 联合视频工作组制定的H264/AVC标准。H264/AVC压缩编码技术的提出主要是为了解决编码效率不高和网络适应性差等问题, 这种压缩编码技术相对于以前的技术来讲, 主要有以下几个优势:第一, 提高了数字视频的压缩编码效率, 将原有8×8的编码单位转变为4×4的编码单位, 同时由于算法实现简单, 计算量比较小, 因此压缩编码的效率比较高, 成为了更加有效的压缩编码技术;第二, H264/AVC在进行压缩编码后, 可以利用一个统一的接口, 对视频数据进行传输, 由于屏蔽了不同网络之间的差异性, 进而提高了该技术对不同网络的适应能力。

通过以上的分析和论述可知, 目前在数字视频压缩编码领域存在着众多的压缩编码技术, 因此在进行压缩编码技术的选取过程中, 需要充分考虑各种因素, 从而能够选取更加合适的数字视频压缩编码方式。

二、数字视频实时网络传输技术

由于企业视频监控系统在使用的过程中, 会存在远程监控的需求。因此, 一些数字视频需要经过网络进行实时的传输, 所以在企业视频监控系统的设计与实现中, 数字视频实时网络传输技术也是一项关键技术, 该技术主要是在成熟的TCP/IP协议簇的基础上进行实现的, 同时也需要对TCP机制的传输效率和传输质量进行改进和完善。数字视频实时网络传输技术主要包括以下几个方面的内容:

(一) 实时传输协议RTP。在数字视频进行实时传输的过程中, 必须要遵循一定的传输标准和传输协议, 这样才能够降低接收方和传输方的实现复杂度。其中实时传输协议就定义了接收方和传输方之间的实时传输规范, 该标准利用网络传输层的UDP进行数据的传输, 同时可以保证数字视频的实时传输质量。例如:RTP提供了一些流量控制和拥塞控制服务, 同时对传输数据进行校验, 确保其在传输过程中的正确性。

(二) 传输方式。由于数字视频的存储空间较大, 因此在进行视频传输的过程中, 往往会受到网速和带宽等条件限制, 从而影响数字视频的传输效率。因此, 选取适当的传输方式有利于提高数字视频的传输速率。在IPV4中定义了单播、广播和组播等三种传输方式, 但是广播的传输方式不适合运用在数字视频的传输过程中。因此, 数字视频的传输方式主要分为单播和组播两种方式。单播的传输方式能够在客户端与服务器端进行点对点的传输, 因此服务器与客户端是一一对应的关系, 这种方式适合用户量极少的情况, 通常来讲传输速率比较快, 但是服务器资源的浪费也比较大。与单播的传输方式不同, 组播的传输方式可以实现一对多和多对多的传输方式, 主要的实现方法是:对同一个视频资源进行拷贝, 然后对不同的客户端发送相同的数据。这种方式能够提高网络中带宽的使用效率, 降低服务器的负荷等等。

(三) 数字视频实时网络传输的服务质量。数字视频实时网络传输的服务质量不仅体现了用户的需求, 而且也从一定程度上反映了网络的性能。因此, 在进行数字视频的实时网络传输过程中, 必须要有一定的策略保证传输的服务质量, 主要包括以下几点策略:第一, 增加网络带宽, 这种方式在一定的带宽范围内能够有效地提高网络传输的服务质量, 但是同样提高了网络传输的成本, 由于数字视频的容量较大, 因此, 当带宽达到一定范围时, 通过提高带宽来提高服务质量的效果不是很明显;第二, 通过设置优先级来提高服务质量, 这种方式的实现比较简单, 而且开销也比较小, 但是这种提高服务质量方式的可控性比较低, 缺乏一定的灵活性;第三, 静态资源的分配方式, 这种方式主要是采用专用线路的方式提高网络传输的服务质量, 但是专用线路在空闲时无法传输其他数据, 容易造成资源的浪费;第四, 动态资源的分配方式, 这种分配方式相比静态资源的分配方式而言, 能够体现出一定的灵活性, 同时避免了网络资源的浪费, 但是这种方式的实现比较复杂, 网络开销也比较大;第五, 差错控制, 主要是在数据进行传输之前, 按照一定的规律向数据中插入一些校验码, 当接收端接收到数据后, 再对校验码进行校验, 从而确定数据在传输过程中是否被改变。

三、结语

本文主要介绍了企业视频监控系统的关键技术, 并对这些关键技术进行了深入的分析。数字视频压缩编码技术主要分析了几种数字视频压缩编码技术的特点及适用场景, 并对这些编码技术进行了比较和分析, 因此可以在不同的场景下选择不同的编码技术;数字视频实时网络传输技术主要介绍了实时传输协议, 单播和组播的传输方式以及传输过程中的质量保证策略。随着科学技术的发展, 企业视频监控系统的关键技术也在不断地提高和完善, 压缩编码技术的种类会不断丰富, 实时传输技术也在不断地提高, 从而能够为企业提供更好的视频监控系统。

参考文献

[1]汪绪吉, 柯韵徽.浅谈高校安全保卫工作引入视频监控系统的重要性和必要性[J].科技信息, 2010

[2]沙福禄, 马勇.天津市城区治安视频监控系统现状的调查[J].天津科技, 2012

[3]杨逸时.浅谈视频监控系统的维护工作[J].河南科技, 2013

视频监控的关键技术 篇2

摘要:随着我国科学技术的不断进步,互联网已经成为人们生活不可或缺的一部分。不否认互联网为人们提供了生活的便利,但是也带来了计算机的安全问题,所以,互联网本身就是一把双刃剑。为了有效地避免计算机安全问题的发生,充分发挥互联网带给人们的便利。必须要加强对计算机安全监控系统的研究。才能够有效的避免病毒频发以及骇客带给人们的安全隐患。本文主要讲述计算机安全监控系统的监测对象,后讲述计算机安全监控系统的关键技术。

关键字:计算机;安全监测;监测对象;监测技术

随着网络信息化时代的到来,人们对网络计算机的依赖程度越来越大,但是,计算机的各种安全隐患变得更加的复杂多样,正所谓,“道高一尺,魔高一丈”,人们必须要加强对计算机安全监测系统的构建,继续研发计算机安全监测的关键技术,才能够保护人们的计算机上网,提供一个安全、宽松、绿色的生活环境。为了构建更加完善的计算机安全监控系统,首先需要了解的就是计算机安全监控系统的监测对象,然后才能够研究更加高端的科技监测技术。

一、计算机安全监控系统的监测对象

一般来讲,计算机安全监控的对象主要分为两个大类:一是信息,另一个是操作。这里的信息主要是指计算机系统中的文本或者是文件信息。而操作就是指人为地进行对计算机的操作,包括复制粘贴记录以及删除,总之包括了计算机用户所进行的一切操作行为。在计算机系统中,都是以文件或者文本作为载体来存储和传播的,所以对计算机系统信息的监测是十分必要的。对一些涉密的文件保护不力,就有可能导致信息安全被泄露。人们对一些保密文件进行修改或者是复制以及删除或者是恶意的`传播等非法操作,这都会导致保密信息被泄露,对计算机的安全监测造成了威胁。计算机安全监测的对象也包括计算机用户的一切操作行为和活动。如果人为的操作过程中故意泄露计算机密码或者是对保密的文件进行上传,都会造成计算机安全的隐患。在监测的对象中,人为的操作具有很高的不确定性和巨大的破坏性,一旦人为的操作违背安全规定,会造成计算机的系统被损坏或者是系统崩溃。

二、计算机安全监控系统关键技术的有效探究

为了实现对监测对象的有效监管,建立真正安全的计算机安全监控系统,需要对检测技术进行有效的探究,尤其是掌握核心的关键技术,能消除计算机的安全隐患,守候计算机系统的安全运行。下面主要介绍以下几种计算机安全监控系统的关键技术:第一,运用回调函数进行控制。这种技术的运用流程就是通过对计算机的应用程序树立一些函数的应用数据库。可以对系统操作实现异步监控或者是同步监控,当用户进行的某一件事情操作完成之后,系统就会就此停止,并且有可能直接进入下一个轮回。这样就有效避免了人为的恶意操作,监督监测用户按照流程进行规范操作。第二,系统的拦截模式。为了保证一些计算机系统被非法访问或者遭到骇客攻击,计算机就会设立一些拦截模式的系统。工作原理就是通过对某些应用程序的监控,把需要调动的代码,转移到系统管理者想要嫁接的程序上,从而实现对系统的保护和隔离。计算机用户已经打开这个文件时,系统就会自动调出空间中的函数,从而引发拦截模式,这样就可以把这些非法用户拦截的系统文件之外,有效避免恶意的侵害。第三,对人为操作监测的关键技术。很多计算机系统中的文件是涉密的,严禁复制粘贴或者是恶意上传。因此,必须要建立基于文件复制粘贴监测的监测技术设计。文件的复制粘贴都是通过剪贴板来进行,为了保证文件不被恶意的复制粘贴,就可以在剪贴板上安装监控器,形成有效的链条模式。计算机用户恶意的对文件进行复制时,剪贴板就不会提供服务,导致复制粘贴无法正常进行,保证了文件的安全性和涉密性。另外,人的操作都是通过鼠标,或者键盘来进行,为了实现计算机安全监测对人为操作的监测,必须要注重对计算机、键盘和鼠标的控制。为了保证计算机不随意被人为操作,可以通过一些相关的函数建立比较严密的监控系统链。当计算机被恶意操作或者是在安全受到威胁时。系统就会发出一些信号,启用安全监控程序,鼠标和键盘无法按照正常的使用被恶意用户使用。还有就是为了防止他人对计算机系统内部的文件或者信息进行复制粘贴,可以通过设置锁屏或者是密码登录等方式。只要没有登录密码就不能够对计算机进行操作,这样也能够起到保护的作用。第四,对中间层驱动进行监控。中间驱动层是计算机文件被修改时必须要经过的区域,当计算机操作用户想要调取程序的有效信息时,就需要将调动代码下载到驱动当中,如果能在中间驱动中进行有效的监控,就能够防止文件被下载,实现异常数据的拦截,而且中间层驱动监测最大的优势就是覆盖范围比较广,作用就会更加的明显,所以,对中间层驱动进行有效地监测,能够提高计算机安全监测系统的准确度和科学度。

三、总结

面对科学技术对计算机安全网络造成了巨大冲击,必须要努力构建计算机安全监控系统。计算机安全监测系统作为信息安全的有效保障,可以对计算机用户提供安全保护,也能够禁止病毒的入侵和骇客的访问。所以必须要研究计算机安全监控系统的关键技术,掌握了核心关键技术,才能真够真正起到安全保护的作用。当然科技是不断创新发展的,这就需要人们不断的更新改进技术,破解当下计算机安全的困境,为用户提供一个安全的计算机网络。

参考文献:

[1]何晨旭.关于计算机安全监控系统中关键技术的研究[J].经济技术协作信息,2016(19):70-70.

[2]朱宇兰,李伟松.基于计算机网络技术的远程监控系统应用研究[J].数字技术与应用,2016(7):83-83.

[3]马浩.基于未知木马的计算机安全监测系统研究[J].电脑编程技巧与维护,2015(21):95-96.

[4]邓有林,姜吉锐.基于人体指纹的局域网安全监控系统研究与设计[J].保山学院学报,2015,34(5):54-58.

视频监控的关键技术 篇3

关键词:网络视频监控;体系构架;WEB技术

中图分类号:TP227 文献标识码:A 文章编号:1674-7712 (2013) 02-0067-01

近年来,随着计算机的普及,图像处理技术的不断提高以及社会信息化程度的不断提高,视频监控的应用领域正在不断的扩大。由于嵌入式、数字图像处理、网络传输等技术得到不断进步,也带动了视频监控系统的快速发展,并逐渐呈现出向数据化、网络智能化以及无线化方向发展的趋势。以下,以中国电信的全球眼系统为例,对网络视频监控系统的构架进行分析,同时对相关关键技术进行探讨。

一、网络视频监控系统体系构架

(一)系统设计

全球眼是中国电信提供的基于IP技术和宽带网络(互联网、虚拟网、专网)的网络视频监控业务,通过网络视频监控业务平台,将分散、独立的采集点图像信息进行联网处理,实现跨区域的统一监控、统一管理及分级存储,满足客户进行远程监控、管理和信息传递的需求。全球眼是一个公众的网络监控系统,其在设计上要充分的考虑到它的可用性、可靠性、可伸缩性、可运营性、可维护性和高安全性,做到系统运行的稳定。该系统不仅能够拉动宽带接入业务,还能通过提供监控增值业务,发现全新的业务增长点。

(二)系统的主要功能

全球眼系统是一个可以运营的公众网络监控平台,其业务承载着公众互联网。借助于网络的接入,用户可以通过该平台随时随地的监控所授权的区域。该系统的主要功能可以归结于:网络化监控、数字化存储、多对多实时监控、远程图像实时调度、集中管理控制、多对多历史回放、可区分服务以及可控业务管理。

(三)系统的总体结构

根据总体的系统设计原则和设计目标,系统采用多层次的主题设计思想,其主体的框架是基于C/S的系统体系构架,同时对提供B/S模式的用户进行WEB接入。该系统可以分为经营支撑层、业务支撑层、接入层和交换层四种模式层。在其他的服务中会采用集成的技术进行平滑扩容,来对系统产生负载均衡和N+1热备的作用。

网络视频监控系统经历了模拟信号监控系统、数字监控系统和网络视频监控系统等三个发展阶段。网络视频监控的优点就是克服了传统监控系统的局限性,可以在计算机上传输图像数据,它基本上不受距离的限制,其信号不易受到干扰,可以大幅度的提高图像的品质和稳定性。数字视频可以利用计算机的网络联网,其宽带可以重复使用,这些经过压缩的视频数据可以存储在磁盘中,它的查询十分的便捷。

二、网络视频监控系统的关键技术

现在大多数的网络视频监控系统都是采用一个基于嵌入式WEB技术的网络视频监控系统来设计和实现的。目前,以网络为基础的网络视频监控系统已经发展成视频监控系统的主流,随着微处理器技术、网络技术的不断进步,基于嵌入式的WEB视频监控系统已经逐渐得到了用户们的广泛关注。

(一)对基于嵌入式的WEB技术的系统概述

伴随着计算机网络技术和微处理器技术的不断发展进步,基于嵌入式的WEB系统已经逐渐的得到了广大用户的关注,它的原理主要是:利用嵌入式的视频监控服务器采用嵌入式的实时操作系统,对内置的嵌入式WEB技术服务器进行监控,将摄像机传送的视频数据信号经过高效的芯片压缩技术,通过其内部具有的总线将数据传送到其内置的WEB服务器上[1]。用户在监控端可以直接通过浏览器观看WEB技术服务器上的摄像机视频图像,授权用户还可以控制摄像机云台镜头的动作。

(二)嵌入式WEB服务器的硬件结构

嵌入式WEB服务器的硬件结构主要由CPU芯片、MPEG-4音视频编码芯片、Flash芯片、SDRAM内存、以太网络接口、大容量硬盘组成的。其中嵌入式通信处理器MPC8250。MPEG-4音视频编码芯片完成对从摄像头传送过来的视频数据的压缩和编码[2]。根据网络带宽、拓扑结构以及对图像质量的要求,本系统选用基于MPEG-4标准的分层可扩展性编码方案。压缩后的视频数据根据需要,可以存储在大容量硬盘中,或者通过以太网进行网络传输。为了实现视频存储功能,需要采用大容量的硬盘。

(三)嵌入式WEB服务器的软件系统

嵌入式WEB服务器的软件设计与实现是本系统实现的关键之一,包括嵌入式操作系统与应用软件两大部分。本系统采用网络传输协议的RTP/UDP/IP模型[3]。RTP协议是一种提供端对端的实时媒体传输服务的协议,由实时传输协议RTP和实时传输控制协议RTCP两个部分组成。RTP用于实时视频数据的传输,而RTCP则用来监控实时视频数据的传输。RTP/UDP/IP的方式兼顾了视频传输的实时性,同时针对传输网络状况的不确定性,也可以采取一定的拥塞控制和差错控制策略。

三、总结

本文介绍了一个基于嵌入式WEB技术的网络视频监控系统的设计与实现,与传统的网络视频监控系统相比,本系统的主要特点在于:服务器的设计基于嵌入式WEB技术;支持动态IP,可以直接连入以太网,能够即插即看;用户无需使用专用软件,仅用浏览器即可观看;同时系统采用先进了的MPEG-4编码标准,在提高了视频质量的同时大大减少了数据量。相信随着网络视频监控的流行,基于嵌入式WEB的网络视频监控系统必将有良好的发展前景。

参考文献:

[1]刘志杰,张华忠,单晓岚.基于嵌入式Web的远程实时监控技术研究[J].计算机工程与设计,2007,15.

[2]彭涛,李声晋,芦刚.远程设备监控系统中嵌入式Web服务器的设计[J].机械与电子,2008,01.

智能视频监控关键技术研究 篇4

智能视频监控系统能够在计算机数据处理功能的帮助之下,快速从计算机视频中大量的数据中提取出关键信息,排除掉不需要的大量数据。智能视频监控系统的诞生,在传统的视频监控系统上进行一定程度上的创新和改善,不仅提高了视频质量,在安全性上也有了很大程度上的提升。智能视频监控系统的诞生,为以后保证视频和图像的完整性做出了贡献。

1 智能视频监控系统的概念

智能视频监控系统是采用图像处理、计算机视觉技术和模式识别,通过在系统中加入智能视频分析模块,借助计算机强大的数据处理能力,把画面当中用不到的或者干扰到正常画面的信息过滤掉,监控系统主要就是通过监控技术抽取出视频中关键有用的信息,找出异常情况时进行自主快速报警,这种监控技术可以处理突发事件,能够有效帮助警察处理相关问题,属于一种全天式的、实时的智能监控系统。和传统的监控技术相比,智能监控技术在很大程度上超越了传统的技术,更加具有效率性和安全性,不会再出现误报情况。智能监控视频技术的诞生,促进了监控行业的快速发展,更加具有商业价值。

智能视频(IV,Intelligent Video)源自计算机视觉(CV,Computer Vision)技术。计算机视觉技术是人工智能(AI,Artificial Intelligent)研究的分支之一,它能够在图像及图像描述之间建立映射关系,从而使计算能够通过数字图像处理和分析来理解视频画面中的内容。视频监控中所提到的智能视频技术主要是指“自动分析和抽取视频源中的关键信息”。如果把摄像机看作人的眼睛,而智能视频系统或设备则可以看作人的大脑。建造视频监控系统的目的,一是为了视觉上的延伸——把处于别地的画面通过网络与设备“拉近”到眼前,因此有了远程监控;二是为了智力上的延伸——让系统自动分析问题并解决问题,于是有了智能监控。后者是更高层次的要求,也是视频监控今后发展的必然要求。

2 视频分析的关键技术

2.1 夜视情况下图像的清晰度增强

在视频监控系统中,很多技术都是用于监控白天的视频的,对于夜晚视频的监控缺乏重视,而夜晚视频的监控依然很重要,这就对夜视图像的清晰度有了一个更加高的要求,就需要对夜视图像的清晰度进行一定程度的加强。传统的加强对比度的方法主要分为三种:直方图均衡化、色调映射、Gamma校正。这三种方法主要就是通过提升图像对比度或者压缩高动态范围图像来进行的,这几种方式能够有效使画面看起来更加接近真实画面。但是,在没有光照的视频图像中,就没有办法应用以上这些方案,效果特别不理想。在这样的情况之下,就采用了红外线摄像机来进行改善,这种摄像机可以有效提高图像的对比度,但是,这种摄像机所拍下来的图像不含有颜色信息。最后通过整合目前出现的所有问题,运用图像融合技术来进行白天和夜晚的拍摄,再对不同的图像进行整合,这样就保证了夜视情况下图像的清晰度。

2.2 常用到的背景模型

视频拍摄的效果通常会受光照变化的影响,所以在此基础上,应用一个具有鲁棒性的背景模型是至关重要的,根据目前出现的背景模型找到了以下几种典型的背景模型。

混合高斯模型。在这种办法当中,每一个像素点都是一个变量,具有一定的独立性,每一个像素点出现的亮度值都用k个高斯来进行记录,高斯的分布是混合的。在检测到每一个数据诞生时,就要和k个高斯进行比较,看这种数据是否是k个高斯分布中的一种,最后再去更新此高斯分布的参数和随影的权重,如果和k个高斯的分布相比较没有找到对应的高斯,那么就用权重最小的高斯分布对新数据均值进行高斯分布,在此基础上,确定这个像素点是前景的像素。

基于码书的前景检测算法。这种方法主要就是通过量化聚类的方式,较长时间地来观察序列中的背景模型,使用这种方法在进行检测时,背景像素和测试的像素在强度上的距离和颜色要同时进行测量。这种办法可以在一定程度上拍摄到结构化的运动背景,能够自适应和压缩在限定内存情况下的背景模型。

2.3 运动目标检测

运动目标的检测在实际生活中最常见的就是以下三种,分别是:背景减除、帧差法、光流法。

2.3.1 背景减除

背景减除是这三种方法中在实际生活中最常见的一种方法。这种方法是把目前得到的图像和背景图像相减,得到的数值如果要是大于某个阈值,那么前景像素就和这个像素是一个。它的特征数据比一般的数据都完善。尤其是对类似于树叶的运动的感触特别敏感,在这样的情况之下,有很多科研人员在建立背景模型时都要求能够建立一个比较健全和强化的背景。

2.3.2 帧差法

时间差分是在连续的图像序列中将两个或三个相邻帧进行基于像素的差分,将得到的结果阈值化,从而提取出运动区域。时间差分在一定程度上可以使在计算上的开销变得很小,在某一个区域中,帧差法会出现空洞,看不到完整的前景区域。

2.3.3 光流法

这种方法就是在假设的条件下来计算每一个像素的运动,在此基础上,前后两帧像素点在幅度比较小的运动下轻度要保持不变,光流法最基本的假设就是两个相邻的图像亮度保持不变。它的优点主要就是在摄像头运动的同时依然可以看到独立的目标。

2.4 对象跟踪

在视频拍摄过程中,需要对视频进行一定程度上的分析,在视频分析过程中如果出现异常的情况,就需要通过跟踪来完成视频分析。跟踪是一个比较具有挑战性的工作,需要克服的难点有很多,目前出现的跟踪方式有以下几种。

2.4.1 点跟踪

这种方法的表现对象一般都是使用点来表示。在实际生活中,最常使用的数学模型有两种,分别为粒子滤波和科尔曼滤波。粒子滤波主要作用在非高斯分布的情况之下,在状态的预测过程中通常采用的是粒子组的条件状态的密度。科尔曼滤波则是完全受高斯分布控制的,它的系统则是线性的。

2.4.2 核跟踪

在跟踪过程中,根据跟踪对象的运动轨迹来进行,跟踪对象通常是一个几何区域。最常使用的跟踪方法也分为两种:Meanshift和模板匹配。Meanshift跟踪方法主要就是在特征的空间范围内寻找和搜寻函数点分布最密集的地方。而模板匹配相对于Meanshift来说是一种比较暴力的搜寻方式。汽配区域的计算量比较大,甚至根本没有半大实时地进行处理,它是图像和模板区域内最小的一个区域。

2.4.3 轮廓跟踪

这种跟踪方法主要就是通过大致的形体对主要对象进行跟踪,这种方法也可以分为两种形式:轮廓的进化和形状的匹配。

3 结语

本文主要是针对智能视频监控关键技术进行了详细分析和研究,在监控行业中,智能技术脱颖而出,奠定了监控技术的发展基础,在实际生活中,这种监控技术越来越多地应用到各个商业领域中,体现出智能视频监控技术的商业价值,为中国的监控技术打下良好基础,从侧面促进中国的经济发展。科学化的监控视频技术不仅可以应用在个别的国家中,在世界范围内依然可以应用。能够发挥出智能视频控制技术的商业价值,对监控行业本身也具有很深刻的意义。

总体来看,国际市场上的智能视频监控系统已占据了领先优势,这取决于其长期的发展和积累,以及来自政府或军队的强有力的支持。国内的厂商由于起步较晚以及研发力度相对欠缺,加之国内复杂的环境,目前这一领域仍处在起步阶段,但是,其发展空间不容忽视,市场的需求决定了智能化监控系统今后将处于主流地位。

摘要:随着科技发展的越来越快,智能视频监控技术被广泛应用在实际生活中。相对于传统的视频监控系统来说,智能视频监控系统具有较高的安全性,目前主要应用于银行、地铁、机场等需要进行监控的重要场合。目前,国内外对这种监控技术十分关注,笔者主要对智能视频监控关键技术进行研究和讨论,探讨其应用场合,挖掘其应用价值。

关键词:视频监控系统,智能视频分析技术,对象跟踪

参考文献

[1]刘诚,段红光,巴义.基于Android移动视频监控系统客户端的研究与设计[J].电视技术,2013(4):85-88.

[2]雷玉堂.浅析几种视频异常事件的智能视频分析技术与方法[J].中国公共安全,2013(12):129-132.

视频监控的关键技术 篇5

为切实把住产品质量关,在整个生产流程中严格有效地控制好各个生产环节、生产工艺及实际运作情况,以便对质量进行全面监控,特设定以下关键质量控制点及其监控措施。

1.原料及包装材料验收:鲜茶叶应无劣变、无异味、无其它植物叶、花和杂物;特别要注意因使用农药不当或施用农药后安全间隔期不够就采茶而造成茶叶农药残留超标。茶叶包装材料和容器应干燥、清洁、无毒、无害、无异味、不影响茶叶品质,索要产品检验报告、合格证及QS证书。

2.萎凋

萎凋即是乌龙茶区所指的凉青、晒青。通过萎凋散发部分水分,提高叶子韧性,便于后续工序进行;同时伴随着失水过程,酶的活性增强,散发部分青草气,利于香气透露。乌龙茶的萎凋和发酵工序不分开,两者相互配合进行。通过萎凋,以水分的变化,控制叶片内物质适度转化,达到适宜的发酵程度。萎凋方法采用:凉青(室内自然萎凋)、晒青(日光萎凋)。萎凋的程度是减重10-15%。

3、做青

鲜叶在摇青机中摇动,叶片互相碰撞,擦伤叶缘细胞,从而促进酶促氧化作用。摇动后,叶片由软变硬,俗称“返青”。经过静置一定的时间,酶促氧化作用又相对减缓,使贮存于叶柄叶脉中的水分,慢慢扩散流向叶片,此时鲜叶又逐渐膨胀,恢复弹性,叶子由硬变软,俗称“返阳”或“消青”。经过如此有规律的数次“动”和“静”的过程,鲜叶发生了一系列的生物化学变化。

摇青是做青的关键,其操作最为繁复。即将萎调后的鲜叶置于摇青机,进行第一次摇青,经摇动一定的次数,将鲜叶摊放于凉青架凉青,静置一定的时间后,行第二次摇青。周而复始,摇青4-5次不等,每次摇青的转数、静置时间、摊叶厚度,逐次增加。

摇青要掌握“循序渐进”的原则。转数由少渐多,用力先轻渐重,摇后摊叶先薄后厚,凉青时间先短后长,发酵程度由短渐长。在历时8-10小时的时间内,有控制地进行。例如,第一次摇90-120转,第二次摇200-250转,第三次摇400-600转,第四次摇 500-800转。摊凉时间第一次1.5小时左右,第二次2-2.5小时,第三次3-4小时,第四次4-5小时。

摇青还要掌握“看青摇青、看茶做条”的原则。根据产地的品质要求、茶树品种、季节、晒青程度等具体情况灵活掌握。

4、杀青

乌龙茶的内质已在做青阶段基本形成,杀青是承上启下的转折工序,主要是抑制鲜叶中的酶的活性,控制氧化进程,防止叶子继续红变,固定做青形成的品质。其次,是低沸点青草气挥发和转化,形成馥郁的茶香。同时通过湿热作用破坏部分叶绿素,使叶片黄绿而亮。此外,还可挥发一部分水分,使叶子柔软,便于揉捻。杀青的具体过程是:前期温度要高,先闷炒,迅速提高叶温,很快制止酶的活性,固定杀青效果。酶活性受破坏后,主要继续蒸发水分,此时温度可低些,并进行扬炒。后期温度太高,也会使叶片炒焦。老叶含水较少,宜多闷少扬,杀青时间稍短,一般5分钟;嫩叶含水分多,宜高温,多扬,时间7分钟。所谓闷炒,即炒青时翻动鲜叶,不抖高、不抖开,使叶温上升。扬炒则抖高、抖开,使叶温散发。

杀青适度:叶面略皱,失去光泽,叶缘卷曲,叶梗柔软,手捏有粘性;青气消失,散发清香,叶色转黄绿;茶叶含水量64-65%为宜。

5、干燥:

采取“低温慢烤”,分二道进行。第一道火温70-75℃,每焙笼放三个压扁的茶团,约1.5-2.0公斤,焙至茶团自然松开解块,再焙至八、九成干起焙摊凉.使叶内水分重新分布。烘干机烘干温度100℃左右。第二道火温60-70℃,每焙笼投叶量2.5公斤,时间1-2小时,翻拌2-3次,有“炖火”作用,焙至茶梗手折断脆,气味清纯,即可起焙,含水量控制在7.5%以下。

视频监控的关键技术 篇6

关键词:企业级电气化监控;能量管理系统;模块;技术

目前分布式企业级电气化监控和能量管理系统在能源工业企业的发展中有举足轻重的作用。企业级电气化监控的任务是实时采集企业电网运行数据并监视其运行状态,必要时发出控制指令操作终端设备.它向数据平台层提供终端设备运行的实时数据,数据平台层通过它向企业电网发送控制信号.综合数据平台利用统一建模技术对企业全局信息建模,达到信息的充分共享和访问,从而为企业级能量管理奠定坚实的数据层基础;能量管理层利用企业电网全局信息进行调度决策,主要目标是提高控制质量(电源控制、负荷控制)和改善运行的经济性,主要包括负荷预测和管理、动态无功调度、节能调度和能量平衡4个模块,各模块间既具有相对的独立性,又在一定程度上保持数据交互.人机界面层主要提供管理员与系统的联系手段,使管理员能监视、分析和控制企业电网,并通过图形、报表等形式显示能量管理的过程和结果,

一、系统关键模块和技术分为以下几个方面:

1、分布式电气化监控

广域电气化监控将输供系统中电力专业化能源管理延伸到工业企业用电系统中,使终端用户能够安全、可靠和舒适的用电,其关键是解决空间上广域分布的工业企业各厂区用电设备的保护和控制。

采用超大集成规模电路,利用非线性补偿测量技术、嵌入式多智能体技术和分布式故障诊断技术方面的最新成果,开发具有自适应协调控制功能的中低压测控保护一体化控制装置,解决工业用电设备的智能化测控保护以及电气过程控制的分布式部署问题.中低压测控保护一体化控制装置在企业配变所、配电柜及车间或生产线就地分散,实现设备用电的安全保护、电能调节、运行状态与能耗的测量,完成各种预制的逻辑或远程指令控制等分散功能,实现就地信息的数字化远传.设备满足国家标准要求的抗干扰能力,适应各种现场环境使用,安装方便.

采集的数据通过多种通信方式传递到通信服务器,对于布线简单或存在高电磁污染的大型企业,应在企业规划期设计好有线通信信道,保证企业内部通信网络的灵活性和可扩展性;对于地势复杂又不存在高电磁污染的大型企业,可考虑采用建设周期短、组网灵活的无线通信方式.考虑到能量管理的实时性要求,融合工业数据特点的应用层数据交换技术,开发具备智能、开放及分散的具有自检测机制的CAN通信总线,利用一体化智能测控和保护装置对分布在生产现场的各个用电能耗设备进行信号采集,通过有线或无线通信介质,运用高性能的工业现场总线技术对测控设备进行分布式组网,从而建立适合大型工业企业的分布式电气监控系统.

2、图模一体化数据平台

大型工业企业的生产过程具有严格对象化和流程化特点,常规的电气监控系统是面向量测点,这和实际的生产过程不符,如何有效地组织信息、存储和访问信息是当前的技术难点.

通过引入电力企业信息资源规划成果CIM模型,扩展建立用电企业面向对象的ECIM(Enter-prise Common Information Model)电网模型,实现信息的对象化采集、组织和分层管理,为企业用电信息和生产信息的无缝结合奠定技术基础.企业电气接线图采用可缩放矢量图形SVG画面格式,SVG是由W3C组织发布的一种基于XML的开放式二维图形描述语言,具有标准开放、矢量缩放、平台无关以及网络发布等特性。

为保证企业模型ECIM的普遍性,信息模型主要包括:①变压器、开关刀闸等输电设备模型;②车床、电炉等耗电设备的负荷模型;③企业内部电厂的小型发电机组、原动机等电力生产模型;④企业电气化监控量测点模型;⑤某类产品单位耗电量、产量等企业产品模型.通过分析SVG文件描述标准,SVG对于设备的描述主要集中在〈g〉组中.〈g〉组中每一个设备对象都可以描述一个ID.如果将该ID与企业模型ECIM中对象的RDF/ID进行关联并保持一致,则可以通过解析ECIM文件中设备的RDF/ID,得到SVG文件中对应的设备ID,进而得到该设备对象的图形描述,实现图模一体化功能.

在建立统一的图形和数据模型的基础上,根据企业模型的属性值确定相应的实时数据库和存储数据库的表结构.同时,为实现企业数据的规划态、实时态和历史态的多态管理,将实时数据处理和转存至历史数据库,为企业能量分析和管理提供数据支撑.

3、能量分析和管理

在掌握了工业企业完整的能量消耗信息后,在企业层面或者区域能量监测中心层面实现系统级的能量分析和优化节能是企业能量管理的核心.企业集成能量管理系统是建立在电气监控系统之上的用电状态在线分析、评估与管理系统.主要包括5个功能模块:企业电网潮流计算、负荷预测和管理、动态无功优化调度、含分布式电源的企业节能调度以及企业能量平衡分析.

能量平衡分析模块在宏观上通过建立计算机远程信息采集和监控系统,实时监测并记录企业的用电能时间、设备运行状态、能源消耗参数等,自动分析对比能源使用状况,发现问题并提供解决方案,实现企业能源管理的信息化、自动化;微观上分析潮流分布和设备能耗状况、统计设备投入产出与能耗效率、确定企业内部准确的电能分配方式,探寻设备选型、设备配置、设备工作时段和工作周期的科学性和合理性。

通过企业潮流计算分析企业电网潮流分布,发现并纠正企业电网潮流不合理之处,优化调整网络结构,平衡负荷分布,高效地利用电力供应,挖掘生产制造潜力,提高生产效率.同时,企业潮流计算也是企业节能调度和动态无功优化功能实现的基础.考虑到部分企业自带分布式电源,采用改进前推回代法计算含分布式电源且可能存在弱环网的企业潮流。

企业负荷预测结合产品制造过程的各种能源消耗状态、企业节假日工作安排以及当地的天气环境因素,采用模糊粗糙集对企业负荷进行聚类分析,以聚类数据作为样本进行神经网络训练预测,为企业发展提供更精细的负荷预测数据.负荷管理模块合理调节企业用电的负荷曲线,结合用电峰谷电价,合理调整主要能耗设备的运行计划、运行参数,降低生产费用.负荷预测结果同时作为企业节能调度和无功优化的输入条件使用,其预测精度亦会影响企业节能调度和无功优化的结果。

由于用电企业是电能消耗的末端,无功随着生产设备的运行状态改变变化很多.在大电网分析模型的基础成果上,延伸建立大型工业企业电网仿真模型,结合企业负荷预测数据,融合模糊控制理论和快速跟踪补偿理论,以企业电网整体功率因素最大为目标(工业用电的调整电费),建立稳态补偿和快速跟踪补偿相结合的低压综合无功补偿模型,以达到优化用电网,实现企业电网的节能降耗。

随着分布式电源接入企业电网,原有的单一受电用户将成为集发电和用电于一体的微型电力网络.以企业负荷预测数据、分布式电源出力和发电成本数据以及电网分时电价为初始输入条件,以节能、经济和环保三大原则为目标给出多目标优化调度模型,用多目标粒子群优化算法对该模型进行求解,得到一日各时段内发电机出力的二维数据表。

参考文献:

[1]肖世杰.构建中国智能电网技术思考[J].电力系统自动化,2009,(9).

视频监控的关键技术 篇7

关键词:矿井视频监控,无线传输,MPEG-4编码,WiFi通信协议,RTP流媒体协议

0 引言

煤矿井下作业远离地面,地形复杂,安全隐患较多,瓦斯爆炸、地下渗水等事故频发。采用井下视频监控系统不仅可以对井下生产现场进行实时监控,而且能及时发现事故源头,防患于未然,更重要的是可以为事故分析提供第一手现场图像资料,对煤矿井下的安全生产具有重要的指导作用。基于此,笔者研究并实现了井下无线视频监控系统的关键技术[1]。

1 系统总体设计

井下无线视频监控系统主要包括井下数据发送端和地面监控主机(接收端)。井下数据发送端主要包括视频采集模块、视频压缩模块和视频发送模块。地面监控主机包括视频接收模块、视频解码模块和视频显示模块,实现了对视频数据的接收、解码和回显功能。

数据发送端采用三星公司生产的S3C6410作为主控制器,控制数字摄像头tvp5150不断采集视频图像,对采集到的数据进行压缩编码,为视频数据传输做准备。数据发送端应用程序的开发环境选用Linux嵌入式操作系统。结合Linux操作系统的特点和所选用的硬件平台,选用稳定、可靠的日志式文件系统Ext3作为根文件系统。

2 系统关键技术

2.1 视频采集

数据发送端使用Video4Linux2(V4l2)接口设置数据采集摄像头的参数以及调用设备驱动捕捉视频图像。V4l2是嵌入式Linux下视频设备的内核驱动,它为Linux环境下的应用程序提供了一系列接口函数,通过调用这些函数执行打开、读写和关闭设备等基本操作。

系统视频采集流程如图1所示。

2.2 视频编解码

本系统选用MPEG-4标准对采集的视频数据进行压缩编码。MPEG-4是目前网络多媒体传输的主要格式。它利用很窄的带宽通过帧重建技术来压缩图像数据,以求利用最少的数据获得最佳的图像质量[2],满足实时视频数据传输要求。MPEG-4标准占用的带宽可调,占用带宽与图像的清晰度成正比,从根本上解决了图像数字化和带宽之间的突出矛盾,实现了高质量视频图像的极高压缩比。

本系统选择开源软件xvidcore0.9.2版对视频图像进行MPEG-4编码。xvidcore的交叉编译过程:(1) 下载源码,并解压源码;(2) 设置环境变量;(3) 生成Makefile文件,./configure --prefix=/opt/xvid --disable-assembly-host =arm-linux;(4) 编译;(5) 安装。这时在/opt/xvid目录下就会出现所需的头文件和库文件。将库文件复制到开发板,目的是为视频编解码模块编程提供函数接口。

由于地面监控主机采用Windows XP操作系统,因此采用VS2005对xvidcore0.9.2进行编译。

2.3 视频数据网络传输

目前无线通信网络标准主要有3G、WiFi、Bluetooth、ZigBee等。其中WiFi相对于其它无线通信传输标准来说,具有传输速率高、支持协议多、结构灵活、成本低等特点,所以井下无线视频监控系统采用WiFi标准搭建无线网络环境[6]。

2.3.1 WiFi无线网络的搭建

(1) 通过modprobe命令加载WiFi模块。

(2) 用ifconfig eth0 up命令打开WiFi网络接口。

(3) 用wpa_supplicant设置无线网络。wpa_supplicant是WPA/WPA2认证的客户端,同时也适用于WEAP,有线、无线网络都可以使用其进行配置。首先移植wpa_supplicant至开发板,然后执行wpa_supplicant-B-ieth0-c/etc/tkip.conf命令后就可以连接到无线网络上。这里tkip.conf文件保存了可用的无线网络配置。

(4) wpa_supplicant提供了用Qt编写的GUI应用程序wpa_gui。通过该程序可以搜索当前可用的无线网络并对其进行配置。对于已成功配置的无线网络源,可选择将其保存到tkip.conf文件中。在本系统的设计中,笔者对wpa_gui源码进行修改,增加了手动配置和自动配置两种设定IP地址的方法。

2.3.2 基于RTP协议的视频数据传输

RTP(Real-time Transport Protocol,实时传输网络协议)是目前常用的在Internet上处理多媒体数据流的网络协议。利用该协议能够在一对一(单播)或一对多(多播)的网络环境中实现流媒体数据的实时传输。本系统采用Jrtplib-3.7.1实现流媒体数据的网络传输。Jrtplib是一个用C++语言编写的开源RTP库,它完全遵循RFC1889协议设计,可运行在Linux、Windows等多种操作系统上。

在带宽比较低的情况下,图像数据丢帧现象较为严重,对监控主机的视频质量影响很大。本系统采用对一帧视频图像压缩后的数据拆帧再发送的方法来减少丢帧率。监控主机依据RTP包头中的时间戳顺序对接收到的数据重组。由于本系统的网络最大有效载荷为1 500个字节,所以将每个RTP包所包含的数据字段定义为不大于1 400个字节。具体流程如图2所示。

监控主机依据RTP包头中的mark标志位来判断一帧数据是否接收完成。如果mark标志位为0,表示尚未完成当前帧的传送;如果mark标志位为1,表示当前帧接收完成,开始接收下一帧数据。

3 系统实现

井下无线视频监控系统采用Qte4.7.2编程实现。Qte是一个多平台的C++图形用户界面开发包,采用面向对象的编程思想,并且支持组件编程。系统主要实现多路视频监控、拍照、历史视频数据回放、无人值守方式监控等功能。

监控主机应用程序界面可同时显示4路井下视频图像。在正确设置每一路监听端口等网络信息后即可开启视频监控。用户在该界面上可设置无人值守监控方式的视频捕捉时间间隔,设置完后开启无人值守监控功能,系统即可定时捕捉视频图像,并将视频数据以avi格式保存到指定文件夹下。当用户需要查看历史视频图像时,该界面将以avi格式播放指定的监控图像。用户还可通过该界面查询井下违章记录。

数据发送端在发送视频数据前,需要正确设置监控主机的IP地址、监听端口等信息。数据发送端界面如图3所示。点击“显示视频”按钮,可以实时显示本地摄像头采集到的视频图像。

4 结语

在PC机上对井下无线视频监控系统进行测试,结果表明,该系统每秒可传输25帧MPEG-4视频数据,且监控主机端的视频图像清晰流畅。

参考文献

[1]刘艳兵,杨维,王曙光,等.煤矿井下无线视频监控系统的设计与实现[J].湖南科技大学学报:自然科学版,2009,24(4):16-20.

[2]艾书华,徐立鸿,徐盛林.MPEG-4在嵌入式视频监控系统中的实现[J].计算机测量与控制,2006,14(1):67-69.

[3]钱华明,刘英明,张振旅.基于S3C2410嵌入式无线视频监控系统的设计[J].安防科技,2009(9):1132-1134.

[4]刘富强.数字视频监控系统开发及应用[M].北京:机械工业出版社,2003.

[5]李振玉.图像通信与监控系统[M].北京:北京邮电大学出版社,1994.

视频监控的关键技术 篇8

近年来, 随着嵌入式技术的出现及人们对降低监控系统成本和提高可靠性的迫切需求, 基于嵌入式系统的网络视频监控系统将成为新的研发热点。这种技术是在传统视频监控系统的基础上, 结合网络技术, 使视频监控方式更加多元化。不仅可以方便的对原有的监控结构进行更改, 更可以再移动物体上部署监控点, 使得监控面积和距离都得到了大幅度提高, 而且省去了布线等繁琐工作。

在这样的背景下, 主要研究基于ARM处理器和嵌入式操作系统来实现监控系统。ARM处理器是一种低成本、低功耗、高性能的16/32位微处理器, 而且拥有丰富的界面资源。鉴于目前大多数无线网络视频监控系统在传输速率方面存在的问题, 本文采用总线接口的802.11g无线局域网基带芯片, 设计了一个基于ARM9处理器和嵌入式Windows CE实时操作系统的无线视频监控终端系统, 能提供54Mbps的数据传输率, 为大容量视频数据的传输提供了高速传输通道。该无线视频监控终端可通过无线API方便地接入无线局域网和有线局域网, 只需在一定范围内, 安装无线接入点就可以和网内任何一个无线视频监控终端以及带无线局域网卡的上位监控主机通信。

2 系统总体设计

嵌入式无线视频监控终端是基于ARM9处理器S3C2410、Windows CE操作系统、802.119无线局域网络技术和目前比较成熟的MPEG-4视频硬件编码技术的新型无线视频监控终端系统。除了具有较高的网络传输速率和高精度硬件实时编码外, 再加上Windows CE强大的网络和多媒体功能, 使的该系统不仅具有可行性, 而且开发周期短。

无线视频监控终端将采集到的模拟视频先进行A/D转换, 然后经过MPEG-4编码芯片编码后由S3C2410主控制器读入主存, 最后经无线模块通过无线局域网将编码后的视频流发送给上位监控主机。监控主机既可以是具有无线功能的笔记本或者平板电脑, 也可以是通过以太网与无线AP相连接的Pc机。监控主机对接收到的视频流进行MPEG-4解码后播放, 实现对现场实时视频监控, 也可以将接收到的视频流保存为文件, 便于以后查看。

3 开发环境及移植技术

3.1 集成开发环境

Windows CE.NET的集成开发环境是微软官方提供的Platform Builder, 它提供了进行设计、创建、编译、测试和调试Windows CE.NET操作系统平台的所有工具, 适用于定制基于Windows CE.NET操作系统的嵌入式系统。对于一些通用性较强的嵌入式系统, 如智能电话数字媒体接收设备、企业终端、企业Web Pad、网关、工业控制设备、Internet设备、IP电话、移动手持设备、移动电话和机顶盒等, 微软都为其特别定制了专用的操作系统。开发者可以在此基础上进行开发。

3.2 标准包和驱动移植

自带的支持三星S3C2410标准BSP的基础上根据硬件平台的实际需求进行二次开发即移植而成的。SMDK2410板级支持包是基于三星S3C2410处理器开发的, 也是本系统中0S移植的基础。移植时先对照SMDK2410对应的标准开发板硬件和本系统实际硬件的区别, 然后有针对性的进行移植。一般在设计硬件时尽可能的使用和标准开发板一样的器件, 这样对应的BSP中相关文件代码及驱动少做修改就可以使用。

引导驱动是嵌入式系统上电最先运行的程序代码, 它跳转到中断向量表入口, 先进入特权模式, 关闭各种模式的中断。然后开始做各种初始化工作, 如初始化通用I/O、各种控制器、CPU状态、静态、动态存储器、时钟、串口、FLASH和网口等相关外设。然后通过串口与用户交互完成网络配置及相关设置, 最后完成Windows CE内核的下载和引导。

4 结语

时下, 嵌入式无线视频监控系统在各个领域有着广泛的应用前景, 特别是利用无线局域网进行远程视频监控的嵌入式系统应用是近年研究的新课题。本课题设计的无线视频监控终端选用了视频采集芯片、MPEG-4编码芯片、总线接口的802.1lg无线基带芯片、ARM9 SOC处理器和Windows CE嵌入式操作系统, 实现了无线视频监控终端的基本功能

参考文献

[1]刘富强.数字视频监控系统开发及应用.北京:机械工业出版社, 2003

[2]钱进.无线局域网技术与应用.北京:电子工业出版社, 2004

[3]蔡俊.无线局域网技术标准及其比较.中国数据通信, 2002

[4]马忠梅, 等著.ARM嵌入式处理器结构与应用.北京航空航天大学出版社, 2002.1

视频云直播中的关键帧技术探秘 篇9

在视频领域, 电影、电视、数字视频等可视为随时间连续变换的许多张画面, 而帧则指这些画面当中的每一张。不过如果按照如此的方式存储视频的话, 文件势必会变得很大, 所以需要专门的算法对视频文件进行编码。一旦视频进行编码之后, 得到的文件可以看做是连续的一组帧的集合, 而这一组帧中的每一个都是有自己的类型的。帧的类型分为以下3种:

*Inter Frame (I帧)

*P-Frame (P帧)

*B-Frame (B帧)

对于B帧和P帧来说需找到对应的一个或者多个参考帧才能解码出来 (如图1) 。

对于非I帧来说想要进行解码就需要多个参考帧进行计算, 由此引出了Groupof Picture (以下简称Go P) 的概念。

对于P帧和B帧来说, 他们所包含的内容可以理解为针对其参考帧的一个patch, 也就是一个变化量。

Go P性能调优分析

Go P顾名思义就是有一组帧组成的一个序列。Wikipedia上给出的一个图简单的解释了Go P是怎么回事 (如图2) 。

Go P由I帧开始, 后面跟随者一组B帧和P帧, 直到下一个I帧之前的帧为一个Go P。了解了Go P之后, 就会发现播放器只有在拿到某个Go P中的I帧之后才能播放视频。

Go P到底应该设置多大?那么Go P的大小到底有什么影响呢?

Go P设置较大时:

好处:由于B帧和P帧的字节大小会比I帧小很多, 所以Go P越长, 所包含的B帧和P帧越多, 相应的压缩比也会更高, 在同样的码率下, 视频会更清晰一些。

坏处:对于视频直播来说, 播放器连接到服务器的时间是不固定的, 当播放器在Go P中间连接服务器, 并获取了中间的B帧和P帧, 这时播放器是无法对这些帧进行解码的, 需要进行丢弃。所以会导致客户端的首屏播放时间变长。

Go P设置较小时:

好处:由于Go P设置小可以降低I帧间隔时间, 对于直播来说可以实现秒开的功能。

坏处:由于Go P时间比较短, 会导致I帧的比例增高, 压缩比降低。同样码率情况下视频的质量会有所下降。

为什么HLS视频加载会慢?

HLS格式的视频分为两个部分。首先, HLS会根据指定的切片时间和实际的Go P大小对视频进行切割, 并生成.ts文件。其次, HLS会生成一个.m3u8文件来保存这些ts文件的索引。

对于.ts文件的切割来讲, 并不是告诉直播服务器指定1秒切一个.ts文件他就能保证1秒切一个.ts文件的。.ts文件的切割还是要根据直播视频的实际Go P大小来进行切割的。之前已经讲过, 任何一个视频流在播放端需要能获取到完整的Go P才能播放, 所以一个.ts文件所实际包含的时间是Go P的整数倍。

例如:当视频的Go P设置为1秒, .ts切片时间为2秒时, 实际的.ts文件切片所包含的视频为2秒。当视频的Go P设置为5秒, .ts切片时间为2妙时, 实际的.ts文件切片所包含的视频为5秒。

如果视频流的Go P大小设置不合适的话, 那么HLS的切片时间就会变长, 同时也会增加HLS的延迟。这个特性对于HLS直播来讲简直就是延迟杀手。

如果是HLS点播的话, 流的Go P设置过大也会影响点播视频的加载时间。一般的一个720P的视频, 如果切片时间为2秒的话, 单个.ts文件也就是在百K字节上下。但如果源视频的Go P很大, 会导致第一个.ts文件所包含的视频时常变长 (比如10秒) , 同时导致.ts文件的大小膨胀到接近1M字节上下。

为什么RTMP直播首屏渲染速度很慢?

RTMP协议本身也会抽象出一个Packet的概念来封装H264编码中的帧, 也就是一个Packet会包含1到多个帧, 播放器以Packet为单位来进行解码。那么RTMP的问题在于客户端连接的时间点是否合适。

例如一个RTMP直播流的Go P设置为2秒, 如果客户端接入时间刚好是第4秒, 那么客户端会获取一个包含I帧的Packet, 由于I帧是自描述的, 所以客户端可以直接解码出该帧的画面并显示出来。但是当客户端的接入之间为第5秒, 那么他会获得一个包含B帧或者P帧的Packet, 由于客户端拿到的数据是一个不完整的Go P, 所以客户端只好抛弃当前获取的Packet中视频的数据, 而且只有当获取到包含下一个Go P的I帧的Packet时才能解码出图像。因此客户端会等待1秒才能播放出画面。

由此我们可以得出一个结论:Go P的大小会影响RTMP播放端的首帧加载时间。

为了优化首帧加载时间, 我们可以在流媒体服务器端增加一个缓存, 把上一个Go P缓存在内存中。如果客户端接入的话, 我们首先放出来的是上一个Go P。这样客户端接到的数据永远是一I帧开头的数据。

结论

在视频直播和点播盛行的年代, 对于Go P大小的取舍还是需要看具体应用场景。对于直播来讲, 对延迟要求敏感的应用来说, 1~2秒的Go P大小还是比较合适的, 至于Go P缓存来讲, 还是不用为好。如果是对延迟要求不敏感, 对首屏播放时间很敏感的应用, Go P还是1~2秒最为合适, Go P缓存应该是必备的。另外直播使用HLS的话, 延迟是绝对PK不过RTMP的。

对于点播的应用来说, 视频加载速度是个硬指标, 如果不是HLS格式的话, Go P大小适当选大一点可以降低视频文件大小, 提高视频打开速度。

HLS格式的话, 还是推荐在2秒左右, 否则很影响视频打开速度的。

视频监控的关键技术 篇10

在视频监控领域,数字化、多路化、高分辨力和小型化应经成为一种趋势,实时动态视频采集和传输已经成为一种趋势,已经成为信息和计算机领域的研究热点。目前,常见的设计方案主要有4种:1)基于专用的视频采集卡的方案,该方案的缺点是只能进行上层的应用软件开发,不能对其硬件电路进行更改,体积大,成本高,不适合嵌入式应用领域[1];2)基于专用的多媒体嵌入式处理器的方案,该方案的缺点是每路视频采集都需要独立的视频编码解码芯片和处理器,进行多路视频采集时有局限性,浪费了大量的处理器资源[2];3)基于FPGA的方案,FPGA主要面向逻辑控制和时序控制,可实现多路视频信号的采集,但是要实现视频信号的编码相对困难[3,4];4)基于DSP技术的方案,该方案设计灵活,但是不适合进行上层应用程序的开发,且设计复杂、开发周期长、成本高[5,6]。

1 系统总体结构

系统主要有4个部分组成:1)多路模拟视频输入单元,由4个模拟摄像机组成;2)多路视频信号采集单元,由FPGA芯片、4片视频解码芯片(SAA7111)、2片SRAM、时钟源和配置电路组成,完成对4路模拟视频信号的采集、存储和整合,并以BT.656格式的视频信号输出到下一个单元;3)视频信号压缩编码和传输单元,由ARM11高性能处理器(S3C6410)、外围存储器、以太网模块等组成,利用Camera IF接收整合后的多路视频信号,在MFC模块中对输入的视频信号进行H.264压缩,并通过IP网络发送到远程监控端;4)远程监控单元,一方面可以显示远端采集的视频信号,另一方面,也可以用于控制远端多路视频采集系统,如视频矩阵的切换和云台控制等。整个系统组成如图1所示。多路视频信号采集单元和视频信号压缩编码和传输单元是系统的核心,在设计时需要解决以下问题:1)多路视频信号的时钟同步;2)多路视频信号数据的储存;3)FPGA与ARM11数据接口的实现;4)对视频数据的压缩编码。

2 关键技术研究

2.1 多路视频信号的时钟同步

FPGA通过I2C总线,对4片SAA7111进行工作模型、输入端口、色彩控制和输出格式等图像采集的控制参数进行配置,以上参数中较重要的是输出数据格式。SAA7111支持的输出数据格式有411(12 bit)、422(15 bit)、CCIR-656(8 bit)、RGB(16 bit)和RGB(24 bit),为了便于与后续单元的数据传输和对视频数据的压缩编码,这里将SAA7111输出的数据格式配置成CCIR-656(8 bit)。该接口使用8 bit的复合YUV数据和27 MHz的时钟,分辨力是720×576,不需要使用传统的视频时序信号(HSYNC,VSYNC和BLANK),将时序代码嵌入到视频流中,可以减少芯片接口的引脚数量[7]。

由于4片SAA7111在工作时是不同步的,每次上电后输出的时钟和数据都具有不确定性,而最终采集到的4路视频数据要求存储在同一显示缓存中的相应位置处,因此必须要对4片SAA7111输出的视频信号进行同步。利用FPGA内部的锁相环模块,对任意一路(这里不妨设成第1路)SAA7111的输出像素时钟信号LLC(27 MHz)进行4倍频,生成采样时钟信号sample_clock(108 MHz),这样在4个sample_clock周期内刚好完成对每路视频信号的1次采集;以第1路SAA7111输出的帧同步信号(VREF1)为基准,当其输出第1个需要采集的像素点时,开始进行采样,这样又可以在1个帧周期内,完成对4路视频信号中所有需要的像素点的采样。采集时序如图2所示。

2.2 对多路视频数据的缓存

系统中的FPGA需要先对4片SAA7111采集到的有效数据进行缓存,然后通过以BY.656视频格式将数据发送给ARM11,进行编码处理,此过程存在以下3个问题需要解决:1)显示缓存是16 bit的SRAM,而BT.656视频格式的数据是8 bit,因此不能直接将采集到的视频信号存储到SRAM中,也不能直接将SRAM中的数据读出发送给ARM11;2)为了保证视频数据传输的高时效性,FP-GA必须将缓存SRAM中的数据及时读出,发送给ARM11,因此存在FPGA向SRAM中同时读写数据的冲突问题;3)FPGA对4路视频数据采集的时钟sample_clock频率为108 MHz,BT.656视频格式的时钟频率为27 MHz,而FPGA读写SRAM也有严格的时序要求,因此需要合理解决FPGA读写SRAM时钟、FPGA采集数据时钟和BT.656视频时钟之间的同步。这里,使用FIFO电路和读写SRAM时分复用机制,解决上述问题。

在视频缓存操作模块中,对于与多路视频采集模块相连的输入端,设置4组输入FIFO组,分别缓存采集到的4路视频数据;每组FIFO又由3个队列,分别缓存Y,U,V分量。通过四选一控制器,判断选择相应的FIFO组中的数据。每对SRAM进行1次写操作,都要读取某路FIFO组中的U队列(或V队列)和Y队列中的数据各1次,共16 bit的数据,存储到SRAM中的1个单元中。对于与BT.656视频流生成模块相连的输出端,需要设置一组输出FIFO组,同样也由分别缓存Y,U,V分量的队列组成。每对SRAM进行一次读操作,将数据的高8 bit放置在U(V)队列中,将低8 bit放置在Y队列中。这里需要说明的是,由于U,Y和V分量是同步的,因此每个FIFO组的3个FIFO队列的“满”或“空”状态也是同步的,程序设计时使用任意一个队列的状态信号即可。对多路视频信号的缓存过程,如图3所示。

系统采用的“读写SRAM时分复用机制”,就是根据以FPGA内部主时钟master_clk为基准,根据对多路视频信号的采集、BT.656视频格式、读写SRAM三者的时序要求,按照一定的时间间隔,分时对SRAM进行读操作和写操作,不仅解决了一片SRAM作为视频数据缓存所存在的读写冲突问题,也解决了上述3个时序信号的同步问题。读写SRAM的时分复用原理如图4所示。

对第1路SAA7111的LLC(27 MHz)进行8倍频,得到FPGA工作的主时钟mater_clk(216 MHz)。以master_clk为基准时钟,以其下降沿为触发条件,根据输入FIFO组的“空”标志信号和输出FIFO的“满”标志信号的状态,进行SRAM读写状态的判定。以对读SRAM操作的判定为例,原则如下:当master_clk下降沿第一次到来时,master_clk应为高电平(sram_r/w初始状态为0),FP-GA进入读操作判断状态(r0)。若输出FIFO组非满,表明可以从SRAM中读取数据,在接下来的3个主时钟周期里,依次跳转到r1,r2,r3和r4这4个状态,完成1次读SRAM操作;若显示数据输出模块中的FIFO电路满,则不能再对SRAM进行读操作,在接下来的3个主时钟周期内,依次跳转到r4,r5和r6这3个状态,在这4个状态里不对SRAM进行任何操作,仅起到延时作用。对写SRAM操作的进行判定时,则参考输入FIFO组的“空”标识信号状态为依据。这样,经过上述r0→r1→r2→r3(或r0→r4→r5→r6)→w0→w1→w2→w3(或w0→w4→w5→w6)→r0共8个状态的切换,刚好是1个LLC信号或BT.656视频时钟信号周期,完成对SRAM的读写操作各1次。

2.3 FPGA与ARM11数据接口的实现

为了能对采集后的多路视频信号进行压缩编码,FP-GA要将显示缓存(SRAM)中的视频数据以BT.656格式输出,因为SAA7111输出的数据格式应经配置成YUV656(8 bit),因此这里需要再次生成BT.656视频的时序信号,将视频缓存操作模块中的输出FIFO中的数据读出即可。

选用20 MHz的外部时钟源,利用FPGA内部锁相环生成系统的主时钟27 MHz,即BT.656视频标准的像素时钟频率。在设计视频时序信号时,设置一个20 bit像素时钟计数器的(pclk_counter),对像素时钟信号(pclk)进行计数;设置一个4 bit的状态转移标识变量status,根据pclk_counter的值确定状态值,在10个状态之间进行切换;设置一个10 bit的行计数器(line_counter),对输出视频的行进行计数。BT.656视频时序信号生成的状态转移如图5所示。

2.4 视频信号的压缩编码

系统的ARM处理器S3C6410,内部集成的多媒体编解码器(MFC)支持MPEG4/H.263/H.264的编码与解码,并支持VC1解码,性能可以达到全双工30 f/s@640×480同时编解码和半双工30 f/s@720×480或25 f/s@720×576编解码。同时,自带摄像头接口(Camera IF),可以支持ITU R BT-601/656 YUV 8 bit标准的视频数据,支持90°旋转功能,有2个DMA输出通道,1个与其显示控制器相连,用于本地显示,1个与MFC相连,用于视频数据的编解码后续处理[8]。系统所使用的处理器S3C6410的生产厂商三星公司已经提供了相应的操作系统s3c-linux-2.6.21的源码,以及摄像头模块、MFC和网络设备的驱动源码,在此只须对操作系统内核各功能模块进行剪裁,再创建镜像文件即可,具体方法不再赘述。

ARM处理器接收视频数据及编码过程的如图6所示。S3C6410利用Camera IF接口接收FPGA采集到的多路视频信号,将FPGA作为一个设备文件映射到内存中,绕过了内核缓冲区,进程可以像访问普通内存一样对文件进行访问,同时还可采用了双缓存的思想设计,加快了视频数据的读写速度。同样,加载了MFC驱动之后,可以像操作普通文件一样调用MFC函数对视频数据进行H.264编码。最后,经编码后的视频数据,通过系统的网络接口进行远程传输,远端监控主机利用一般的视频解码软件进行解码即可。

3 结论

系统基于ARM11和FPGA实时对多路视频信号进行采集、编码和传输,实现了多路视频监控功能,测试采集传输VGA的图像可达到25 f/s,图像经过H.264编码后平均每帧只有12 kbit左右,占用网络宽带很少,传输图像清晰稳定,具有很强的实用性和广阔的应用前景。

摘要:针对当前多路视频采集远程传输系统存在的问题,提出一种基于ARM11和FPGA的解决方案,分析了系统的组成结构和关键技术。应用FPGA首先实现了对多路视频信号的同步采集,其次解决了对视频缓存操作过程中的存储、读写冲突及时钟同步问题,最后生成BT.656格式视频流进行后续处理。利用高性能ARM11处理器内部MFC模块,完成了对视频信号的H.264编码。系统采集到的多路视频信号通过网络发送,监控端实时接收数据,进行解码后显示,具有广阔的应用前景。

关键词:多路视频,采集传输,ARM11,FPGA

参考文献

[1]雷刚勇.多路视频远程监控系统(客户端)的设计与实现[D].西安:西安电子科技大学,2006.

[2]姚琳.安防监控热门方案评价[J].电子设计技术,2009(4):87-95.

[3]周鑫,何建新,李学华.门禁系统视频监控电路设计[J].微计算机信息,2009,25(1):310-312.

[4]胡健生,臧晓昱.嵌入式多路视频采集显示系统设计[J].液晶与显示,2010,25(6):831-835.

[5]梁修如,严国萍.嵌入式视频监控服务器系统典型方案及其性能分析[J].电视技术,2005,29(10):93-96.

[6]席鑫宁,潘宏侠.基于DSP的LCD模块设计及其设备状态监控系统中的应用[J].液晶与显示,2009,24(1):110-115.

[7]Intersil Corporation.BT.656video interface for ICs application note[EB/OL].[2011-03-27].http://www.datasheet.net/document/app-noteBT.656%20Video%20Interface%20for%20Ics?id=1767350.

腾讯视频:强情节是付费增长关键 篇11

近日,腾讯视频宣布9月推出一部都市题材的IP大剧《大猫追爱记》,继续探索会员付费模式。这是部由海润影视、新丽传媒联合出品的电视剧,改编自人气女作家阿巳的畅销小说《大猫儿的TT奋斗史》,由海清、陈思成主演。

“在付费收看方面,我们尝试过有广泛受众基础的强IP古装大剧《华胥引》,也尝试了纯原创,无明星的现代都市剧《裸嫁时代》,这次我们想尝试下有明星、强IP的都市剧。我们希望通过对不同题材,不同演员阵容,不同卫视播出平台、不同级别IP内容的试验了解用户的需求和口味以及对付费会员产生的拉动作用。”腾讯视频电视剧中心副总监方芳告诉《综艺报》。

“台随网动”的双赢模式视频网站的会员付费机制,由来已久。之所以在2015年这个暑期档突然引爆,除了用户收看行为习惯的改变外,更重要的原因是打开了电视剧的大门。

“以前视频网站的付费收看,内容主要集中在电影上。相比电视剧,其覆盖人群较窄。对任何一家平台来说,电视剧内容才是‘大户’。而且电影独立成篇,不像电视剧有很强的情节连贯性因此对用户的黏性很低。从今年开始,电视剧内容开始进入付费频道,尤其是暑期《盗墓笔记》《华胥引》两部超强IP开启收费模式后,用户量暴涨,让人们看到了付费市场的巨大潜力。所以业界会认为‘台风’来了,视频网站正式迈入付费时代。”方芳解释。

此前,视频网站对电视剧免费播放,是市场博弈的结果。制作方生产出电视剧后,第一发行对象肯定是电视台,网络版权只是附属品。视频网站只能跟播,在播出时间和节奏掌控上,没有话语权。因为电视台采用的是卖剧场模式,电视剧供观众免费观看,所以视频网站只能跟随着免费播放,但视频网站主要收入来源与电视台模式大同小异都是收取广告费。而在自制内容上,“网剧”往往是粗制滥造的代名词,被贴上了低水平的标签。

但是随着视频网站对优质内容的渴求,以及竞争实力的不断上升,目前视频网站的内容运作拥有了更大的操作空间。

爱奇艺的《盗墓笔记》和腾讯视频的《华胥引》,可以看成是两个不同领域的付费内容代表。《盗墓笔记》代表了视频网站的自制剧,《华胥引》代表了视频网站的采购剧。“《盗墓笔记》是自制内容,可以不受电视台的限制,意味着它想何时收费就何时收费,想从第几集收费就可以从第几集收费,把控性非常强。《华胥引》是要发行到卫视的我们面临的问题是如何说服电视台。电视台会担心付费抢先看全集后影响到电视台的收视率,还有就是盗版问题。”方芳告诉记者。

最终,腾讯视频说服了江西卫视和四川卫视,共同进行了先网后台的探索尝试。“上线第一天效果非常好,超出了我们的预期。《华胥引》这部剧为腾讯视频带来了超过100万的付费会员。”方芳称。为了防止盗版出现,腾讯视频的法务部门进行了24小时的全网监控。

《华胥引》作为知名度极高的热门古装偶像剧,采用了每日24点更新两集,7月9日会员看全集的模式,成为第一部让视频网站会员先于电视观众独享全集的电视剧。有业内人士表示,这种台网联动模式未来很可能成为热门电视剧的标配。

由于电视台观众和视频网站用户交叉不多,所以最终结果显示并未影响到电视台的收视率。同时,因为各自平台都拿出了全平台的资源做营销推广,所以最终取得了双赢结果。“通过这部剧我们发现,强情节电视剧,当它的故事内容足够吸引用户时,人们是非常愿意买单的。研究每天付费情况,结合具体剧情可以得出这个结论。例如当《华胥引》故事推进到第8集后,观众的购买意愿明显增高。”方芳介绍,《华胥引》的网络播出量累计目前已超过10亿次。

提升会员留存率

腾讯视频最早对付费电视剧的尝试始于去年底。2014年11月,腾讯视频宣布和好莱坞最具影响力的有线电视台HBO,制作公司华纳兄弟达成战略合作,成为HBO在中国大陆视频平台上的独家官方授权播放平台,播放其900集最优质影视内容。

“对方在版权合作中提出,要求内容必须进入付费频道,因此在免费3个月后开始收费,包括《权利的游戏》《新闻编辑室内》等重量级作品也因此带来了付费会员的快速增长。电视剧付费收看,满足了用户不必再受追剧时等待的痛苦可以提前享受内容。”方芳说。

在试水HBO和《华胥引》成功后,腾讯视频又在进行另一部付费电视剧《裸嫁时代》的付费尝试。“这部剧是江西卫视接档《华胥引》的,我们希望看看一个完全原创的故事,没有明星号召力同样是在二三线卫视平台播出,最终用户的买单行为会取得怎样的效果。事实证明,这部剧的收费表现尽管与《华胥引》差距很大,但与同级别的电影相比,还是要强很多,这让我们对电视剧的付费业务非常有信心。”方芳告诉《综艺报》。

接下来,《大猫追爱记》将继续试水收费依然采用“免费用户跟播+会员付费看全集”的“台随网动”模式。“这仍然是一次试验,突破在于这部剧的播出平台是安徽卫视,是与一个更大电视平台的合作。未来,我们还会做各种不同的尝试。”

方芳告诉记者,腾讯视频首选的付费项目,依然看好粉丝基础强大的大IP古装剧。可以想见,今后视频网站对于热门IP内容的争夺,肯定将更加激烈和白热化。“为了提升会员的留存率,就要不断有新的内容补充进来。一部热剧播完了,如果有同样差不多的内容进来,观众就会继续买单。所以付费业务若想做大做强,就要有优质内容持续注入市场大盘。”方芳说。

视频监控的关键技术 篇12

随着音视频产业的迅速发展,原有的视频编码标准已经落后,对视频编码标准提出了新的需求。2003年,由ITU-T和ISO/IEC组成的联合视频组(JVT)推出了新一代的视频编码标准H.264/AVC[1]。H.264/AVC采用了比以前标准更为先进的技术,具有更高的压缩效率、良好的网络适应性和容错性等特点,因而被工业界迅速推广。

与此同时,为了降低国内音视频产业的专利费负担、提升国内企业的核心竞争力,由国家信息产业部于2002年6月批准成立“数字音视频编码技术标准工作组”联合国内从事数字音视频编码技术研发的科研机构和企业,针对国内音视频产业的需求,提出了我国自主的信源编码标准—《信息技术 先进音视频编码》系列标准,简称AVS(Audio and Video coding Standard)。该标准一共包括9个部分,其中第二部分(AVS-P2)[2]和第七部分(AVS-P7)[3]为视频编码标准。2006年2月,AVS-P2被正式批准为国家标准,国家标准号GB/T 20090.2-2006, 并定于2006年3月1日起实施。

2 AVS-P2

AVS-P2是AVS系列标准的第二部分,主要针对高清晰度数字电视广播和高密度存储媒体应用,主要的编码技术包括:帧内预测技术、亚像素插值和帧间预测技术、变换和量化技术、熵编码技术以及环路滤波技术。目前,AVS-P2已定义了一个档次,即基准档次。档次又分为四个级别,分别对应标清和高清的应用。

2.1 帧内预测

AVS-P2和H.264/AVC都采用了基于空域的帧内预测的思路,与以往的基于频域的帧内预测方法不一样,以代表空域的纹理方向为预测模式,利用当前块的相邻像素直接对每个系数进行预测,更有效地去除了相邻块之间的相关性,提高了帧内编码的效率。不同的是,H.264/AVC根据图像纹理细节的不同,将亮度信号的帧内预测分为9种4×4块的预测方式和4种16×16块的预测方式,而AVS-P2亮度信号和色度信号的帧内预测均以8×8块为单位,亮度块采用5种预测模式[4],色度块采用4种预测模式(见表1),在降低了预测复杂度的同时,兼顾了高清视频的特点并充分利用了人眼的视觉掩盖效应。与4×4块为单位帧内预测相比,8×8块预测将增大预测样本和参考样本间的距离,从而降低了预测样本和参考样本间的相关性,因此,AVS-P2的Intra_8x8_DC、Intra_8x8_Down_Left和Intra_8x8_Down_Right模式中先采用三抽头低通滤波器(1,2,1)对参考样本进行滤波。此外,AVS-P2的DC模式中每个像素值由水平和垂直位置相应参考像素值来预测,所以每个像素的预测值可能不相同,

这一点的改进,较之H.264/AVC中的DC预测,更为精确。

AVS-P2在预测模式较少的情况下,能够获得与H.264/AVC相当的视频质量,但实现的复杂度大大降低。实验表明,AVS-P2的5种模式与H.264/AVC中的9种模式相比,仅损失0.05dB的PSNR增益[5]。

2.2 帧间预测

AVS-P2和H.264/AVC均支持P帧和B帧两种帧间预测图像,H.264/AVC中充分利用了图片间时域的相关性,允许P帧和B帧有多个参考帧,最多可以有16个参考帧,多帧参考在提高压缩效率的同时也极大的增加了存储空间与数据存储的开销。实验表明,参考帧超过2帧以上所带来的压缩效率的提高已经

不是很明显[6]。所以,AVS-P2允许P帧最多可以有2帧前向参考帧,B帧可以有前后各一个参考帧,在稍损失压缩效率的同时大大降低了算法实现的复杂度和开销。在B帧的预测中,H.264/AVC在双向预测时需编码前后两个运动矢量,AVS-P2中,双向预测有对称预测和直接预测两种模式。对称模式中每个宏块只需传送一个前向运动矢量,后向运动矢量由前向运动矢量根据一定的规则推导得到,直接模式中前后向运动矢量都由后向参考图像中相应位置块的运动矢量获得,无需传输运动矢量,因而节省了运动矢量的编码开销。

可变预测块是AVS和H.264/AVC的一个新特点,H.264/AVC支持16×16、16×8、8×16、8×8、8×4、4×8、4×4块七种模式[7]的运动预测和补偿,而AVS-P2仅支持16×16、16×8、8×16、8×8块四种模式的运动预测和补偿。运动估计和运动补偿是整个视频编码框架中最复杂也是最重要的部分,运动估计和运动补偿算法的运算开销将直接决定整个编码算法需要的运算开销。实验表明,小于8×8块的划分模式对于高分辨率编码影响甚小(如图1)[6],AVS-P2在保证满足高清视频需求的同时,采用更少的预测块模式,从而大大降低了运动估计和运动补偿算法的复杂度,也由此降低了运动矢量和块模式传输的开销以及环路滤波中模式选择的复杂度和滤波块的边界数目,提高了压缩效率,弥补了因预测块模式的减少带来的压缩效率的降低。

AVS-P2和H.264/AVC均支持1/4像素(亮度)和1/8像素(色度)精度的运动矢量。但在亚像素插值方法上,二者各不相同。H.264/AVC采用6抽头滤波器(1/32,5/32,5/8,5/8,5/32,1/32)进行半像素的卷积内插方案并采用双线性滤波器进行1/4像素插值,AVS-P2采用了简化设计方案,亮度的1/2像素插值采用4抽头滤波器(-1/8,5/8,5/8,-1/8),1/4像素插值中一维1/4像素采用4抽头滤波器(1/16,7/16,7/16,1/16),二维1/4像素采用双线性滤波器(1/2,1/2)。与H.264/AVC的插值算法相比,AVS-P2使用了更少参考像素点,从而减少了数据带宽,而且具有与H.264/AVC相当的性能。

2.3 变换量化

AVS-P2和H.264/AVC均采用整数余弦变换(ICT,Integer Cosine Transform)编码方案,从而克服了之前的视频标准变换编码中存在的固有失配问题。采用ICT 进行变换和量化的结合编码中,由于变换基矢量模的大小不一,因此需要对变换系数进行不同程度的缩放以达到归一。在缩放方案的选择上,H.264/AVC采用编码端缩放和量化相结合,解码的反缩放和反量化相结合的方案,而AVS-P2中采用带PIT(Pre-Scaled Inter Transform) 整数变换技术,在编码端将正向缩放、量化、反向缩放结合在一起,解码端只需要进行反量化操作(如图2)。PIT技术的采用,减低了AVS-P2在解码端的运算和存储开销,这意味着只需要更低的功耗和资源就能实现AVS-P2的解码。

在变换块大小的选择上,H.264/AVC采用4×4的变换块,而AVS-P2采用8×8的变换块,与4×4的变换块相比,8×8的变换块能够使能量更加集中,在高分辨率的视频应用中,具有更好的去相关性能,能够保留更多的高频细节。此外,H.264/AVC在4×4块变换后,还需要对变换后的直流系数再进行一次Hadamard变换,以提高变换的去相关性,从而进一步增加了算法的复杂度和开销。

在量化级数的选取方面,H.264/AVC中采用52个量化级数,采用QP(Quantization Parameter)值来索引,QP值每增加6,量化步长增加一倍,而AVS-P2中更是采用多达64级量化,QP值每增加8,量化步长增加一倍。更加精细的量化级数,增强了AVS-P2适应不同应用对码率和质量要求的能力,提高了AVS-P2的业务灵活性,从而扩展了AVS-P2的应用领域。

2.4 熵编码

AVS-P2中,除对均匀分布的语法元素进行定长编码外,其余的语法元素和残差数据都是以指数哥伦布码(Exp-Golomb)[4]的形式映射成二进制比特流的。指数哥伦布码无需查表,只需要通过简单闭合公式实现编解码,一定程度上减少了熵编码中查表带来的访问内存的开销,而且还可以根据编码元素的概率分布灵活地选择指数哥伦布编码的阶数,阶数选择得当能使编码效率逼近信息熵。H.264/AVC中,Baseline Profile中采用统一变长编码(UVLC,Universal Variable Length Code)和基于上下文的自适应变长编码(CAVLC, Context-based Adaptive Variable Length Code)相结合的熵编码方法[7],Main Profile中采用基于上下文的自适应二进制算术编码(CABAC, Context-based Adaptive Binary Arithmetic Code)。H.264/AVC基本档次中的统一变长编码是指数哥伦布编码的一种改进形式,具有指数哥伦布码的特点,能够在发生比特误码时快速获得重同步。不同的是,H.264/AVC只是在编码残差以外的语法元素时使用UVLC,编码语法残差元素则采用CAVLC。在残差元素的编码中,由于经过Zigzag扫描后的(Run, Level)数据对存在很强的相关性,且具有Run值呈现增大趋势,Level值呈现减小趋势两个特点,AVS-P2利用这种上下文信息,先对(Run, Level)数据对进行基于上下文的二维变长编码(2D-VLC,2Dimension-Variable Length Code),对不同统计情况下的编码选用不同的2D-VLC码表,再对编码后的数据通过相应阶数的指数哥伦布编码映射成二进制码流。AVS-P2中采用了一种改进的2D-VLC编码,充分利用了上下文信息,与以往的标准中不同的变换块采用不同的码表相比,AVS-P2只需用到19张不同的2D-VLC码表,减少了码表的存储开销同时也减少了查表所带来的内存访问开销。对于CABAC,尽管其具有比较高的压缩效率,但同时也具有更大实现复杂度和需要更多的编码开销,而且CABAC存在国外专利问题,所以AVS-P2目前的基准档次中并没有考虑CABAC的熵编码方案。

2.5 环路滤波

基于块的视频编码方案都有一个共同的特点,就是编码重建后的图像存在块效应,且码流越低,块效应越明显,图像中方块现象严重影响主观视觉质量。为了解决这一问题,AVS-P2和H.264/AVC均采用了环路滤波技术。环路滤波不仅能消除图像中的块效应,提高图像的主观视觉质量,而且能在一定程度上提高图像的压缩效率。

AVS-P2采用自适应滤波技术,先根据边界两侧的块类型确定边界强度值BS(Boundary Strength),根据BS值的不同,采用不同滤波策略。帧内编码块滤波最强,非连续运动补偿的帧间编码块的滤波较弱,连续运动补偿的帧间编码块则不需要滤波。AVS-P2中变换和预测最小块都是8×8块,因此环路滤波的块大小也是8×8,与H.264/AVC的4×4块相比,需要滤波的边界更少。而且,H.264/AVC中使用边界左右各4个像素进行滤波,而AVS-P2仅选用边界左右各3个元素进行滤波,滤波涉及的像素减少,也就降低了滤波时数据交换和计算的开销,同时也更有利于并行处理,从而使AVS-P2滤波器的实现复杂度远低于H.264/AVC的滤波器。

3 AVS-P7

AVS-P7是AVS系列标准中的第七部分,主要针对移动通信领域的视频编解码应用。由于AVS-P7主要是面向低分辨率、低码率的网络通信应用,决定了AVS-P7在技术细节上与主要面向高分辨率、高质量应用的AVS-P2存在差异,而且需要增强网络亲和性和抗误码性方面的技术实现。同时,AVS-P7与在低码率应用领域表现出色的H.264/AVC在技术实现上有很多相似之处,但在具体技术的选择上,又存在差异。

3.1 帧内预测

与H.264/AVC类似,AVS-P7中采用9种基于4×4块的亮度预测模式和3种基于4×4块的色度预测模式,对于色度分量,两个色度分量的8个4×4块使用相同的预测模式。对于H.264/AVC中采用17个邻近参考样本预测每一个4×4块,AVS-P7将参考样本的数量降为9个,降低了复杂度和数据运算的开销。与H.264/AVC中的16×16块的帧内预测模式对应,AVS-P7引入了直接帧内预测模式(DIP, Direct Intra Prediction)[3], 对于图像纹理比较统一的区域,采用DIP模式预测,宏块的16个4×4块均按最有可能模式编码,从而减少了编码的比特数。同时,也不需要像H.264/AVC中一样,提取每一个4×4块的DC系数进行Hadamard变换编码、变换系数重排序、熵编码等一套方案,大大降低了帧内预测算法实现的复杂度,也提高了编码效率。

3.2 帧间预测

AVS-P7采用与H.264/AVC中相同的宏块和子宏块划分模式,同样也支持1/4像素(亮度)和1/8像素(色度)精度的运动矢量。在子像素插值算法中,AVS-P7采用水平8抽头滤波器(-1,4,-12,41,41,-12,4,-1)、垂直4抽头滤波器(-1,5,5,-1)对1/2像素进行插值,并采用线性滤波器对1/4像素进行插值。AVS-P7和H.264/AVC均支持跨越图像边界的帧间预测,但AVS-P7将运动矢量范围限制在图像边界外16个像素以内,垂直方向上运动矢量分量的取值范围对CIF格式是[-32,31.75],而H.264/AVC有更大的范围[-128,127.75]。与H.264/AVC的基本档次一样,AVS-P7也没有了B帧,在参考帧的数量上,AVS-P7具有与AVS-P2一样的最多2帧的参考帧,简化了设计。

3.3 变换量化

类似于H.264/AVC,AVS-P7采用基于4×4块的整数余弦变换和量化,但具体的实现方法不同,AVS-P7采用不同的变换矩阵,且在变换过程中实现了变换归一化和量化相结合,只需要一个二维数组和一个一维数组就可以完成不同级别的量化。与AVS-P2一样,AVS-P7同样具有64级量化,使得AVS-P7在实际的应用中具有更大的灵活性。

3.4 熵编码

与AVS-P2类似,AVS-P7采用指数哥伦布和2D-VLC相结合的熵编码方案。不同的是,AVS-P7设计的2D-VLC码表及码表的自适应切换方法更适应于4×4块的(Run, Level)分布。

3.5 环路滤波

AVS-P7采用了一种更加简化的环路滤波方案,滤波的强度由宏块级而非块级确定,由当前宏块的类型和QP值来决定此宏块的滤波强度,从而大大减少了判断的次数。此外,AVS-P7的滤波仅涉及边界左右各两个像素,这样每个边界的滤波不存在相关性,降低

了数据运算开销同时也有利于并行处理。

3.6 网络亲和性和抗误码性

为了适应各种不同的网络环境,要求AVS-P7具有良好的网络亲和性。AVS-P7采用了和H.264/AVC一样的两层结构:视频编码层(VCL)和网络提取层(NAL),视频编码层负责视频的编解码,网络提取层(NAL)负责对视频编码层的数据采用适当格式的封装。不同的是,AVS-P7中的NAL单元类型要比H.264/AVC少,仅支持7种类型的NAL数据单元(见表2)。

同时,为了增强AVS-P7抗误码性能,采用了一系列的抗误码技术,包括:①采用IDR(即时解码刷新图像)消除误码扩散所导致的图像漂移和误差积累,IDR图像后的图像均不会以IDR前面的图像作为参考帧进行编解码;②片(Slice)内数据独立编解码,片之间编解码相互独立,某一片的误码不会影响到同一图像中其他片。③多序列参数集和图像参数集,采用独立的NAL单元传输,事先嵌入到解码器中或者采用更可靠的传输机制和信道来传输这些参数,以保证解码端能够正确解码。AVS-P7中没有采用H.264/AVC中采用的抗误码技术,如灵活宏块排列次序(FMO)、任意条带顺序(ASO)、冗余片(RS)、切换P帧(SP)、切换I帧(SI)等技术,这些技术不但实现起来较为复杂,而且有些需要在在编码数据中加入较多的冗余信息,影响了编码的效率。

4 结束语

作为新一代信源编码标准,AVS系列视频编码标准和H.264/AVC有很多相似之处,但AVS在实现上主要采用一些我国自主创新的技术和一些国际公开的技术,从而有效地避免了专利的问题。在编码方案的选择中,在达到与H.264/AVC相当的编码效率的同时,AVS系列标准的实现更加简洁,简化的设计意味着更低的软硬件实现成本。此外,AVS系列标准简单的专利授权模式和更加低廉的专利费用,使得其在产业化的竞争中处于有利位置。H.264/AVC等国外标准重复的专利收费模式和高昂的专利费用使得国内视频产业在国际化的竞争中缺乏核心竞争力,只能处于被动的位置。AVS系列标准的采用,能够有效地降低了企业的成本,增强企业的核心竞争力。

目前,在刚刚落幕的AVS工作组第26次会议上,首次完成了针对视频监控的视频编码标准(AVS-S)的制定工作,同时为现行AVS-P2标准增加了一个加强档次。包含该加强档次的GB/T20090.2修订版预计在2009年发布。AVS-P2在国内的产业化已经拉开序幕,凭借其在竞争中的巨大优势,全面的产业化只是时间问题。

参考文献

[1]ITU-TRec.H.264/ISO/IEC14496-10,Advanced Video Coding,Final Committee Draft,Document JVTG050,Mar.2003.

[2]GB/T20090.2-2006,信息技术.先进音视频编码第二部分:视频.

[3]AVS工作组.信息技术先进音视频编码第七部分:移动视频,AVS N1196,2005.

[4]王明伟.AVS中的音视频编码压缩技术.电视技术,2006,(6):13~16

[5]梁凡.AVS视频标准的技术特点.电视技术,2005,(7):12~15

[6]高文,王强,马思伟.AVS数字音视频编解码标准.中兴通讯技术,2006,12(3):6~9+13

上一篇:老年人权益下一篇:初中英语课外自主阅读