视频处理技术(共12篇)
视频处理技术 篇1
由于受飞行器振动及天气等因素的影响,安装在飞行器上的摄像机拍摄到的图像存在抖动、失稳等现象,使成像质量下降,分辨率降低,严重增加了观察人员的疲劳强度,从而很难使飞行器对运动目标进行准确跟踪和精确瞄准,此时图像稳定技术就变得格外重要。图像稳定技术由全局运动估计和运动补偿两模块组成。全局运动指的是由摄像机运动而导致的图像的整体运动,因此只需要很少一组参数就能描述[1],而全局运动估计就是对这些参数的估计。全局运动估计的方法主要分为微分法[2]和特征点[3]对应法。
图像稳定技术的关键问题存在于全局运动估计模块,主要有如下两个:(1)计算速度。不论在图像稳定技术还是在视频编码技术中,运动估计都是最耗时的部分。国内外许多专家和机构提出了许多加快此计算速度的算法,但是都没有从根本上解决这个问题。(2)外点去除,本文是对具有前景运动视频的稳定处理,外点去除是其必须要处理好的问题。对于计算速度,本文采用改进的Harris算子进行角点检测,根据三级匹配策略实现特征点的三级匹配,加快了全局运动估计的计算时间。对于外点去除,考虑到局部运动点具有聚集成块的特性,贺玉文等人[4]提出了基于块的去除局部运动点,本文将介绍这种去外点的方法。在运动补偿模块中,首先采用Kalman滤波方法确定各帧最终的补偿量,然后使用双线性插值进行运动补偿。但运动载体的抖动频率和幅度是随机的,在使用Kalman滤波中必须选择合适的噪声模型,否则容易使序列产生过稳或欠稳现象。
1 全局运动估计算法介绍
1.1 摄像机运动模型
根据复杂性的不同,图像运动模型有多种描述形式,其中,Affine模型是一种线性模型,能精确地描述纯旋转、相机在场景中较小深度变化时的平移和变焦运动。此模型适合绝大多数的室内和室外场景。其表达式为:
式中,(xi-1,yi-1)和(xi,yi)分别为在时刻ti-1和ti时两帧图像的像素坐标,(a1,a2…a6)为图像帧间的变换参数,其中,a3、z6与图像的平移运动有关,a1、a2、a4、a5与图像的缩放、旋转运动有关。本文采用此模型进行全局运动估计的计算。
1.2 角点检测
Harris算子是一种点特征提取算子,因其具有计算简单、提取的点特征均匀而合理、定位精度高、抗噪声能力强及稳定性好的特点,得到了人们广泛的应用。
Harris角点检测公式为:
式中,w(x,y)为窗函数(可为矩形窗或高斯窗);[I(x+u,y+v)-I(x,y)]2为图像灰度的梯度值。对于每个小的位移量(u,v),式(2)可以双线性近似表示为:
M是2×2的矩阵:
式中,Ix、Iy分别为图像x、y方向的梯度值。
为了实现角点的精确匹配,针对航载视频背景复杂又有前景混合的情况,本文对角点检测进行了改进。采用三级匹配策略:(1)利用Harris角点检测算子提取两帧图像上的角点,构造其灰度差分不变量,获得灰度差分不变量的特征向量;(2)运用欧氏距离测量两个向量之间的相似程度得到初始匹配点对;(3)用半邻域限制来实现两幅图像上特征点集之间的细匹配,删除错误匹配点对。灰度差分不变量具有平移、旋转不变性;对噪声也有很好的抑制作用,利用这些特性可以剔除歧义点和误匹配点。
1.3 摄像机模型参数计算
把属于背景上的n(n>3)对角点代入到(1)式,得到下面的公式:
这是一个方程个数大于未知数个数的超定线性方程,下面利用最小二乘法求解此超定方程:
1.4 去外点
利用1.2节的方法求得头两帧的角点,手动去除存在于前景物体区域的角点,再利用1.3节介绍的方法求得它们全局运动参数,然后用此参数对当前帧进行补偿,得到残差图像。具体做法:将残差图像分成M×N大小的块,计算每个块的SAD值,SAD的定义如下:
式中,Rij是(i.j)块的残差。将所有块的SAD值进行排序并将SAD大的前30%的块作为预选去除块,按照下面的方法确定最后的去除块。首先设B(i,j)块是一个预选去除块,如果它的8领域中有多于4个预选去除块,则B(i,j)这个预选去除块将被去除,并标志为去除块;然后对剩下的预选去除块进行如下处理:如果它的8领域中有去除块,则这个预选去除块也将被去除。所划分块的大小对去外点所需计算量和去除效果都有很大的影响,根据经验,对于288×352像素的CIF图像16×16大小的块较为合适。
如果角点位于前景区域,则剔除这些角点,从而成功消除了外点的影响。最终匹配结果如图1所示。
2 基于Kalman滤波的运动补偿
估计出运动参数后,接下来就是根据参数对图像进行运动补偿。摄像机的主动运动都是缓慢而有规律的,与其相比,随机抖动的频率变化较快,无一定的规律性,可以采用低通滤波的方法去除,对运动参数进行平滑,完成实时运动补偿。假设在摄像机载体做恒速运动的情况下,建立状态空间模型和量测方程[5]:
式中,aiv分别是ai的变化速率,N(0,σo)、N(0,σ)是相互独立的高斯白噪声。为验证本文算法的效果,选用waterfall、coastguard、foreman、stafen等多个标准视频测试序列,在PC机上用matlab7.0进行仿真试验。
waterfall视频序列连续30帧全局运动参数估计及kalman滤波结果以及参数(a1,a2…a6)及经Kalman滤波后的结果()如图2所示,滤波过程中σ=100,σo=0.001。其中,变化较剧烈的虚线是带有抖动的全局运动估计参数,平滑的实线为经Kalman滤波去抖后的摄像机参数。图2表明,Kalman滤波能很好地去除或减轻抖动,保留摄像机的主观运动。
使用平滑后的全局运动参数对当前帧进行补偿,然后再对运动补偿后的图像进行背景填充,实现图像的稳定处理,其处理效果分别如图3、图4所示。waterfall序列主要针对摄像机的缩放和旋转运动,图3是其稳定处理的示意图;coastguard主要针对图像的平移运动,图4是对其进行稳定处理的示意图。图3(a)、(b)、(c),图4(a)、(b)分别是当前帧和参考帧,图3(c)、图4(c)是用平滑去抖后的摄像机参数进行补偿后的示意图,图3(d)、图4(d)是稳定处理,也就是对补偿后的图像进行背景填充,重建稳定后的当前帧,得到稳定的视频图像。由图可知,用此方法处理的视频稳定的效果非常好,本算法不论是对摄像头的旋转、缩放运动还是平移运动,都能达到很好的稳定处理效果。
基于特征匹配的稳像算法,采用了改进的Harris算子检测特征点。由于Harris角点具有精度高、抗噪声能力强、稳定性好的特点,使得此稳像算法适用于处理具有前景运动物体而背景又复杂的航载视频的稳定问题。基于块的去外点方法符合实际情况,能很好地去除外点的影响。Kalman滤波数据存储量小,平滑效果好,适用于实时稳像。大量实验验证了稳像算法的可靠性和有效性,在移动视频监视系统、目标的检测及跟踪系统有很好的应用前景。
参考文献
[1] KIM E T,KIM H M.Efficient linear three-dimensional camera motion estimation method with applications to video coding[J].Optical Engineering.1998,37(3) :1065-1077.
[2] KELLER Y,AVERBUCH A.Fast gradient methods based on global motion estimation for video compression[M].IEEE Transactions on Circuits and Systems for Video echnology,2003,13 (4) :300-309.
[3] ZHU Fang,XUE Ping,ONG E.Low-complexity global motion estimation based on content analysis[C].Proceedings of International Symposium on Circuits and Systems,2003, 2(2) :624-627.
[4] 贺玉文,赵黎,钟玉琢,等.快速鲁棒的全局运动估计算法[J].软件学报,2001,12(8) :1220-1228.
[5] LITVIN A,KONRAL J,WILLIAM C,Karl probabilistic video stabilization using Kalman filtering and mosaicking [A].IS&T/SPIE Symposium on Electronic Image and Video Communications and Proc[C],2003,5022:663-67.
视频处理技术 篇2
摘要:本学期我们学习了视频信号处理与传输,了解了视频信号处理与传输的大致内容,其中有视频信息的采集以及处理,各种视频压缩的编码以及标准,还有视频传输协议等各种相关的知识。
关键词:视频信号处理与传输;
视频信息压缩编码;
视频信息传输协议
第1章
绪
论.............................................................................................................................................1 1.1 信号传递的发展...........................................................................................................................1 1.2 古代信息传递...............................................................................................................................1 1.3 现代信息传递...............................................................................................................................2 第二章 视频信息的采集技术.......................................................................................................................3 2.1 视频信息基础.................................................................................................................................3 2.2 图像信息的采集与量化.................................................................................................................4 视频信息压缩编码及标准.............................................................................................................................5 3.1 视频信息压缩..................................................................................................................................5 3.2 视频信息压缩标准..........................................................................................................................6 第四章 视频信息传输网络及协议...............................................................................................................9
第1章
绪
论
1.1 信号传递的发展
人类进行通信的历史已很悠久。早在远古时期,人们就通过简单的语言、壁画等方式交换信息,千百年来,人们一直在用语言、图符、钟鼓、烟火、竹简、纸书等传递信息,古代人的烽火狼烟、飞鸽传信、驿马邮递都是这方面的例子。现在还有一些国家的个别原始部落,仍然保留着诸如击鼓鸣号这样古老的通信方式。现在社会中,交警的指挥手语、航海中的旗语等不过是古老通信 方式进一步发展的结果。这些信息传递的基本方式都是依靠人的视觉与听觉。
19世纪中叶以后,随着电报、电话的发明,电磁波的发现,人类通信领域产生了根 使神话中的”顺风耳”、”千里眼”变成了现实。从此,人类的信息传递可以脱离通信的新时代。
1.2 古代信息传递
我国是世界上最早建立有组织的传递信息系统的国家之一。早在三千多年前的商代,信息传递就已见诸记载。
乘马传递曰驿,驿传是早期有组织的通信方式。位于嘉峪关火车站广场的“驿使”雕塑,它取材于嘉峪关魏晋壁画墓,驿使手举简牍文书,驿马四足腾空,速度飞快。此砖壁画图于一九八二年被中华全国集邮联合会第一次代表大会作为小型章邮票主题图案使用,由此看出嘉峪关是中国信息文化的发源地之一。
秦汉时期,形成了一整套驿传制度。特别是汉代,将所传递文书分出等级,不同等级的文书要由专人、专马按规定次序、时间传递。收发这些文书都要登记,注明时间,以明责任。
隋唐时期,驿传事业得到空前发展。唐代的官邮交通线以京城长安为中心,向四方辐射,直达边境地区,大致30里设一驿站。据《大唐六典》记载,最盛时全国有1639个驿站,专门从事驿务的人员共二万多人,其中驿兵一万七千人。邮驿分为陆驿、水驿、水路兼并三种,各驿站设有驿舍,配有驿马、驿驴、驿船和驿田。
唐代对邮驿的行程也有明文规定,陆驿快马一天走6驿即180里,再快要日行300里,最快要求日驰500里;步行人员日行50里;逆水行船时,河行40里,江行50里,其它60里;顺水时一律规定100到150里。诗人岑参在《初过陇山途中呈字文判官》一诗中写到“一驿过一驿,驿骑如星流;平明发咸阳,幕及陇山头”。在这里他把驿骑比做流星。天宝十四载十一月九日,安禄山在范阳起兵叛乱。当时唐玄宗正在华清宫,两地相隔三千里,6日之内唐玄宗就知道了这一消息,传递速度达到每天500里。由此可见,唐朝邮驿通信的组织和速度已经达到很高的水平。
宋代将所有的公文和书信的机构总称为“递”,并出现了“急递铺”。急递的驿骑马领上系有铜铃,在道上奔驰时,白天鸣铃,夜间举火,撞死人不负责。铺铺换马,数铺换人,风雨无阻,昼夜兼程。南宋初年抗金将领岳飞被宋高宗以十二道金牌从前线强迫召回临安,这类金牌就是急递铺传递的金字牌,含有十万火急之意。
在中国古代,为了传递军事情报,人们曾设立过烽火台,利用火与烟传递信息。烽火台白天烧狼粪,夜间点柴草。传说烧狼粪时有很大的浓烟直冲蓝天,在白天比火光更易被人发现,因此烽火有时又被称为狼烟。当发现敌情时,燃起烽火,台台相传,一直传到军营。在2700多年前,中国周朝时的烽火告警系统就已经很完备了。
1.3 现代信息传递
现在的电话机 电话机发展到今天,已经不是当初那种样子了。现在的电话机由话筒由两部分组成,一端讲话,一端听话,非常方便。听话的一端装有受话器,讲话的一端装有送话器。送话器是打电话时对着说话的部分,它已经不像电话机初期那样由金属薄片和电磁铁组成了,因为那样产生的感应电流太小,通话距离一长就听不清楚了。现在的送话器主要由一个金属薄片和一个装有碳粒的小铁盒组成,称之为碳粒送话器。当对着送话器讲话时,声波推动着金属薄片来回振动,给碳粒以大小不等的压力,从而使电流随着话音的变化而变化。利用这个原理,送话器便将讲话声音的大小变化转换成了电流的大小变化,在导线上传输出去。受话器是打电话时贴着耳朵的部分,结构和初期的电话机相似,仍由一个电磁铁和一个金属薄片组成。对方的声音通过送话器被转换成相应的电流,流经受话器的线圈,使金属薄片随之振动,形成了声音,从而双方通话的目的就达到了。
无线电寻呼系统 当一个人需要与某个行踪不定的朋友通电话时,他可以打电话向寻呼台发出信号,寻呼台将其转换为无线信号在全市发出后,被寻呼的人随身携带的BP机就会发生撪绥嘟棓的声音,使被呼叫者可以知道是谁在呼叫他,并立即与呼叫者取得联系。无线电寻呼系统的终端设备是收信机,也就是BP机,可以别在腰带上,或放在口袋里。随着超大规模集成电路的出现,BP机可以做得越来越小。无线电寻呼系统一般是由邮电部门为广大的公众用户服务的寻呼系统,容量较大,结构大都采用单局多站制,即在一个广大的服务范围内建立一个寻呼中心局和若干个基地站,这些基地站都均匀地分散在服务区内,构成一个寻呼网络。每个基地站都受寻呼中心局的控制,在同一时刻发出同一信号。同时寻呼中心局与市内电话局有直接联系。这样,人们就可以用市内电话呼叫BP机用户,而BP机用户这时就能从离他最近的基地站发出的电波中收到呼叫信号。
互联网络(Internet)是一种把许多网络都连接在一起的国际性网络,是最高层次的骨干网络。在它下面连接地区性网络,地区性网络与广域网相连接,广域网连接局域网,局域网里连接着许多计算机。这样,把许多计算机连接在一起,实现资源共享。互联网络有许多用途。利用它可向全球的互联网络用户发送电子邮件,发送开会通知或简报等,可召开分散于世界各地有关人员的电子会议,建立电子信箱。在互联网络上发布新闻,可以迅速传播到世界各地。研究人员可以快速进行论文、报告和计算机源程序的交换。用户可以自由地、高速地检索出分布于不同网络上的信息。用户还可以从远处进行登录,使用连接于互联网络上的软件硬件资源,例如使用巨型计算机。通过远地登录还可以利用各种商用数据服务。企业还可以利用互联网络发布广告。
第二章 视频信息的采集技术
2.1 视频信息基础
所谓视频,是由连续画面组成的动态场景,这些画面是通过实际拍摄得到的,如电影和电视。它们是现场的真实记录,有着强烈的现实性和亲切感。视频是利用人的视觉暂留现象而实现的动态画面。也可以这么说,视频信息就是不同的静态图像在连续时间上的集合。其中视频又分为模拟视频与数字视频。数字视频信号是基于数字技术以及其他更为拓展的图像显示标准的视频信息,数字视频与模拟视频相比有以下特点:
(1)数字视频可以可以不失真的进行无数次复制,而模拟视频信号每转录一次,就会有一次误 差积累,产生信号失真。
(2)模拟视频长时间存放后视频质量会降低,而数字视频便于长时间的存放。(3)可以对数字视频进行非线性编辑,并可增加特技效果等。(4)数字视频数据量大,在存储与传输的过程中必须进行压缩编码。随着数字视频应用范围不断发展,它的功效也越来越明显。
2.2 图像信息的采集与量化
采样的实质就是要用多少点来描述一幅图像,采样结果质量的高低就是用前面所说的图像分辨率来衡量。简单来讲,对二维空间上连续的图像在水平和垂直方向上等间距地分割成矩形网状结构,所形成的微小方格称为像素点。一副图像就被采样成有限个像素点构成的集合。例如:一副640*480分辨率的图像,表示这幅图像是由640*480=307200个像素点组成。在进行采样时,采样点间隔大小的选取很重要,它决定了采样后的图像能真实地反映原图像的程度。一般来说,原图像中的画面越复杂,色彩越丰富,则采样间隔应越小。由于二维图像的采样是一维的推广,根据信号的采样定理,要从取样样本中精确地复原图像,可得到图像采样的奈奎斯特(Ny quist)定理:图像采样的频率必须大于或等于源图像最高频率分量的两倍。量化是指要使用多大范围的数值来表示图像采样之后的每一个点。量化的结果是图像能够容纳的颜色总数,它反映了采样的质量。
例如:如果以4位存储一个点,就表示图像只能有16种颜色;若采用16位存储一个点,则有216=65536种颜色。所以,量化位数越来越大,表示图像可以拥有更多的颜色,自然可以产生更为细致的图像效果。但是,也会占用更大的存储空间。两者的基本问题都是视觉效果和存储空间的取舍。
假设有一幅黑白灰度的照片,因为它在水平于垂直方向上的灰度变化都是连续的,都可认为有无数个像素,而且任一点上灰度的取值都是从黑到白可以有无限个可能值。通过沿水平和垂直方向的等间隔采样可将这幅模拟图像分解为近似的有限个像素,每个像素的取值代表该像素的灰度(亮度)。对灰度进行量化,使其取值变为有限个可能值。
经过这样采样和量化得到的一幅空间上表现为离散分布的有限个像素,灰度取值上表现为有限个离散的可能值的图像称为数字图像。只要水平和垂直方向采样点数足够多,量化比特数足够大,数字图像的质量就比原始模拟图像毫不逊色。
在量化时所确定的离散取值个数称为量化级数。为表示量化的色彩值(或亮度值)所需的二进制位数称为量化字长,一般可用8位、16位、24位或更高的量化字长来表示图像的颜色;量化字长越大,则越能真实第反映原有的图像的颜色,但得到的数字图像的容量也越大。
之后再将我们量化过后的数据进行编码,则可以得到一个数字信号。
视频信息压缩编码及标准
3.1 视频信息压缩
通常一副图像中的各点像素点之间存在一定的相关性,特别是在活动图像中,由于两幅相邻的图像之间的时间间隔很短,因此这两幅图像信息中包含大量的相关信息,这些就是图像信息中的冗余。因此,将视频信息经过压缩以后可以大大的减少信息的信息量,这样我们就可以节约储存器的空间,可以节省传输信道的带宽还可以加大信息的处理速度,因此,视频信息的压缩编码是很必要的。
数字图像压缩编码分类方法有很多,可以分为空间域编码、变换域编码以及其他等等各种方法,从信息论的角度上来分,可以分为无失真压缩编码和有线失真编码。
无失真图像压缩编码利用图像信源概率分布的不均匀性,通过变长编码来减少信源数据冗余,使编码后的图像数据接近其信息熵而不产生失真,因而也通常被成为熵编码。无失真编码就是指图像经过压缩、编码后恢复的图像与源图像完全一样,没有任何失真。
有限失真编码则是根据人眼视觉特性,在允许图像产生一定失真的情况下,利用图像信源在空间和时间上具有较大的相关性这一特点,通过某一种信号变换来消除信源的想关心、减小信号的方差,达到压缩编码的目的。
常用的编码方法有变换编码、子带编码、预测编码、小波变换编码、模型基编码、分形编码、基于对象的视频编码等。
变换编码的基本思想是先将空间域图像通过某种正交变换,获得一系列变换系
数,在变换过程中,使图像变换系数能量相对集中,再对其变换系数进行区域量化等,按其所含能量大小,分配以不同的数据量去描述,从而达到压缩的目的。子带编码是由于表示图像灰度缓变内容的图像能量集中在低频区,而表示图像细节的集中在高频区域,将图像分裂成几个不同频段的子频段,对不同子频段个字设计合适的编码器参数,就可以达到更好的效果。预测编码是根据离散信号之间存在着一定关联性的特点,利用前面一个或多个信号预测下一个信号进行,然后对实际值和预测值的差(预测误差)进行编码。如果预测比较准确,误差就会很小。在同等精度要求的条件下,就可以用比较少的比特进行编码,达到压缩数据的目的。如果把以预测编码和变换编码为核心的基于波形的编码作为第一代编码技术,则基于模型的编码就是第二代编码技术。压缩编码的极限结果原则上可通过那些能够反映信号产生过程最早阶段的模型而得到。这就是基于模型编码的思想,构造一个用2D图像编码序列,表达3D被视景物的模型,用该模型去分析或者合成图像。分形编码的方法是把一幅数字图像,通过一些图像处理技术将原始图像分成一些子图像,然后在分形集中查找这样的子图像。分形集存储许多迭代函数,通过迭代函数的反复迭代,可以恢复原来的子图像。在第二代的视频编码技术中,他所关心的是如何去除视频内容的冗余,它认为人眼才是视频信号的最终接受者,视频编码应是充分考虑人眼的视觉特征的影响。这就基于对象的视频编码,也是视频编码目前最为活跃的一个领域。在基于对象的视频编码中,编码的基本单元是对象,基于对象的视频编码主要是针对纹理、形状、运动这三种信息的编码技术。MPEG-4就是典型的基于对象的视频编码标准。
3.2 视频信息压缩标准
数字视频技术广泛应用于通信、计算机、广播电视等领域,带来了会议电视、可视电话及数字电视、媒体存储等一系列应用,促使了许多视频编码标准的产生。ITU-T与ISO/IEC是制定视频编码标准的两大组织,ITU-T的标准包括H.261、H.263、H.264,主要应用于实时视频通信领域,如会议电视;MPEG系列标准是由ISO/IEC制定的,主要应用于视频存储(DVD)、广播电视、因特网或无线网上的流媒体等。两个组织也共同制定了一些标准,H.262标准等同于MPEG-2的视频编码标准,而最新的H.264标准则被纳入MPEG-4的第10部分。
其中有几种常见的视频压缩编码标准: 1)MJPEG MJPEG 是指 Motion JPEG,即动态JPEG,按照25帧/秒速度使用JPEG 算法压缩视 频信号,完成动态视频的压缩。是由JPEG专家组制订的,其图像格式是对每一帧进行压缩,通常可达到6:1的压缩率,但这个比率相对来说仍然不足。就像每一帧都是独立的图像一样。MJPEG图象流的单元就是一帧一帧的JPEG画片。因为每帧都可任意存取,所以MJPEG常被用于视频编辑系统。动态JPEG能产生高质量、全屏、全运动的视频,但是,它需要依赖附加的硬件。而且,由于MJPEG不是一个标准化的格式,各厂家都有自己版本的MJPEG,双方的文件无法互相识别。
MJPEG的优点是画质还比较清晰,缺点是压缩率低,占用带宽很大。一般单路占用带宽2M左右。
2)H.263 H.263 视频编码标准是专为中高质量运动图像压缩所设计的低码率图像压缩标准。H.263 采用运动视频编码中常见的编码方法,将编码过程分为帧内编码和帧间编码两个部分。埃帧内用改进的DCT 变换并量化,在帧间采用1/2 象素运动矢量预测补偿技术,使运动补偿更加精确,量化后适用改进的变长编码表(VLC)地量化数据进行熵编码,得到最终的编码系数。
H.263标准压缩率较高,CIF格式全实时模式下单路占用带宽一般在几百左右,具体占用带宽视画面运动量多少而不同。缺点是画质相对差一些,占用带宽随画面运动的复杂度而大幅变化。
3)MPEG-1
VCD标准。
制定于1992年,为工业级标准而设计,可适用于不同带宽的设备,如CD-ROM,Video-CD、CD-i。它用于传输1.5Mbps数据传输率的数字存储媒体运动图像及其伴音的编码,经过MPEG-1标准压缩后,视频数据压缩率为1/100~1/200,影视图像的分辩率为360×240×30(NTSC制)或360×288×25(PAL制),它的质量要比家用录像系统(VHS-Video Home System)的质量略高。音频压缩率为1/6.5,声音接近于CD-DA的质量。MPEG-1允许超过70分钟的高质量的视频和音频存储在一张CD-ROM盘上。VCD采用的就是MPEG-1的标准,该标准是一个面向家庭电视质量级的视频、音频压缩标准。MPEG-1的编码速率最高可达4-5Mbits/sec,但随着速率的提高,其解
码后的图象质量有所降低。MPEG-1也被用于数字电话网络上的视频传输,如非对称数字用户线路(ADSL),视频点播(VOD),以及教育网络等。同时,MPEG-1也可被用做记录媒体或是在INTERNET上传输音频。MPEG1标准占用的网络带宽在1.5M左右。
4)MPEG-2 DVD标准。
制定于1994年,设计目标是高级工业标准的图象质量以及更高的传输率,主要针对高清晰度电视(HDTV)的需要,传输速率在3-10Mbits/sec间,与MPEG-1兼容,适用于1.5~60Mbps甚至更高的编码范围。分辩率为720×480×30(NTSC制)或720×576×25(PAL制)。影视图像的质量是广播级的质量,声音也是接近于CD-DA的质量。MPEG-2是家用视频制式(VHS)录像带分辩率的两倍。MPEG-2的音频编码可提供左右中及两个环绕声道,以及一个加重低音声道,和多达7个伴音声道(DVD可有8种语言配音的原因)。由于MPEG-2在设计时的巧妙处理,使得大多数MPEG-2解码器也可播放MPEG-1格式的数据,如VCD。除了做为DVD的指定标准外,MPEG-2还可用于为广播,有线电视网,电缆网络以及多级多点的直播(Direct Broadcast Satellite)提供广播级的数字视频。MPEG-2的另一特点是,其可提供一个较广的范围改变压缩比,以适应不同画面质量,存储容量,以及带宽的要求。对于最终用户来说,由于现存电视机分辨率限制,MPEG-2所带来的高清晰度画面质量(如DVD画面)在电视上效果并不明显,到是其音频特性(如加重低音,多伴音声道等)更引人注目。
MPEG-2的画质质量最好,但同时占用带宽也非常大,在4M~15M之间,不太适于远程传输。
5)MPEG-4
如果说,MPEG-1“文件小,但质量差”;而MPEG-2则“质量好,但更占空间”的话,那么MPEG-4则很好的结合了前两者的优点。它于1998年10月定案,在1999年1月成为一个国际性标准,随后为扩展用途又进行了第二版的开发,于1999年底结束。MPEG-4是超低码率运动图像和语言的压缩标准,它不仅是针对一定比特率下的视频、音频编码,更加注重多媒体系统的交互性和灵活性。MPEG-4标准主要应用于视像电话(Video Phone),视像电子邮件(Video Email)和电子新闻(Electronic News)等,其传输速率要求较低,在4800-64Kbits/sec之间,分辨率为176X144。MPEG-4利用很窄的带宽,通过帧重建技术,压缩和传输数据,以求以最少的数据获得最佳的图象质量。与MPEG-1和MPEG-2相比,MPEG-4为多媒体数据压缩提供了一个更为
广阔的平台。它更多定义的是一种格式、一种架构,而不是具体的算法。它可以将各种各样的多媒体技术充分用进来,包括压缩本身的一些工具、算法,也包括图像合成、语音合成等技术。MPEG-4的特点是其更适于交互AV服务以及远程监控。MPEG-4是第一个使你由被动变为主动(不再只是观看,允许你加入其中,即有交互性)的动态图象标准;它的另一个特点是其综合性;从根源上说,MPEG-4试图将自然物体与人造物体相溶合(视觉效果意义上的)。MPEG-4的设计目标还有更广的适应性和可扩展性。
MPEG4标准的占用带宽可调,占用带宽与图像的清晰度成正比。以目前的技术,一般占用带宽大致在几百K左右。
当然现在最新编码还有H.264,MPEG4(part10)等。
第四章 视频信息传输网络及协议
网络传输协议或简称为传送协议(Communications Protocol),是指计算机通信的共同语言。现在最普及的计算机通信为网络通信,所以“传送协议”一般都指计算机通信的传送协议,如:TCP/IP、NetBEUI等。然而,传送协议也存在于计算机的其他形式通信,例如:面相对象编程里面对象之间的通信;操作系统内不同程序之间的消息,都需要有一个传送协议,以确保传信双方能够沟通无间。
以下为各种网络传输协议列表(后面数字表示应用层协议默认服务端口):
A ARP(ARP Address Resolution Protocol)B BGP(边缘网关协议 Border Gateway Protocol)蓝牙(Blue Tooth)BOOTP(Bootstrap Protocol)D DHCP(动态主机配置协议 Dynamic Host Configuration Prot ol)DNS(域名服务 Domain Name Service)
oc
DVMRP(Distance-Vector Multicast Routing Protoco l)E EGP(Exterior Gateway Protocol)F FTP(文件传输协议 File Transfer Protocol)H HDLC(高级数据链路控制协议 High-level Data Link Cont l)HELLO(routing protocol)HTTP 超文本传输协议 HTTPS 安全超级文本传输协议 I
ICMP(互联网控制报文协议 Internet Control Message Pr ocol)IDRP(InterDomain Routing Protocol)IEEE IGMP(Internet Group Management Protocol)IGP(内部网关协议 Interior Gateway Protocol)IMAP IP(互联网协议 Internet Protocol)IPX IS-IS(Intermediate System to Intermediate System Pro col)
ro
otto
L LCP(链路控制协议 Link Control Protocol)LLC(逻辑链路控制协议 Logical Link Control)M MLD(多播监听发现协议 Multicast Listener Discover y)N NCP(网络控制协议 Network Control Protocol)NNTP(网络新闻传输协议 Network News Transfer Protoco l)NTP(Network Time Protocol)P PPP(点对点协议 Point-to-Point Protocol)POP(邮局协议 Post Office Protocol)R RARP(逆向地址解析协议 Reverse Address Resolution Pr ocol)RIP(路由信息协议 Routing Information Protoco l)S SLIP(串行链路连接协议Serial Link Internet Protoco
l)SNMP(简单网络管理协议 Simple Network Management Pro col)SMTP(简单邮件传输协议 Simple Mail Transport Protoco l)T TCP(传输控制协议 Transmission Control Protoco
l)TFTP(Trivial File Transfer Protocol)Telnet(远程终端协议 remote terminal protoco
l)
ot
to
U UDP(用户数据报协议 User Datagram Protocol)以太网协议:
以太网是目前使用最广泛的局域网技术。由于其简单、成本低、可扩展性强、与IP网能够很好地结合等特点,以太网技术的应用正从企业内部网络向公用电信网领域迈进。以太网接入是指将以太网技术与综合布线相结合,作为公用电信网的接入网,直接向用户提供基于IP的多种业务的传送通道。以太网技术的实质是一种二层的媒质访问控制技术,可以在五类线上传送,也可以与其它接入媒质相结合,形成多种宽带接入技术。以太网与电话铜缆上的VDSL相结合,形成EoVDSL技术;与无源光网络相结合,产生EPON技术;在无线环境中,发展为WLAN技术。作为广泛应用的局域网技术,以太网近年来在很多方面得到了发展。从10M/100M到1G以及目前正在走向成熟的10G,以太网的速率不断提高;在从共享式、半双工、利用CSMA/CD机制到交换式、点对点、全双工以及流量控制、生成树、VLAN、CoS等机制的采用,以太网的功能和性能逐步改善;从电接口UTP传输到光接口光纤传输,以太网的覆盖范围大大增加;从企业和部门的内部网络,到公用电信网的接入网、城域网,以太网的应用领域不断扩展。
Ip协议:
IP是英文Internet Protocol(网络之间互连的协议)的缩写,中文简称为“网协”,也就是为计算机网络相互连接进行通信而设计的协议。在因特网中,它是能使连接到网上的所有计算机网络实现相互通信的一套规则,规定了计算机在因特网上进行通信时应当遵守的规则。任何厂家生产的计算机系统,只要遵守 IP协议就可以与因特网互连互通。IP地址具有唯一性,根据用户性质的不同,可以分为5类。另外,IP还有进入防护,知识产权,指针寄存器等含义。
Ip协议的具体内容: 1.Internet体系结构:一个TCP/IP互联网提供了三组服务。最底层提供无连接的传送服务为其他层的服务提供了基础。第二层一个可靠的传送服务为应用层提供了一个高层平台。最高层是应用层服务。
2、IP协议: 这种不可靠的、无连接的传送机制称为internet协议。
3、IP协议三个定义:
(1)IP定义了在TCP/IP互联网上数据传送的基本单元和数据格式。(2)IP软件完成路由选择功能,选择数据传送的路径。
(3)IP包含了一组不可靠分组传送的规则,指明了分组处理、差错信息发生以及分组的规则。
4、IP数据包:联网的基本传送单元是IP数据包,包括数据包头和数据区部分。
5、IP数据包封装:物理网络将包括数据包包头的整个数据包作为数据封装在一个帧中。
6、MTU网络最大传送单元:不同类型的物理网对一个物理帧可传送的数据量规定不同的上界。
7、IP数据包的重组:一是在通过一个网络重组;二是到达目的主机后重组。后者较好,它允许对每个数据包段独立地进行路由选择,且不要求路由器对分段存储或重组。
8、生存时间:IP数据包格式中设有一个生存时间字段,用来设置该数据包在联网中允许存在的时间,以秒为单位。如果其值为0,就把它从互联网上删除,并向源站点发回一个出错消息。
9、IP数据包选项:
IP数据包选项字段主要是用于网络测试或调试。包括:记录路由选项、源路由选项、时间戳选项等。
路由和时间戳选项提供了一种监视或控制互联网路由器路由数据包的方法。
TCP协议:
TCP/IP(Transmission Control Protocol/Internet Protocol)即传输控制协议/网间协议,是一个工业标准的协议集,它是为广域网(WAN)设计的。它是由ARPANET网的研究机构发展起来的。
有时我们将TCP/IP描述为互联网协议集“InternetProtocolSuite”,TCP和IP是其中的两个协议(后面将会介绍)。由于TCP和IP是大家熟悉的协议,以至于用TCP/IP
或IP/TCP这个词代替了整个协议集。这尽管有点奇怪,但没有必要去争论这个习惯。例如,有时我们讨论NFS是基于TCP/IP时,尽管它根本没用到TCP(只用到IP和另一种交互式协议UDP,而不是TCP)。
TCP/IP的标准在一系列称为RFC的文档中公布。文档由技术专家、特别工作组、或RFC编辑修订。公布一个文档时,该文档被赋予一个RFC编号,如RFC959(FTP的说明文档)、RFC793(TCP的说明文档)、RFC791(IP的说明文档)等。最初的RFC一直保留而从来不会被更新,如果修改了该文档,则该文档又以一个新号码公布。因此,重要的是要确认你拥有了关于某个专题的最新RFC文档。通常在RFC的开头部分,有相关RFC的更新(update)、修改(errata)、作废(obsolete)信息,提示读者信息的时效性。详情请阅读网站RFC-editor。、UDP协议:
DP协议的全称是用户数据报协议[,在网络中它与TCP协议一样用于处理数据包,是一种无连接的协议。在OSI模型中,在第四层——传输层,处于IP协议的上一层。UDP有不提供数据包分组、组装和不能对数据包进行排序的缺点,也就是说,当报文发送之后,是无法得知其是否安全完整到达的。UDP用来支持那些需要在计算机之间传输数据的网络应用。包括网络视频会议系统在内的众多的客户/服务器模式的网络应用都需要使用UDP协议。UDP协议从问世至今已经被使用了很多年,虽然其最初的光彩已经被一些类似协议所掩盖,但是即使是在今天UDP仍然不失为一项非常实用和可行的网络传输层协议。
与所熟知的TCP(传输控制协议)协议一样,UDP协议直接位于IP(网际协议)协议的顶层。根据OSI(开放系统互连)参考模型,UDP和TCP都属于传输层协议。
UDP协议的主要作用是将网络数据流量压缩成数据包的形式。一个典型的数据包就是一个二进制数据的传输单位。每一个数据包的前8个字节用来包含报头信息,剩余字节则用来包含具体的传输数据。
超强舰旗性能轻松视频处理 篇3
HP EliteBook 8770w采用酷睿 i7-3610QM 四核处理器、移动式英特尔QM77高速芯片组、专业AMD FirePro M4000 1GB显卡,可以很好地应对视频后期处理中对于CPU和显卡等的高性能要求。
HP EliteBook 8770w外观上给我的第一印象是铝镁合金的外壳,一如既往延续了惠普EliteBook系列的风格。拿在手中大概3.5千克的重量还是可以接受的,毕竟使用到高清17.3英寸显示屏,对于图形处理视角还是宽广不少,能够充分放大呈现画面的色彩、影调和画面细节。1920×1080的分辨率和支持1600万色彩,也让我在剪辑影片的过程中可以很好地判断和挑选素材,对于画面的影调和色彩根据需要做出合理的调整。对于处理数字电影、广告等动态范围高的影片,屏幕能够支持如此强大的色彩对于视频工作的帮助就会凸显出来。值得一提的是HP EliteBook8770w的全键盘背光设计,我想如果将来在户外昏暗的光线条件下,也不会影响到键盘的操作了。
在室内剪辑中我使用的是外接鼠标进行操作,但是如果是在其他移动环境下,其独到的双鼠标左右键就值得一提了,操控性更加方便。还有指点杆和触摸板,其设计也充分考虑到了用户实际使用的便利性。
这次剪辑使用的软件是EDIUS5.5,素材是松下AG-AC160MC拍摄的AVCHD全高清素材。因为AVCHD码流的压缩特性,如果是直接剪辑可能还是会有一些卡,但是如果在上面播放全高清AVCHD视频则没有问题。建议如果是编辑AVCHD格式,同时涉及到多层素材的特效,最好还是先转码。因为这次主要是以剪辑为主,HP EliteBook8770w对于AVCHD格式的直接导入,EDIUS进行原码剪辑都可以顺利完成。特别是在输出最终格式视频时,我选择的MPEG2全高清格式,相比原始素材长度,用时大约是1.5倍的时间,还是很令人满意的。
在使用中观察到,即使是长时间开机,HP EliteBook 8770w的散热还是处理得很好,不会感觉烫手,不用担心工作站过热的问题。同时硬盘、键盘等设计也考虑到户外特殊环境的严苛要求,这也是我喜欢这款工作站的原因。另外,在野外使用时资料的安全性是第一位的,HP EliteBook 8770w支持博锐技术的芯片组,让我们在使用HP EliteBook 8770w用增添了强有力的安全保证,可以更好地防止恶意软件攻击,以及更快地恢复系统。
视频处理技术 篇4
1 将视频等多媒体文件插入PPT
1.1 通过“插入”选项实现
1) “插入”超链接
主要步骤:
(1) 选中需要插入视频文件的图片或文字用于编辑超链接。
(2) 将鼠标移动到菜单栏中, 单击“插入”选项, 从打开的下拉菜单中执行“超链接”命令, 或鼠标右击该图片或文字, 选中“超链接”, 进入“超链接”编辑窗口。
(3) 在随后弹出的文件选择对话框中, 将事先准备好的视频文件选中, 并单击[确定]按钮, 这样就能将视频文件插入到幻灯片中了。
实操分析:
(1) 在进行文件复制时, 要连同视频等多媒体一起复制, 并重新编辑超链接。
(2) 若是Flash, 需安装有Flash播放器才能正常播放。
(3) 播放时点击超链接, 将会弹出窗口, 需点击[确定], 播放流程松散。
2) “插入”影片和声音
主要步骤:
(1) 打开需要插入视频文件的幻灯片。
(2) 将鼠标移动到菜单栏中, 单击“插入”选项, 从打开的下拉菜单中执行“影片和声音”命令。
(3) 在随后弹出的文件选择对话框中, 将事先准备好的视频文件选中, 并单击[确定]按钮, 这样就能将视频文件插入到幻灯片中了。
(4) 用鼠标选中视频文件, 并将它移动到合适的位置, 然后根据屏幕的提示直接点选[在单击时]按钮来播放视频, 或者选中[自动播放]方式。
(5) 在播放过程中, 可以将鼠标移动到视频窗口中, 单击一下, 视频就能暂停播放。如果想继续播放, 再用鼠标单击一下即可。
实操分析:
(1) 使用这种方法将视频文件插入到幻灯片中后, PPT只提供简单的[暂停]和[继续播放]控制, 而没有其它更多的操作按钮供选择。
(2) 对于视频文件的格式有严格要求, 像.rm和.dat等格式的文件就不能插入。
(3) 若想在PPT演示文稿插入声音, 则可类比此法, 对于将某段音乐作为整个演示文稿的背景音乐的控制则可遵照以下主要步骤:用鼠标右击插入[声音]后出现的“喇叭”图标。在弹出的快捷菜单中选择[自定义动画]。在[自定义动画]对话框的[多媒体设置]选项卡中, 播放时:选[继续幻灯片放映];停止播放:选[在XX张幻灯片之后], 具体在第几张幻灯片之后, 要视演示文稿的幻灯片张数而定, 比如总张数为10, 则此处输入“10”。然后, 单击该选项卡上的[其他选项…]按钮, 在弹出的对话框中选择[循环播放, 直到停止], 然后依次单击[确定]按钮, 关闭各对话框。
3) “插入”对象
主要步骤:
(1) 将鼠标移动到菜单栏中, 单击“插入”选项, 从打开的下拉菜单中执行“对象”命令。
(2) 在对应的“对象类型”设置栏处选中“Windows Media Player”选项, 单击[确定]按钮。出现Windows Media Player的播放界面。
(3) 用鼠标选中该播放界面, 然后单击鼠标右键, 从弹出的快捷菜单中选择“属性”命令, 打开该媒体播放界面的“属性”窗口。
(4) 在“属性”窗口中, 在“URL”设置项处正确输入需要插入到幻灯片中视频文件的详细路径及文件名。这样在打开幻灯片时, 就能通过[播放]控制按钮来播放指定的视频了。
(5) 为了让插入的视频文件更好地与幻灯片组织在一起, 还可以修改“属性”设置界面中控制栏、播放滑块条以及视频属性栏的位置。
(6) 在播放过程中, 可以通过媒体播放器中的[播放]、[停止]、[暂停]和[调节音量]等按钮对视频进行控制。
实操分析:
(1) 通过修改控件属性, 达到播放视频的目的。有多种可供选择的操作按钮, 播放进程可以完全自己控制, 更加方便、灵活。该方法更适合PPT演示文稿中图片、文字、视频在同一页面的情况。
(2) 需要插入到幻灯片中视频文件的路径及文件名应详尽, 包括后缀名。视频源文件URL发生改变将不能播放。
(3) 若用此法插入.swf格式的文件可单击“由文件创建→浏览”, 选择需要插入的Flash动画文件, 然后确定。
1.2 通过“视图”选项实现
主要步骤:
(1) 打开需要插入视频文件的幻灯片。
(2) 将鼠标移动到菜单栏, 单击其中的“视图”选项, 从打开的下拉菜单中选中“工具栏”打开级联菜单“控件工具箱”, 再从下级菜单中选中[其他控件]按钮。
(3) 在随后打开的控件选项界面中, 选择“Windows Media Player”选项 (若是其它格式文件, 则进行相应的选择即可。例如:.swf格式的文件则选择Shockwave Flash Object) , 再将鼠标移动到PPT的编辑区域中, 画出一个合适大小的矩形区域, 随后该区域就会自动变为Windows Media Player的播放界面。
以下步骤同“ (3) ‘插入’对象 (3) - (6) ”。
实操分析:
(1) 无需安装flash播放器。
(2) 建议把视频等多媒体文件转换成.swf格式文件, 并选择“嵌入”, 即在“属性”对话框中, 将“Embedmovie”选项后边的“False”修改成“True”。把视频等多媒体文件嵌入到PPT演示文稿中, 优点是即使把源文件删除掉, 或计算机上未安装flash播放器, 嵌入到演示文稿中的视频照样能播放。
(3) 将视频文件转换成.swf格式文件可采用“Format Factory” (格式工厂) 软件。
2 将PPT转换为视频等多媒体文件
若想将PPT演示文稿上传到网上实现跨平台播放, 可将其转换为视频等多媒体文件。
1) 将PPT演示文稿转换为.wmv文件
随着Office版本的更新, Powerpoint软件支持的“另存为”文件类型也逐渐增多。Power Point2010提供了将演示文稿直接保存为WMV格式的视频文件功能。
主要步骤:
(1) 用Power Point2010打开演示文稿。
(2) 在“文件”选项卡, 单击“另存为”。
(3) 在“保存类型”列表中, 单击“Windows Media视频 (*.wmv) ”, 然后单击“保存”按钮。
实操分析:
(1) 用于转视频的文件需是.pptx格式, 如果不是, 可先用“另存为”转换格式。
(2) PPT演示文稿转换成视频的步骤虽然很简单, 但是在声音方面经常会遇到一些问题, 最常见的有:视频与原PPT播放不同步。这类情况可能是因为电脑配置不够高, Power Point2010转换视频的时候过于吃力, 可以尝试换配置高的电脑重新转换。
2) 将PPT演示文稿转换为.swf文件
Power Point2010虽将演示文稿转换为了视频, 但无法像原演示文稿一样控制操作。Power Point2010以下版本则不具备将演示文稿保存为视频等多媒体文件。运用插件i Spring (http://www.Portablesoft.cn/ispring-free/) 则可以实现将PPT演示文稿转换为.SWF文件, 并保留交互效果。
主要步骤:
(1) 下载并安装i Spring (i Spring功能按钮将会自动嵌套在PPT的菜单栏里) 。
(2) 切换到[i Spring]标签下, 点击[Publish]按钮, 打开转换界面。在转换界面中可以对转换后的播放形式 (选择Flash) 、切换间隔等方面进行设置。
实操分析:
i Spring是一款不错的免费的Power Point转Flash工具, 即ppt to swf工具。它可以轻松地将PPT转换为对Web支持的Flash影片格式, 转换的同时将会保留原有的可视化与动画效果, 转换效果不错, 与原有PPT文档相差无几, 只是对一些图像质量有所下降, 应是压缩的缘故。
摘要:PPT是当前最流行的演示文稿制作软件之一, 笔者结合自己的实际使用经验, 在本文中重点介绍了几种将视频等多媒体插入PPT演示文稿以及将PPT演示文稿转换为视频等多媒体文件的常用方法及操作步骤, 分析了制作中的常见问题。
关键词:PPT演示文稿,插入,转换,视频
参考文献
[1]张凯宋慧宁.插件让PPT插上“翅膀”[J].中国教育信息化, 2011 (06) .
[2]毕芳芳李志敏.在PPT课件中嵌入视频文件的制作技巧[J].电脑学习, 2011 (06) .
图像视频处理基础知识总结 篇5
⑴ 图像采集的原理
数码相机,摄像机等都是通过传感器来获取图像的,传感器阵列是由横竖两个方向密集排列的感光元件(CCD或CMOS)组成的一个二维矩阵,它收集入射能量并把它聚焦到一个图像平面上,与焦点面相重合的传感器阵列产生与每一个传感器接收光总量成正比的输出。数字或模拟电路扫描这些输出,并把它们转换为信号,由成像系统的其他部分数字化。
⑵ BAYER矩阵
传感器阵列的排列方式可以有很多种,现在最常用的是Bayer矩阵模式的排列方式,即每个CCD就对应一个像素。其中R感应红光、G感应绿光、B感应蓝光,而在Bayer模式中G是R和B的两倍(因为我们的眼睛对绿色更敏感)。以下是Bayer阵列的一种排列方式: RGRGRGRGRG
GBGBGBGBGB
RGRGRGRGRG 以中心绿色的G为例,此像素只有G,缺少R与B,R就等于上下两个R的平均值,B就等于左右两个B的平均值。其他的R与B都是一样的,每个像素补齐RGB三色就可以。此种插值算法是最简单最高效的,当然在一些图像的边界之处其影像效果最会有一些折扣。
⑶ 伽马校正
数码相机拍摄出的彩色图像,以及我们把一幅图像在显示器上显示出来都要进行相应的伽马校正。数码RAW格式的拍摄是采用线性的gamma(即gamma 1.0),可是人的眼睛对光的感应曲线却是一“非线性”的曲线。所以RAW Converter会在转换时都会应用一条Gamma曲线到Raw数据上(简单的理解,就是相当于对原始数据进行一个f(x)的变换,并且注意,f(x)并不是一次的线性函数),来产生更加接近人眼感应的色调。同理,显示器的强度(Intensity)并非与输入讯号成正比(非线性关系),这种非线性特性称为Gamma特性。
各参数简述如下: ① Image_gamma:为输入影像的γ值,一般订为γNTSC=2.2,γPAL=2.8,γRGB=1,γMAC=1.8;
② Display_gamma:因制造技术的关系,每一制造厂生产出来的显示器γ值都会不一样,所以制造厂需提供显示器γ值,一般订为γCRT=2.5,γLCD=1.6;
③ Viewing_gamma:为最后我们用眼睛去看的结果,理想状况为1,即为看到的影像为原
始影像,一般会因外在环境的影响,γ值从1至1.5变化。
④ LUT_gamma:伽马参数的LUT表。
输入讯号经γ修正器与显示器后,最后希望看到的是与原输入影像一样的画面,即没有失真。
⑷ RGB和YUV图像
在计算机中使用最多的 RGB 颜色空间,分别对应红、绿、蓝三种颜色;通过调配三个分量的比例来组成各种颜色。一般可以使用 1、2、4、8、16、24、32 位来存储这三颜色,不过现在一个分量最大是用 8 位来表示,最大值是 255,对于 32 位的颜色,高 8 位是用来表示透明度的。彩色图一般指 16 位以上的图。灰度图有一个特殊之处就是组成颜色的三个分量相等;而一般灰度图是8 位以下。
在彩色电视机系统中,通常使用一种叫 YUV 的颜色空间,其中 Y 表示亮度信号,也就是这个 YUV 空间解决了彩色电视机和黑白电视机的兼容问题。对于人眼来说,亮度信号是最敏感的,如果将彩色图像转换为灰度图像,仅仅需要转换保存亮度信号就可以。
从 RGB 到 YUV 空间的 Y 转换公式为:
Y = 0.299R+0.587G+0.114B
在 WINDOWS 中,表示 16 位以上的图和以下的图有点不同; 16 位以下的图使用一个调色板来表示选择具体的颜色,调色板的每个单元是 4 个字节,其中一个透明度;而具体的像素值存储的是索引,分别是 1、2、4、8 位。16 位以上的图直接使用像素表示颜色。
⑸ 彩色图转换为灰度图
灰度图(GrayScale)是指只含亮度信息,不含色彩信息的图像。灰度化处理是把含有亮度和色彩的彩色图像变换成灰度图像的过程。灰度化处理在许多图像处理中是很重要的一步,他的结果就是后续处理的基础。所以,寻求一种正确有效的灰度化处理方法尤其重要。
那么如何将彩色图转换为灰度图呢?
常用的色彩系统有RGB、YIQ、YUV。
1)YIQ色彩系统属于NTSC电视广播制式系统。Y是亮度,即图像的灰度值,I和Q则是指色调。它与RGB的关系为:
2)YUV属于PAL电视广播制式系统。Y也是亮度,U和V也是色调。它与RGB的关系为:
灰度图中有调色板,首先需要确定调色板的具体颜色取值。我们前面提到了,灰度图的三个分量相等。当转换为 8 位的时候,调色板中有 256 个颜色,每个正好从 0 到 255 个,三个分量都相等。当转换为 4 位的时候,调色板中 16 个颜色,等间隔平分 255 个颜色值,三个分量都相等。当转换为 2 位的时候,调色板中 4 个颜色,等间隔平分 255 个颜色,三个分量相等。当转换为 1 位的时候,调色板中两个颜色,是 0 和 255,表示黑和白。
将彩色转换为灰度时候,按照公式计算出对应的值,该值实际上是亮度的级别;亮度从 0 到 255 ;由于不同的位有不同的亮度级别,所以 Y 的具体取值如下:
Y = Y/(1<<(8-转换的位数));
最后一点需要注意,得到 Y 值存放方式是不同的;分别用对应的位数来存储对应的 Y 值。在计算 Y 值的时候,使用的整数除法,这是有误差的,为了消除误差,需要采用误差扩散的算法,也就是将该误差值向其邻近的像素点扩散,当然按照一定的比例来分配;例如:整除之后,余数是 5,采用 3/2/3 的策略,就是,右边像素和正下面的像素各占 3/8,而右下角的像素占 2/8。
2.图像格式转换的算法描述
⑴ BAYER矩阵转换为RGB格式图像的算法描述
我们通常采用插值算法(Interpolation)把BAYER矩阵中的像素的颜色值转换为一个像素的RGB的数值。我们通常以3×3的插值算法来计算BAYER矩阵的像素的RGB值,该插值算法中某个位置像素的RGB分量的值只取决于以该像素为中心的3×3的邻域中同样分量的均值。
⑵ RGB格式图像转换为灰度图像的算法描述
我们进行图像处理通常都是在微机上进行的,因此以微机的Windows系统为例来介绍如何将RGB格式图像转换为灰度图像。
Windows系统中使用的是设备无关位图(DIB)
DIB即Device_Independent Bitmap。目前,Windows处理的DIB通常是以BMP文件存在。BMP文件文件有如下的四个部分;
1)位图头文件:BITMAPFILEHEADER,它是一个位图标志
2)位图信息头:BITMAINFOHEADER
它定义了图像的大小,长宽等信息,长度固定为40个字节。
3)调色板(Palette)
它用来存放位图的颜色,如果是真彩色图,则不需要调色板。其定义为: 所谓调色板就是在16色或256色的显示系统中,将图像中频率出现最高的16或256种颜色组成颜色表。对这些颜色按0至15或255进行编号,每一个编号代表其中的一种颜色。这种颜色编号就叫做颜色的索引号,4位或8位的索引号与24位颜色值的对应表叫做颜色查找表。使用调色板的图像叫做调色板图像,它们的象素值就是颜色在调色板查找表中的索引号。
4)实际的图像数据
对于用到调色板的位图,图像数据就是该像素颜色在调色板中的索引值,对于真彩色图,图像数据就是实际上的红(R)、绿(G)、蓝(B)的值。由前面介绍的原理可知,知道图像某点的R、G、B值,要得到亮度信息,则可由下式计算出: Y=0.299*R+0.587*G+0.114*B(1)
而在用BMP表示的灰度图中,其红(R)、绿(G)、蓝(B)三个分量的值相等,即有
R=G=B(2)式
把(2)式代入(1)式中,可得:I=Q=0,即图像没有了色彩信息。
同理,对YUV颜色空间也一样。
为了把彩色图像转换为灰度图像,首先要找出彩色图像的颜色值:R、G、B。然后,通过(3)式计算,即可得出亮度值Y。再令:R=G=B=Y,则得到的新的图像,即灰度图像。
对于24位或32位的真彩色图像而言,找出每点的RGB值相对容易。前面介绍了,24位或32位真彩不需调色板,它的图像数据就是实际的RGB的值。RGB三个分量分别占有一个字节,即容易取得RGB的值。
而对于16位位图言,它的一个点用两个字节来表示。它也不用调色板。要取得RGB的值,就需要了解R、G、B在这两个字节中的位置。它们所占的位置是这样的:
R占高5位,B占低5位,G占中间6位。
视频处理技术 篇6
【关键词】VGA接口标准、嵌入式视频系统、SOPC
【中图分类号】TP391.41;TP277 【文献标识码】A 【文章编号】1672-5158(2013)04-0067-01
一、SOPC方案论证
SOPC是PLD和ASIC技术融合的结果,目前0.13微米的ASIC产品制造价格仍然相当昂贵,相反,集成了硬核或软核CPU、DSP、存储器、外围I/O及可编程逻辑的SOPC芯片在应用的灵活性和价格上有极大的优势。SOPC被称为“半导体产业的未来”。SOPC是一种特殊的嵌入式系统:首先它是片上系统(SOC),即由单个芯片完成整个系统的主要逻辑功能;其次,它是可编程系统,具有灵活的设计方式,可裁减、可扩充、可升级,并具备软硬件在系统可编程的功能。
常见的EDA软件有ORCAD、Multisim、PROTEL、Quaaus、Matlab等,本文使用的软件平台是美国Altera公司Quartus Ⅱ,它是单芯片可编程系统( SOPC)设计的综合性环境,拥有FPGA和CPLD设计的所有阶段的解决方案,能够完成所有的软件流程。
本文使用的硬件开发板是Altera的UP3板,得益于强大的硬件开发板,设计过程基本不需要进行硬件制作,该板拥有的FPGA(EPlC3)、VGA接口插件、FlashROM、EEPROM等硬件资源,对加快设计进度有很大的帮助。
二、VGA图形控制器的设计与验证
随着全球化的加速,当前的电子产品已经日趋标准化,放弃标准等于放弃市场。因此,从技术标准人手进行设计已经成为新时期电子设计的必然途径。
(一)VGA图形控制器的整体设计
VGA图形控制器是一个较大的数字系统。采用模块化设计原则,借鉴自顶向下的程序设计思想,进行功能分离并按层次设计。利用VHDL硬件描述语言逐一对每个功能模块进行描述,并逐个通过编译仿真。使顶层VGA图形控制器的模块实体仿真综合得以顺利通过。VGA控制器主要由以下模块组成:VGA时序控制模块,分频模块、图像控制模块、ROM读取模块等。
模块其实就是一个个能够独立实现某种功能的子电路,与传统意义上的电路不同的是,可编程逻辑器件中的模块都是通过VHDL等硬件描述语言来完成功能设计。这种设计方法的最大的好处是易于修改,避免了传统电路改进过程中需要克服的硬件更改问题,提高了设计效率。
(二)VGA控制器的时序控制器的设计
根据VGA工业标准,VGA控制器输出信号主要有三组:HS、VS、RGB,输入信号主要两组:CLK、DATA
根据VGA行扫描时序要求,控制器需要一个行脉冲计数器(输入接CLK,初值为0,计数值高于800时进位)和一个水平同步脉冲发生器(在行脉冲计数器数值高于656且低于752时,输出一个低电平)。
根据VGA场扫描时序要求,控制器需要一个场脉冲计数器(输入接行脉冲计数器的进位端,初值为0,计数值高于525时进位)和一个垂直同步脉冲发生器(在场脉冲计数器数值高于490且低于492时,输出一个低电平)。
根据VGA工业标准对图像分辨率和消隐信号的要求,控制器需要一个图像输出使能控制器(在行脉冲计数器数值低于640且场脉冲计数器数值低于480时,把DATA图像信号输出到RGB端)和一个消隐控制器(在行脉冲计数器数值高于于640或场脉冲计数器数值高于480时,把数值0赋到RGB端)。把以上思路用VHDL语言描述出来,输入到QuartusⅡ的文本编辑器中,编译无误后,就完成了对VGA时序控制器的初步设计。
行脉冲计数器及HS行同步脉冲产生模块的验证,行脉冲HS(hsyne)结束时间为30.29us,加上行同步头Tb的40个周期(约1.6us),可知仿真所得的行周期为31.89us,由于输入CLK信号为25MHZ低于标准的25.175MHZ,因此它比标准的行周期31.78us略长是正确的,此外HS的脉冲宽度也在3.8us左右(标准为3.81us),可见本模块时序仿真验证正确的。
场脉冲计数器及VS场同步脉冲产生模块的验证,行脉冲VS(vsyne)结束时间为15.75ms,加上场同步头Tb的25个周期(约为0.8ms),可知仿真所得的行周期为16.55ms,和标准的16.688ms误差在正常范围的,此外VS的脉冲宽度也在0.06ms左右(标准为63us),可见本模块时序仿真验证是正确的。
控制器能够将信号pax val延迟少许时间送到RGB端证明,该模块时序仿真验证是正确的。
(三)ROM读取控制模块
ROM读取控制模块是VGA彩色显示器和存储图像数据的ROM之间的通道。为了保证VGA显示器能够准确的显示图像,必须严格按照显示器的扫描规律,在ROM中逐个字节的存储对应像素点的颜色数据,并通过RGB信号线把颜色数据输入VGA显示器,从而得到ROM中存储的图像信息,在显示器上显示出完整的一幅图像。
此模块的设计关键在于产生与各个像素点对应的ROM的地址信号。利用类似于横坐标与纵坐标定位的方式,可以分别得到高9位和低10位地址信号,最终结合为19位的地址信号。可以实现横坐标不大于640,纵坐标不大于480的像素点的定位,并得到ROM中相对应地址的颜色数据。
(四)VGA彩色信号生成模块
通过一个4进制计数器mode对该输入进行计数,每当按钮被按下一次,计数器mode的值就加1。而计数器mode的值又决定着输出的彩条信号的类型,当mode为0时,输出的彩条为竖彩条;当mode为1时,输出横彩条;当mode为2时,输出棋盘格彩条;当mode为3时,输出“全黑”信号;当mode为4时,输出“全白”信号,以此类推,共显示11种模式。
(五)刷新率调节模块的设计
VGA 9业标准的分辨率为640×480,刷新率为60HZ,这无法满足用户对显示画面的要求,要解决这一问题,必须提高VGA控制器的象素输出频率(即点频),使VGA控制器描述一个点所花费的时间更短,进而在同一时间内描述更大的信息量(即更高的分辨率)和更多幅的画面(即更高的刷新率)。
FPGA器件CycloneEPIC3内部拥有PLL锁相环,可以通过QuartusⅡ的Mega Wizard功能模块生成,这样就可以在FPGA器件内部建立一个倍频器(由于器件限制,最高倍频输出频率为450MHZ),如果在这个倍频器输出端接上一个数控分频模块,那么我们就可以控制VGA接口的象素输出频率了,这样就可以实现更高的分辨率和刷新率了。
视频处理技术 篇7
1 Map Reduce计算框架介绍
Map Reduce是谷歌提出的软件框架, 基于该框架的应用程序能够运行在由上千个普通机器组成的大型集群上, 并以一种可靠容错的方式并行处理T级别的数据集。每个Map Reduce任务都被初始化为一个Job。每个Job又可以分为两个阶段:Map阶段和Reduce。这两个阶段分别用两个函数来表示, 即Ma函数和Reduce函数。
2 基于Mapreduce的视频处理设计
Map Reduce是对海量数据进行并行处理的计算框架, 因此Map Reduce框架也可以对海量视频数据进行分析处理。但用于Map Reduc处理的数据类型多是针对于文本数据, 而视频是非结构化的数据, 所以不能用Map Reduc直接处理视频数据, 需要设计Map Reduce下用于处理视频的数据类型, 处理流程如图1所示:
3 基于Map Reduce的视频处理算法实现
为了检验基于Map Reduce的海量视频处理框架的有效性, 实验实现了基于Map Reduce的人车分类算法。通过对采集的视频进行智能分析, 获取运动目标, 并通过分析目标的边缘方向分布对其进行自动分类, 有效区别道路上的行人和车辆。与单机处理结果对比如表1:
由表1可知:同等大小的视频, 在Hadoop集群上运用Map Reduce框架进行人车分类算法所需的时间明显小于在单机上处理所需的时间, 因此面对海量视频数据, 采用基于Map Reduce的视频处理框架可以提高视频处理的效率。
4 结束语
本文根据Map Reduce计算框架的特点, 设计了一种Map Reduce框架上针对视频文件处理的输入输出格式, 使得视频数据在Map Reduce框架上并行处理, 提高了视频分析的效率。将Map Reduce应用于视频处理, 这是一种应用创新, 有效地提高了视频处理的速率。
参考文献
[1]Moretti, C., Bui, H., Hollingsworth, K., Rich, B., Flynn, P., Thain, D.:Allpairs:Anabstraction fordataintensive computing on campus grids.IEEE Transactions on Parallel and Distributed Systems21, 33-46 (2010) .
[2]Pereira, R., Azambuja, M., Breitma n, K., Endler, M.:An architecture for distributed high Performance video processing in the cloud.In:Proceedings of the 2010 IEEE 3rd International Conference on Cloud Computing.pp.482-489.CLOUD’10 (2010) .
[3]B.White, T.Yeh, J.Lin, and L.Davis, "Webscale computer vision using MapReduce for multi media datamining", in DMKDD'10, 2010, articleNo.9.
视频处理技术 篇8
手术显微镜是一种常规医疗设备,是医生用来进行病情诊断和对病人进行手术治疗的重要工具。过去,为了保存资料,常用照相机将所需的手术画面拍摄下来,或者用录像机与电视摄像机相连,在磁带或磁盘上记录整个手术过程。这存在着许多方面的不足:首先是效率低,人工干预成份较大;再者需要资源较多,操作不方便,花费也较大;另外,不支持数据库的管理和视频的编辑。为此需要设计并实现一个简单易操作的显微镜视频管理系统,能实现显微镜视频的采集,并通过计算机存储手术视频,并实现手术视频和病人资料的有效管理。[3]本文在Windows平台下,基于DirectShow技术实现了一个医疗视频采集与处理系统。此系统包括以下几个功能:视频采集功能、视频播放功能、视频编辑功能和视频图像的抓图功能等。通过这个系统,可把每次手术的内容以视频的形式保存到计算机中,并用数据库对手术视频进行管理,以便于查找;本系统还可以对采集到的视频进行编辑,删除无用的部分,保留手术的核心部分,以便于学术交流和节省磁盘空间。
1 DirectShow技术概述
DirectShow技术是微软推出的多媒体应用程序开发工具包,它提供对多媒体数据流的高质量捕获和回放,代表着未来多媒体应用程序开发的方向。DirectShow支持多种媒体格式,包括ASF、MPEG、AVI、MP3和WAV声音文件;可以从硬件上捕获媒体数据流;可以自动检测并使用视频和音频加速硬件。因此,DirectShow可以充分发挥媒体的性能,提高运行速度,可以简化媒体播放、媒体间的格式转换和媒体捕获等工作。同时,它还具有极大的可扩展性和灵活性,可以由用户自己创建组件,并将这个组件加入DirectShow结构中以支持新的格式或特殊的效果。
DirectShow的技术架构如图1所示。(参见右栏)
图1中央最大的一块即是DirectShow系统,虚线以下是Ring 0特权级别的硬件设备,虚线以上是Ring 3特权级别的应用层。DirectShow位于应用层中,使用一种叫Filter Graph的模型来管理整个数据流的处理过程;参与数据处理的各个功能模块叫Filter;各个Filter在Filter Graph中按一定顺序相互连接成一条"流水线"协同工作。
由此可见,Filter是DirectShow最基本的组成元件。DirectShow提供了很多Filter供用户选择使用,用户可根据自己的需要来定制开发,以更加灵活的控制媒体流和实现一些特定功能。DirectShow的Filter采用了组件对象模型(COM)标准,基于COM技术的软件开发就是编写COM组件并将其组合,软件的维升级就是对组件进行修改和替换。对于COM组件的访问必须通过接口来完成,这里的接口是一组由组件实现并提供给用户使用的函数,用户只能通过接口同组件打交道。
按照功能来分,Filter大致可分为3类:Source Filter、Transform Filter和Renderer Filter。Source Filter主要负责获得数据,数据源可以来自文件、因特网,或计算机里采集卡、数字摄像机等,然后将数据向下传输;Transform Filter主要负责数据格式转换、传输,如媒体流分离/合成、编码/解码等,然后将数据继续向下传输;Renderer Filter主要负责数据的最终去向--将数据送给显卡、声卡进行多媒体的演示,或输出到文件进行存储。【1】
3 显微镜手术视频采集处理系统
3.1 显微镜手术视频采集处理系统概述
显微镜手术视频采集处理系统主要的主要组成部分如图2所示:
此系统各部分的功能如下:
(1)医用显微镜部分:医用显微镜下即是手术过程,也就是本系统要采集的视频源。
(2)CCD摄像头部分:CCD摄像头通过专用接口与显微镜相连。
(3)视频采集处理系统:是装有视频采集处理软件系统的计算机,通过采集卡与CCD摄像头相连接。
3.2 显微镜手术视频采集处理软件系统
显微镜手术视频采集处理软件系统采集存储流向采集卡的视频流,并实现相关的管理处理功能,它包括以下几个部分:视频采集部分、视频播放部分、视频编辑部分、视频图像的抓图功能和数据库管理部分等。
(1)视频采集部分:将摄像头捕捉到的模拟视频信号转换为数字视频信号并能实现预览功能。通常情况下视频采集设备所采集到的视频为非压缩的AVI格式,视频数据量非常巨大,对要求将视频文件保存到本地系统中的用户来说,这是不可能接受的。本系统采用MPEG-2编码对视频流进行压缩。
(2)视频播放部分:可对本地系统中的视频文件进行解码,并进行播放,其功能和其它的视频播放器的功能相似,如播放、暂停和全屏等。
(3)视频编缉功能:采集到的手术视频存在大量的冗余部分,为了便于学习和交流,需要对采集下来的手术视频进行编辑。
(4)手术视频的抓图:本系统在预览时、录像时和播放时都可以抓取关键图片,便于病理诊断和进行手术前后的比较。
(5)数据库管理部分:本系统采用数据库对手术信息和病人资料进行管理。
4 系统采集与播放部分的实现
使用DirectShow开发应用程序,一般有3个步骤:(1)创建一个Filter Graph Manager组件;(2)根据应用程序的Filter链路,把各个Filter连接起来;(3)调用Filter Graph Manager上的各个接口方法控制Filter Graph的运行。
进行DirectShow应用程序的开发前,先在graphedt中验证应用程序的Filter链路是否切实可行。在Windows平台下配置完成DirectShow开发环境后(安装Microsoft Visua Studio 2005和Microsoft DirectX 9.0 SDK),在graphedt中实现本系统视频采集部分的Filter链路如图2(未连接显微镜,仅是示意图)。图3中"Ulead MPEG Encoder"是MPEG-2编码Filter,含Filter"SampleGrabber"的链路用于视频预览及抓图。
根据图3所示的Filter Graph,按照以上DirectShow开发应用程序的步骤,在.net环境下编程即可实现本系统的视频采集部分。如图4即为本文显微镜手术视频采集处理系统的视频采集实现界面。同理即可实现系统的视频播放部分。
5 结论
本文在Windows平台下,基于DirectShow技术实现了一个显微镜手术视频采集与处理系统。此系统可以与手术显微镜配套使用,实现显微镜手术视频采集压缩、存储、编辑及数据库管理,以便于诊断、教学和学术交流。
参考文献
[1]陆其明.DirectShow开发指南.北京:清华大学出版社,2003.
[2]魏立诚,朱桂林.基于DirectShow的视频采集系统的设计与实现.计算机工程,2005,31(14).
[3]刘春梅,周山宏.手术显微镜视频图像采集及数据管理系统.现代科学仪器,2006.
[4]四维科技,刘祎玮.Visual C++视频/音频开发实用工程案例精选[M].北京:人民邮电出版社,2004.
[5]陆其明.DirectShow实务精选[M].北京:科学出版社,2004.
视频处理技术 篇9
2D转3D技术是在现有3D资源比较少的情况下出现的一种技术,它能够将日常观看的普通2D电视节目,通过运算产生出3D的显示效果。2D转3D技术是在原有2D图像的基础上,经过对图像内容进行运算,生成新的视差图像,然后将视差图像与原图像交错混合输出来产生3D图像的技术,通过佩戴合适的3D眼镜,让使用者左眼看到原图像,右眼看到新产生的视差图像,便可以达到2D图像显示出3D效果的目的[1]。
1 双眼立体视觉原理
人的双眼相距约6.5cm,人在用双眼观看物体的时候,左、右眼会分别观看到两幅略微不同的图像,左、右眼视网膜上所成的像也有不同,经大脑皮层的综合反应便会产生出立体的感觉,这就是视差创造立体[2]。因此,采集、制作左、右眼图像并分别输入给左、右眼,就可以让人看到立体画面。如果左眼观看屏幕右边的画面,右眼观看左边的画面,视差为负值.此时人的大脑所形成的画面便会在屏幕的前方,画面有凸出感,如果左眼观看屏幕左边的画面,右眼观看右边的画面,视差为正值,此时人的大脑所形成的画面则会在屏幕的后方,画面有凹进感,如果人的双眼所观看的画面视差为零,左、右眼同时观看画面中的同一物体,则物体在人脑中的合成图像依然在屏幕中的原位置,既没有凸出屏幕也没有凹进屏幕[3]。
2 3D显示技术
目前的立体显示技术普遍依据于双眼立体视觉的特点,首先在视频源端发送两路具有一定视差的视频源,然后进行编码、传输、接收、解码获得该两路视频流,最后通过3D显示技术进行立体视频显示。目前的3D电视的显示技术大致可以分为两大类:眼镜式3D与裸眼式3D显示技术。常见的眼镜式3D显示技术有:快门式眼镜、偏光式眼镜、色差式眼镜[4]。采用快门式眼镜,快门式眼镜,即“主动开闭式立体眼镜”。电视机将左、右眼图像交替显示在屏幕上,通过电视机发射的专用同步信号控制快门眼镜左右液晶镜片的开关,使得屏幕上显示左(右)眼图像时,左(右)眼液晶镜片打开,同时右(左)眼液晶镜片关闭,这样保证了左、右眼图像能独立地进入左右眼中,经人脑处理形成3D效果[5]。
3 2D转3D技术在数字电视SOC芯片上的应用
3.1 模块设计
该模块设计基于海信自主研发的一款应用于网络多媒体平板电视及3D电视的高集成度高画质数字电视SOC芯片。如图1所示是OSD(屏显)参与2D/3D模块设计图。2D视频数据流首先进入VPN(视频处理)模块,出来的2D视频数据流进入OB单元,OB即OUTPUT BLOCK(决定2D、3D视频数据流的输入输出,对2D、3D视频数据流进行选择作用)此时输出2D视频数据流,输出的2D视频数据流与OSD进入MUX模块,两路数据流合成一路数据流进入OB再进行选择,输出2D视频数据流,进入2D/3D单元,在此进行2D转3D后输出3DL/R,即左眼图像和右眼图像,经过C3D模块对3DL/R数据进行格式转换,转换成显示屏所支持的3D格式。格式转换后输出3D数据再进入VPN模块,然后传输给POST单元,POST负责对画质进行处理,比如调节屏幕的亮度、色度、白平衡等。最后由POST单元以LVDS(低压差分信号技术)信号格式输出给TCON(时序控制器)。
3.2 关键功能的软件实现
3.2.1 3D视点调整
在3D技术中,视点是视差图像与原图像之间形成的楔形的倾斜角度,视点能够调节形成的3D图像的内凹和外凸的程度,也就是图像看起来是入屏还是出屏的效果[6]。通常大多数3D电视会为用户提供“3D视点等级调整”功能,用户可以调整他们喜欢的3D效果和位置。例如,2D/3D模块根据不同的视点参数定义了20个等级,等级1意味着3D效果和物体的位置在屏幕的最里面,等级20意味着3D效果和物体的位置在屏幕的最外面,等级10则意味着出、入屏幕各占50%。先声明函数BOOL_T my3DTV_Set2D3DConvergenceLevel(UINT8_T level),调用API:void HX_RV3D_LIB_T2T_EFFECT_SetConvergence(UINT8_T Focus),声明参数Focus的20个等级的映射表,参数Focus就代表图像向外显示的比率,例如设置Focus=20,就意味着对象向外显示20%,向内显示80%,UINT8_TFocus_table[20]={0,10,15,20,25,30,35,40,45,50,55,60,65,70,75,80,85,90,95,100},如图2所示。
3.2.2 3D立体效果调整
景深是视差图像与原图像水平方向的向量差,向量差越大,立体效果越明显。3D电视也通常提供“3D立体效果调整”来控制3D立体强度。用户可以设置较强的3D立体效果使3D的视频、图像立体效果更强,如果用户感到不舒服,可以设置较小的值使3D立体效果减弱。例如,设立了20个2D/3D效果强度的等级值,等级值越小,3D效果强度越弱;等级值越大,3D效果强度越强。首先建立一个混合大小规模调整立体指数的索引表,UINT8_TStereIndex_table[20][2]={{5,1},{10,1},{15,2},{20,2},{25,3},{30,3},{35,4},{40,4},{45,5},{50,5},{55,6},{60,6},{65,7},{70,7},{75,8},{80,8},{85,9},{90,9},{95,10},{100,10}}。3D立体效果调整主要调用两个函数,函数HX_RV3D_LIB_T2T_EF-FECT_SetLargeScaleStereoIndex()可以决定左眼视图和右眼视图直接所差的像素数量,也叫做“立体指数”,这个函数进行大范围的调整,可以看到2D/3D图像明显地发生变化,可以调整的范围是0-100;函数HX_RV3D_LIB_T2T_EFFECT_SetS-mallScaleStereoIndex()可以微调显示对象的立体效果,从而提高2D/3D的转换质量,显示更为生动的3D图像,函数参数的调整范围设置为1-10。效果展示如图3,图4所示。
3.2.3 固定场景模式与自动场景模式识别
3D固定场景模式功能为用户提供了固定场景模式选择,用户可以根据场景不同选择不同场景模式以达到最佳的3D效果。比如外景图片,可以选择户外模式,户外模式可以把图片中远景天空与地面近景人物的远近对比加强,显示出更强烈的3D效果。固定模式选择在软件上可直接调用API接口HX_RV3D_LIB_T2T_EFFCT_SetSceneMode()来实现。
自动场景模式是2D/3D模块中一个重要功能,自动场景模式不局限在手动选择,它可以根据每帧图像内容和特点进行自动检测和配置,这样使不同的图像应用于合适的3D场景模式,如图5,图6所示。自动场景模式有两种合适的方法,模式1用于垂直方向配置,模式2用于垂直和水平方向的配置。这两种模式对应的函数分别是HX_RV3D_LIB_T2T_AUTOSCENE_Init(),HX_RV3D_LIB_T2T_AUTOSCENE_ProcAutoDetectScene Mode()。如果系统不调用HX_RV3D_LIB_T2T_AUTOSCENE_Init()初始化功能,则系统默认为固定场景模式。若想改变固定场景模式,可直接调用HX_RV3D_LIB_T2T_EFFECT_SetScene Mode(),2D/3D模块将自动地由自动模式转为固定模式。为了确保每帧图像的场景模式的准确度,自动场景模式在基于Linux内核基础上,采用场中断方式实现的。相关代码如下:
4 结语
介绍了2D转3D技术在高清数字电视SOC芯片上的应用模块设计实现,主要包括3D视点调整、3D立体效果调整、固定场景模式、自动场景模式等,并进行了调试、验证。结果表明,2D转3D模块的设计均符合设计要求,3D画面质量主观效果很好。
参考文献
[1]邹小东.2D视频转3D视频算法的研究与软件实现[D].成都电子科技大学,2012.
[2]王晓娟.2D转3D中的深度信息生成技术研究[D].安徽工业大学,2012.
[3]赵兴朋.视频图像2D转3D算法研究及硬件实现[D].中国海洋大学,2012.
[4]刘妍秀.3D显示技术的原理及应用[J].长春大学计算机科学,2011.
[5]K.Zhao,G.Simnny.New algorithms from reconstruction of a3-d depth map from one or more images.In Proc IEEE CVPR,2010.
视频处理技术 篇10
1 PLD的结构与特点
数字逻辑器件主要包括标准产品(逻辑门、触发器、译码器等)、由软件配置的LSI器件(微处理器、单片机等)和专用集成电路ASIC。专用集成电路又分为全定制、半定制和可编辑逻辑器件——PLD。其基本结构是数据输入后,输入控制电路——“与”阵列——“或”阵列——输出控制电路,然后输出数据。PLD的分类有三种,按集成密度、制造工艺和不同阵列的可编辑性又进行了详细的分类。
1.1 EDA技术
EDA技术是指以计算机为工作平台,融合了应用电子技术、计算机技术、信息处理及智能化技术的最新成果,进行电子产品的自动设计。EDA工具在PLD技术中有重要的地位,EDA的核心是利用计算机完成电路设计的全程自动化。在中国,EDA软件开发的性能不强,通过不断的学习,未来可能会有更好的技术出现。
1.2 CPLD和FPGA
CPLD是指复杂可编程逻辑器件,规模大,结构复杂,属于大规模集成电路范围。是一种用户根据各自需要而自行构造逻辑功能的数字集成电路。CPLD器件是电子产品不可缺少的组成部分。FPGA是指现场可编程门阵列,它是作为专用集成电路领域中的一种半定制电路而出现的,既解决了定制电路的不足,又克服了原有可编程器件门电路数有限的缺点。
2 PLD技术的应用
随着科技的发展,我们生活的方方面面都会应用到集成电路,特别是智能手机的出现,大大增加了集成电路的需求量。传统的老式手机运行速度慢,存储量低,更新换代速度慢。现在的手机研发公司代表例如苹果、三星、步步高等牌子,占据了绝大部分中青年的生活领域,手机的更换速度加快,对集成电路芯片的数量要求增加,在保证数量的同时,更要保证质量。PLD作为集成电路的一种,适用于大批量的应用,更可以大批量的生产,降低经济成本。其具有可编辑、用户可配置性,在使用上更加灵活。应用PLD技术会带来更好的性能,降低功耗和成本等。
2.1 LED显示屏
LED显示屏是一种通过控制半导体发光二极管的显示方式,用来显示文字、图形、图像、动画、行情、视频、录像信号等各种信息的显示屏幕,广泛应用于车站、机场、商场、医院等其他公共场所。LED显示屏具有先进的数字化视频处理,亮度自动调节,影像画面清晰、无抖动和重影,杜绝失真。传统的驱动板电路不能迅速更新和储存信息,为了使视频的输出效果良好,选用Altera公司的PL D芯片ACEXIK30,利用硬件描述VHDL语言,对其内部逻辑功能进行设置,实现了驱动板的设计,显示板由驱动板改造而成,其控制逻辑会在ACEXLK30芯片中实现。
2.2 新产品或样机的开发
PLD具有在线可编程性。随着PLD技术的成熟,运用该技术对新产品或样机进行开发,使新产品的性能有所提高,功能更加完善,开发时间短,对经济的支出带来益处,为企业带来更大的利润,对市场的竞争起促进作用。
2.3 消费类电子产品中的应用
PLD器件的批量快速生产,使生产规模不断扩大,各种依靠PLD技术的企业也在不断壮大,高超技术和低廉价格的完美搭配,使消费类的电子产品数量增加,如DVD、TV、游戏机、空调等。运用在线可编辑性,在不改变线路板的前提下,只需改变程序,就能使产品功能增加或完善。
3 应用实例
3.1 输入奇偶校验电路
奇偶检验电路有奇、偶校验两个输出标志,可用作发送端的奇偶检验位发生器;也可用作接收端的奇偶校验器,产生奇偶检验和。运用FPGA器件,使复杂的逻辑变得简单,从而方便实现奇偶的校验。
3.2 三态缓冲器
三态缓冲器又称为三态门、三态驱动器。为了减少信息传输线的数目,大多数计算机都采用总线传输的方式。即同一类的信息都走同一组传输线,且信息是分时传输的。运用FPGA器件的总线,将信号放置总线上,三态缓冲器打开,将驱动信号传递至总线。
4 结语
PLD器件经历了漫长的发展过程,从PROM、PLA、PAL、GAL、EPLD、CPLD、FPGA直到现在的PLD技术,不仅在结构、工艺上发生了改变,也在功能、速度、灵活性等性能上做出了进步和完善。目前,大规模的可编程器件可以用来设计更为复杂的集成电路。
PLD技术是未来具有发展力的一项技术,PLD依靠电子计算机,在EDA工具软件平台上完成逻辑编译等功能。LED显示屏的大量应用,有利于PLD器件的发展,为数字视频的未来起铺垫作用。PLD技术在20世纪90年代以后的飞速发展,同时推动了EDA软件和硬件描述语言的进步。
参考文献
[1]刘雯,马晓辉,刘武.中国大陆集成电路产业发展态势与建议[J].中国软科学,2015,11:186-192.
[2]蒲灵巧.基于单片机的旋转LED显示屏控制系统的设计与实现[D].电子科技大学,2014.
视频处理技术 篇11
关键词:教育视频点播系统;视频转码;FFmpeg;MEncoder
中图分类号:G431 文献标志码:B 文章编号:1673-8454(2014)10-0067-04
一、引言
计算机网络技术逐渐成熟及多媒体应用日益普及的同时,视频点播(VOD)系统开始兴起并逐渐成为人们获取网络信息的重要手段,其在远程教育中的应用已成为开展远程教育的一个重要方面。[1]视频点播系统以视听、交互及根据用户需求提供服务为特征应用于教育,不仅为受教育者提供实时同步的音、视频等多种多媒体信息。同时,在一定程度上实现了按需教育,打破了传统教育手段时间和空间上的局限,使受教育者可以根据自己的需求,自主选择和获取自己感兴趣的各种多媒体信息。[2]
教育视频点播(EVOD)系统,即应用于教育的视频点播系统,其结构和数据传输方式与普通视频点播系统相同,所不同的是视频资料主要面向学生自主学习、学生课外知识拓展、教师课堂教学及教师专业发展等方面,一般要求具有科学性和教育性。[3]由此可见,教育视频点播系统的发展很大程度上依赖于视频点播技术的进步。Web 2.0的迅猛发展,移动网接入速度的提高,及终端处理能力的逐步增强,在推动视频点播系统面向用户参与、主导及建设的同时,对教育视频点播系统也提出了新的要求。
二、教育视频点播系统面临的挑战
互联网的普及,催生了用户原创内容(UGC)的概念,即用户将自己原创的内容通过互联网平台分享给其他用户。这表明用户使用互联网的方式已由以下载为主转变为下载与上传并重。YouTube、MySpace、优酷等主流视频点播网站,都已支持原创视频的上传与分享功能。UGC在视频点播系统的成功应用,对教育视频点播系统提出了新的要求,即为教育者和受教育者提供视频上传功能,系统自动分享与维护,以方便教育资源传播的便易性和快捷性,加强师生、生生之间的交流,进一步提高学生的学习效果及教师队伍的教学水平。
目前教育视频点播系统面向开放的同时,也面临视频编码信息(格式、分辨率、编解码器等)多元化而带来的众多视频标准及大量不同格式的视频信息交织在一起的混乱局面。[4]限定上载视频格式虽然能够解决此类问题,却增加了使用者的负担。如何将庞大的视频数据和音频数据进行有效压缩并以适当格式存储已成为教育视频点播系统一个非常重要的问题。统一视频文件格式,不仅有利于浏览器的兼容播放,降低受教育者使用成本,增强界面友好性,便于网站服务器端的管理,而且视频素材易于应用到教学中,具有重要的意义。[5]针对这一问题,笔者主要对服务器端的两种视频格式转换技术FFmpeg和MEncoder进行研究,为教育视频点播系统开发者提供服务器端统一视频文件格式技术解决方案。
三、视频格式转换技术
当前最流行的视频压缩和处理软件核心为FFmpeg和MEncoder两种。两者都是开源、跨平台的视频压缩处理命令行程序,而且很多FFmpeg的开发者同时也是Mplayer的开发者,所以两者联系紧密。此外,FFmpeg和MEncoder也被广泛应用于大多数的视频播放软件,例如暴风影音播放器利用了FFmpeg,Mplayer播放器利用了MEncoder。
1.FFmpeg
FFmpeg是如今应用非常广泛的开源免费项目,提供对音视频进行录制、转换及编解码功能为一体的完整解决方案。它包含了目前领先的音视频编解码库libavcodec,并对libavcodec库中的很多codec重新开发,以保证质量和性能。FFmpeg基于Linux平台开发,但同样可以在Windows等主流操作系统中编译运行,很多优秀的播放器如暴风影音、TCPMP、VLC都采用FFmpeg解码器。
(1)FFmpeg的使用
FFmpeg的基本语法为:ffmpeg [inputfile_options] -i inputfile [outputfile_options] outputfile,其中inputfile_options为源文件格式选项,-i为读取源文件命令,inputfile为带有完全路径的源视频文件名(可以为硬盘中的文件、网络流、设备中捕获的音视频等),outputfile_options为输出文件格式选项,outputfile为带有完全路径的输出文件名。FFmpeg常用options选项如下表 1所示。
(2)FFmpeg视频格式转换技术
FFmpeg命令行可实现视频格式转换及视频图片提取功能。视频格式转换命令如图 1所示,此命令可将input.avi文件转换为output.flv文件;设置输出文件使用flv视频编码器,帧频为24fps,视频编码码率为500bps,分辨率为720×480;设置输出文件使用mp3音频编码器,音频采样率为22050Hz,音频编码码率为56kbps。
FFmpeg提取视频图片命令如图 2所示,此命令实现每秒提取input.avi的一个视频帧,并将图片命名为“output-001.jpg”、“output-002.jpg”,“output-003.jpg”等。图片的分辨率将由“W×H”的值重新设置。若要提取有限数量的帧,可以添加-vframes或-t选项,也可以添加-ss选项,从一个特定时间点开始提取图片。
2.MEncoder
MEncoder是Linux视频播放工具MPlayer自带的编码工具,是一个使用C语言开发的高效的视频压缩和格式转换系统。MEncoder基于命令行使用,需要用命令行手工添加所需的各项参数。它支持各种视频格式,可针对不同CPU指令集进行优化编译,能充分利用处理器性能,因此转换速度快,1/10至1/2的播放时长就可完成。
(1)MEncoder的使用
MEncoder的基本语法为:mencoder inputfile[file|URL|-] [-o outputfile] [options],其中inputfile为带有完全路径的源视频文件名(可以为硬盘中的文件或网页地址);-o为输出文件命令,outputfile带有完全路径的输出文件名;options选项较为复杂,表 2列出了MEncoder部分选项。
(2)MEncoder视频格式技术
MEncoder命令可实现视频格式转换功能。视频格式转换命令,如图 3所示,此命令将input.avi文件转换为output.flv文件;以mp3lame为编码使用的音频编码器,lavc(Libavcodec)为编码使用的视频编码器,由于Libavcodec包含了多种视频编码,故用vcodec指定使用FLV编码;并设定以平均码率编码的音频编码码率为56kbps,音频采样频率为22050Hz,视频编码码率为500kbps。
四、视频格式转换技术比较
1.功能比较
FFmpeg命令行可在输入文件前添加选项、强制输出格式,支持输入文件的编解码及从视频中截取单帧图片,而MEncoder不支持。[6]但在视频压缩方面,两者的功能相差不大,主要差别在于MEncoder能够编辑到所有FFmpeg的libavcodec所支持的编码,[7]其支持的视频格式较FFmpeg完整。例如MEncoder可转换FFmpeg不支持的扩展名为.rm、.rmvb、.rt的文件。[8]
2.效率效果比较
本实验基于Ubuntu 12.04操作系统安装的FFmpeg及MEncoder转换软件,分别转换同一高清视频,从转换视频用时及输出视频的大小两个角度,测试两者转换效率的差异。源视频采用时长为超过1h20mn,码率为3535Kbps,MPEG-4编码的100段高清视频片段,主要为滑雪运动画面和人物叙事画面,可以有效检测视频转码在压缩动态和静态画面时的优劣。FFmpeg及MEncoder均采用表 3中命令行选项提及的flv对视频进行压缩,mp3对音频进行压缩,设定音频采样率为22050Hz,视频码率为3000Kbp,帧频为24fps,容器为flv。测试结果及分析如下:
例如,抽取源视频文件大小为1.99GB(2,137,663,152 字节)的滑雪视频,转码后视频大小见表 3。由于为了保持高清视频转码后的清晰度,设定了较高的码率,转码后的视频大小相比源文件大小没有较大的变化,但相同选项参数下,MEncoder压缩率略高。在视频转换用时方面,FFmpeg用时较少,编码速度较高。在画面效果方面,由于压缩是有损的,输出视频相比源视频清晰度都有一定程度的下降,且MEncoder相比FFmpeg转码后的视频质量略高。本实验一共测试了所有的100段测试视频,92%的视频符合此规律。同时也有学者证实,FFmpeg转换.wmv和.asf文件时经常出现花屏现象,转换.mkv格式的效果也差。[8]
综上所述,FFmpeg的优点在于编码速度高、功能较全面、使用更加灵活,MEncoder的优点在于可转换的视频种类多、质量高,但是转换速度较FFmpeg慢。因此,在视频文件格式转换时,应结合两个编码器的优点及视频格式、时长等视频编码信息,同时使用它们。首先,依据表4视频格式集合分类所示,将wmv、rm、rmvb、rt等FFmpeg无法处理或处理不好的格式交给MEncoder处理;其次,依据视频时长分类,将时长较大的视频(如课例)交给FFmpeg处理,减少转换用时,将时长较小的视频(如“微课”)交给MEncoder处理,忽略转换用时的略微差异,提高视频转换后的质量。
五、视频格式转换模块设计
考虑到FLV以其文件极小、加载速度极快,可以通过FlashPlayer在网页上播放的特点,已成为视频网站广泛使用的流媒体格式。本服务器端视频格式转换模块结合FFmpeg与MEncoder的优点,同时使用它们,将上传至服务器的所有格式的视频转换成符合要求的FLV格式视频。整个视频格式转换模块功能设计流程如图 4所示。
遍历视频文件夹,判断是否存在视频文件,如果发现视频文件,利用FFmpeg命令读取视频的属性信息,包括时长、分辨率、格式、帧速、比特率等参数,并根据表 4中视频转换的视频格式集合分类,判断其格式是否属于FFmpeg可处理的格式集合;如果属于,则判断视频时长是否较小,较小则调用MEncoder根据视频的属性信息执行视频转换,时长较大则调用FFmpeg根据视频的属性信息执行视频转换;如果不属于,则调用MEncoder根据视频的属性信息执行视频转换。待视频转换完成后,判断视频是否转换成功。如果转换成功,则执行文件重命名、调用FFmpeg截取视频缩略图、删除源视频文件、保存处理信息等操作;如果转换失败,将错误信息写入错误日志,再次遍历视频文件夹,当遍历完视频文件夹而没有发现视频文件时,退出程序。
六、结束语
鉴于目前教育视频点播系统逐渐趋于开放,所面临用户上载视频种类繁多的问题。本文通过测试及比较分析两种当前最流行的视频压缩和处理软件核心FFmpeg与MEncoder,并结合两者优势及视频编码信息,设计服务器端视频格式转换模块,为教育视频点播系统开发者提供服务器端统一视频文件格式技术解决方案。云计算的兴起及云终端的普及,视频点播系统已经不再满足于多种视频格式上载并统一为一种格式的正向转换,而趋向于云服务器根据网络链接状况和终端屏幕分辨率计算得到最佳效果的视频提供给终端播放的逆向转换。本研究将进一步研究基于云计算的教育视频点播系统,为教育者和受教育者提供适合当前终端的最佳效果的视频。
参考文献:
[1]吴艾,刘心松,符青云,刘克剑. DPVoD:基于P2P的视频点播体系结构[J].计算机研究与发展, 2008(2).
[2]沈时军,李三立.基于P2P的视频点播系统综述[J].计算机学报,2010(4).
[3]金智勇,孙乐传,宋志明.基于校园网的视频点播系统的构建及在教学中的应用[J].电化教育研究,2009(2).
[4]Ishfaq Ahmad , Xiaohui Wei , Yu Sun , Ya-qin Zhang.Video Transcoding: An Overview of Various Techniques and Research Issues[J]. IEEE TRANSACTIONS ON MULTIMEDIA, MULTIMEDIA, 2005, vol. 7, p. 793-804.
[5]陈少涌,林敏,梁仕銮.基于开源软件的视频点播系统的设计与实现[J].中国教育信息化,2011(3):30-32.
[6]Berton D. Advanced video coding on Linux[J].Linux Journal,2006 (150): 74-77.
[7]Heikki Orsila, Jaco Geldenhuys, Anna Ruokonen, Imed Hammouda,Trust issues in open source software development, WUP '09 Proceedings of the Warm Up Workshop for ACM/IEEE ICSE 2010, P. 9-12.
[8]FFmpeg Documentation[DB/OL].http://www.ffmpeg.org/documentation.html.
CAI中视频的处理 篇12
视频在多媒体课件中的使用非常广泛,然而视频的来源渠道多种多样,如何简单有效地编辑视频,显得非常的重要。文章就视频在多媒体制作过程中常见的问题,提供了简单有效的处理方法。
1 常见视频格式
AVI格式是音频视频交错的英文缩写(Audio Video Interleaved)。AVI是应用最为广泛的视频格式之一,由微软公司发布,它的优点是兼容性好且图像质量也很好,但体积大的缺点决定了在多媒体制作中需要转换格式。
MOV格式是Apple公司在Quick Time中使用的视频格式。它具有跨平台、存储空间要求小的优点,但由于其是从Macintosh平台移植到Windows环境下,所以受到排挤。
RM格式是Real Networks公司制定的视音频压缩标准。它可根据网络传输的不同速率制定不同的压缩比率,具有体积小和画面质量好的优点,但在多媒体课件制作软件中使用不方便,需进行格式转换。
FLV格式是一种较新的视频格式。它是在Sorenson公司的算法基础上开发出来的,具有文件体积小且加载速度极快的优点。FLV格式可以轻松导入Flash中或者在Flash中灵活调用,加上目前Flash软件的流行,成为多媒体课件开发过程中使用最为方便的视频格式。
F4V格式,是Adobe公司为了迎接高清时代而推出的流媒体格式,和FLV相比在同等体积的前提下,更清晰且播放更流畅,及能够实现更高的分辨率和支持更高的比特率。但在使用过程中,部分多媒体制作软件部支持需进行格式转换。
MPEG格式是Motion Picture Experts Group的缩写,是运动图像压缩算法的国际标准。它包括MPEG-1、MPEG-2和MPEG-4多种视频格式。MPEG系列标准对VCD、DVD、数字电视和高清电视等的发展有很大影响。
2 格式转换
不同的视频格式有不同的特点,不同的多媒体课件制作软件对所使用的视频文件有不同的格式要求,使用不符合格式要求的视频,可能出现不能播放或能播放但不能有效控制的情况,因此在多媒体课件制作过程中视频格式转换是每位课件制作者必须面对的问题。
具有代表性的视频格式转换软件也很多,如会声会影、Windows Movie Maker、格式工厂和超级转换秀等,不同的软件的偏重点和功能不同,结合平时的应用,就格式工厂的格式转换做个说明。
运行格式工厂,直接点击选择你想要转换的视频格式,点击“添加文件”选择需要转换的文件,可以转换一个也可以同时进行多个文件的转换;点击“输出配置”设置最终转换后的视频的相关参数如分辨率等。效果如图1格式工厂视频格式转换。
3 视频剪辑
在视频使用的过程中,需要对视频进行适当的裁剪,使之符合应用的要求。根据视频的来源不同,在使用过程中剪辑的方式和要求也不一样。
(1)对视频进行简单的剪辑,如从网络中下载了一段视频,需要截取其中一段符合制作要求的片段;或者从VCD和DVD的光盘视频文件中截取一小段放置在多媒体课件中,简单的表述就是从一段较长的视频中截取其中的一小段视频使用。这种简单的剪辑很多软件都能很方便的完成,如暴风影音、迅雷看看和格式工厂等,以格式工厂为例,在上面“图1格式工厂视频格式转换”图片中点击“选项”,打开如图2视频截取,通过设定开始时间和结束时间,实现一段视频的剪辑,满足使用过程中对一小段视频的需求,使用起来方便简单。
(2)对视频进行复杂的剪辑。视频使用过程中对视频的要求往往不能停留在简单的截取其中一段的基础上,而需要截取其中的几段然后进行拼接生成符合要求的视频文件,上面提到的暴风影音和格式工厂等就不能完成这样的任务,这就需要专业的影视后期制作软件,如会声会影、AE(After Effects)、Premiere和Avid Medi Composer等专业视频非线性编软件编辑输出。对于广大的非计算机专业的多媒体课件制作老师而言,会声会影和Premiere是不错的选择,相对而言这两款软件使用方便,容易上手,且能满足制作者对视频编辑的要求。
4 画面处理
在下载的视频、VCD和DVD中截取的视频往往会带有特定的Logo,如何去除这些Logo?简单的方法有两种。
(1)画面截取法。通过对视频画面的截取,把有Logo的地方剔除在外,保留没有Logo的画面,剔除Logo。格式工厂里的“画面裁剪”选项可以很方便的实现这个功能,通过“画面裁剪”把原视频中有Logo的部分剔除,在画面的上方和下方添加黑色的表框条补充因为删除Logo留下的空白部分,做出像宽频播放的效果。
(2)Logo覆盖遮挡法。可以用自己单位的标志Logo去覆盖遮挡原来的Logo标志。这需要借助于影视后期制作软件。
5 总结
我们可以通过掌握格式工厂的简单操作实现视频的格式转换、剪辑和画面处理功能,从而使得视频符合多媒体课件制作的要求;当然复杂的编辑需要去学习专门的影视后期制作软件,推荐学习容易上手的Premiere,这样可以应付绝大部分的视频编辑要求。
摘要:计算机的普及带动了CAI的发展,在计算机辅助教学中,多媒体课件的制作显的尤为重要,而多媒体课件中大量视频的使用,给很多教师带来方便的同时,也带来很多视频格式和剪辑等方面的问题,希望文章内容能解决部分教师关于视频编辑上的困惑。
关键词:视频格式,格式转换,剪辑
参考文献
[1]赵家春.课件插入视频别忘关键步骤.电脑爱好者,2012(5).
[2]胡伟俊.浅谈教学课件中的视频制作实践.信息通信,2011(3).
[3]俞志勇.课件用视频困惑一一解.电脑爱好者,2011(15).
[4]潘艺.多媒体CAI课件制作中的数字视频处理技术.计算机仿真,2003(12).