视频图像处理论文(精选12篇)
视频图像处理论文 篇1
随着社会经济的不断发展, 人们的生活水平得到了巨大的改善, 越来越多的人开始更加重视享受生活的乐趣。而视频图像处理与传输技术在这方面就做出了巨大的贡献, 无论是人们日常生活中所用的数字电视, 还是平时上网所用的计算机都离不开视频图像处理与传输技术的支持。不仅如此, 视频图像处理与传输技术还在公共安全监控、国防建设等领域发挥着重要的作用, 例如生活中最为常见的道路交通监控系统。视频图像处理与传输技术的作用是巨大的, 其在这些年也得到了巨大的发展, 但是在发展的过程中也出现了一些问题, 因此今后还需加大在这方面的研究力度, 以便于早日解决当前发展中遇到的一些问题。
1 视频图像处理与传输技术简介
1.1 视频图像处理概述
视频图像就是运用一些的技术手段和工具观测客观世界所获得的图片, 其实也就是人眼所看到的一些视觉实体。视频图像处理技术就是指对所捕获的图像进行一系列的加工和处理, 以得到操作者所需要的信息。视频图像处理的另外一大任务是对图像的格式等参数进行调整, 以便于其传输, 这对于当今这个需要进行大量数据交流的时代来说是至关重要的, 只有如此其才能满足实际应用的要求。
1.2 视频图像处理与传输技术发展简介
视频图像处理与传输技术在我国已有一段较长的发展历史, 尤其是近几年来, 随着计算机技术的发展, 视频图像与处理技术得到了更加广泛的运用。在二十世纪八九十年代以前, 图像处理技术只能进行二维空间的处理和应用, 其运用范围也比较窄, 一般都只能用在相片处理、电影图像处理等地方, 那时的视频图像传输技术也不高, 传输质量也相当低。到了二十一世纪, 视频图像处理与传输技术发生了巨大的变化, 图像处理技术已经在三维空间里也得到了很好的运用, 其在三维动画技术、电影特效技术等领域都发挥了巨大的作用。视频传输技术在这个阶段发生的变化更为明显, 如今是视频传输技术不仅传输质量提高了, 其实时性也得到了巨大的改善, 还能在传输的过程中对信息进行加密处理, 确保了信息在传输过程中的安全性。
2 视频图像处理与传输的主要工作内容
2.1 视频图像的实时捕捉和压缩
视频图像的捕获是后续一切工作的基础, 只有得到了视频图像才能对其进行处理与传输。随着手机的普及, 可以说现在绝大部分人都已经拥有了视频图像捕捉的工具, 这是是视频图像处理技术能够如此快速发展的原因之一。现在手机、摄像头、数码相机的像素都在不断提高, 其所捕获的图像的质量也越来越高了, 但这也增加了视频图像传输的难度。如果对捕获的图像不加以任何的处理, 那么很难保证传输的实时性, 即使能达到要求其付出的成本也过于昂贵。因此图像压缩工作就相当有必要了, 其能降低传输的成本, 提高传输的效率。
2.2 视频图像的加密
图像加密技术的运用范围并不是十分的广泛, 其主要用在一些对信息安全性要求较高的领域, 例如国防工业、商务机密等。图像加密就是按照一定的算法程序, 对图像进行处理, 以提高安全性。进过加密之后的图像信息, 即使在视频传输的过程中被别人窃取了, 如果窃取者没有解密程序的话, 其仍然无法正常播放所窃取的视频信息, 因此在视频传输之前对图像进行加密也是一项主要的工作。
3 视频图像处理与传输技术的运用实例分析
3.1 视频处理与传输技术在道路监控中的运用分析
视频处理与传输技术在道路监控的中已经运用了相当长的一段时间, 其也发挥了相当重要的作用, 道路监控系统可以帮助监控人员更加全面及时的了解交通情况, 以便于及时的采取应对措施, 在发生道路交通事故时还可以通过视频图像取证, 分析相关人员的额责任。但是随着现在交通系统的日益复杂, 其对视频处理与传输技术的实时性等提出了更高的要求。比如要捕获高速移动的车辆的车牌信息, 即必须提高视频图像的处理技术, 要运用合理的技术手段排除其它干扰因素的干扰, 对图像进行分割处理。如今大部分城市的道路监控系统都建立了自己的视频图像传输网络, 这大大的提高了视频图像的传输范围, 借助互联网技术的发展也极大的改善了视频图像传输的距离。
3.2 视频处理与传输技术在航空航天的运用分析
近些年来我国的航空航天事业得到了巨大的发展, 特别是神州系列飞船、嫦娥系列探月器和天宫一号的升空, 无一不让世界为之震惊。视频处理与传输技术在这些重大的项目中也发挥着不可或缺的作用, 最为直接的就是在直播的过程中所看到的一些实时传输的图像, 那都是采用的视频传输与处理的技术完成的。与道路监控系统相比, 航空航天项目对视频传输与处理的技术要求更高, 特别传输距离。由于航天航空事业的特殊性, 一般都是采用无线传输的方式进行视频图像传输, 其能增加传输过程中的抗干扰能力, 也能提高传输的速度。在航空航天领域的视频图像在传输之前一般都要进行多次的压缩和加密, 一方面是提高信息的安全性, 另一方面是尽可能的在不损害图像质量的前提前减少图像所占用的存储空间, 以提高图像的传输效率。
4 结语
视频图像处理与传输技术在各行各业都得到了广泛的运用, 但是随着科学技术的不断发展, 对视频图像处理与传输技术的要求也在不断提高。在今后的发展过程中, 只有对现有的技术不断的进行改革创新, 才能使视频图像处理与传输技术满足时代发展的需求。
摘要:随着科学技术的不断发展, 视频图像处理与传输技术发挥的作用也日益明显, 其应用已经深入到了每一个普通人的生活当中。本文主要介绍了视频图像处理与传输技术的主要发展历程和视频图像处理与传输技术的主要工作内容, 最后结合相关的实例对其应用进行了分析。
关键词:视频图像,图像处理,信号传输,应用分析
参考文献
[1]秦瑞.现代图像处理技术的发展趋势[J].光机电信息, 2012 (03) :48-50.
[2]周艳玲, 袁鸿, 李博.“视频图像处理技术”课程设计研究[J].公安教育, 2013 (09) :62-64.
[3]史忠科, 曹力.交通图像检测与分析[M].北京:科学出版社, 2007:4-5.
视频图像处理论文 篇2
应用场景:日常我们在工作中需要用到视频的情况分为这样几种,第一种就是上次才艺展示前期大家准备素材,有现成的需要修改长度。第二种是没有现成的需要从网上下载,但是一般都是在线的视频,怎么下载成了难题。第三种是有几个现成的视频,要合并成一段,其实其他还有一些情况,我们在学习了这一课之后就可以触类旁通,扫除一切拦路虎!
需要软件:“视频客户端”、“硕鼠”、“QQ影音”“格式工厂”。需要素材:小视频。
制作要求:按照不同情境下的要求完成视频制作。步骤:
一、截取一段视频(15″-55″):
1、用QQ影音打开视频文件。
2、在视频窗口中右击鼠标,在弹出的菜单中选择“转码、截取、合并”,在弹出的下级菜单中选择“视频/音频截取”。
3、QQ影音的界面就变成了视频截取的界面,拖动下方的“开始”和“结束”滑块调整我们需要的长度。
4、可以预览一下,然后没有问题就点击“保存”,然后在弹出的保存选项窗口中选择我们需要的格式,一般是选择“无损保存视频”。
5、尝试使用格式工厂软件截取。(课后)
二、合并两端视频为一段:
1、随便打开一个视频,在视频窗口中右击鼠标,在弹出的菜单中选择“转码、截取、合并”,在弹出的下级菜单中选择“音视频合并”。
2、将需要合并的视频文件添加到新弹出的“音视频合并”窗口的素材栏。
3、调整好顺序(使用右边的上下箭头)。
4、在下方的自定义参数里设置输出文件的格式参数,现在一般常用的是MP4格式H264编码,分辨率和帧率码率等根据实际情况调整。
5、设置好输出文件夹,然后点击开始。
6、尝试使用格式工厂软件合并视频。(课后)
三、从在线视频网站下载需要的视频。
1、优酷这类能用客户端下载的网站就先下载客户端,这类客户端下载的时候还可以设置格式转换,下载好就能转换为我们需要的格式。
2、无法使用客户端下载的网站就只能使用“硕鼠”软件来操作了。(1)、在百度搜索我们需要的视频,然后复制相关地址。(2)、将复制的地址粘贴到“硕鼠”软件中进行地址解析。(3)、使用“硕鼠”提供的链接进行下载。
(4)、下载下来的视频有时候是分段的需要合并,这就需要用到前面讲的如何合并的知识了。
说明:
1、我们还需要注意下载的格式,我们常用的格式是wmv和MP4,下载的视频有时候会是flv等网络流媒体格式,这里就需要用QQ影音和格式工厂来转换格式了。
2、我们日常遇到的一些视频处理的问题基本上用上述的几种软件就可以很方便快捷的处理好,更高级的处理方式我们以后在“premiere”软件里交流。
相关概念:
视频图像处理论文 篇3
首批搭载东芝SpursEngine视频处理器的PC这个月上市了。SpursEngine采用的是源于PS3 Cell处理器的芯片组,可以处理高清视频。Leadtek以及Thomson都推出了搭载东芝SpursEnqine核心的视频加速卡。Leadtek的产品于10月底上市,售价286美元左右,而Thomson的产品将于11月上市。SpursEngine在内部增加了H.264和MPEG2硬件编解码器,专门针对高清视频加速应用。
任天堂DSi
视频图像处理论文 篇4
图像是自然生物或人造物理的观测系统对世界的记录, 是以物理为载体, 以介质来记录信息的一种形式。据学者统计, 人类所得的信息有80%以上是来自眼睛摄取的图像。随着人们对视频数据的要求越来越高, 高清晰、实时性视频数据量越来越大, 视频的实时处理难度也在逐渐增大。基于FPGA的实时高速图像信号处理无疑是热门的研究方向, 采用可编程逻辑器件FPGA来控制实时显示系统, 具有高集成度、高速、高可靠性、灵活的编程能力、全新的开发设计思想等特点, 应用这种器件及其支持的硬件描述语言从事电子系统的设计, 它打破了软硬件之间的屏障。本文给出了一款基于FPGA的嵌入式实时视频采集系统的设计方法, 该系统可以广泛应用于公共安全的场所, 如银行、机场、车站、商场等。
1 系统总体设计
整个硬件系统分为视频采集模块、TFTLCD显示模块、SRAM处理缓存模块、串口通信模块和电源模块。经过对要实现的功能和占用资源情况的分析, 本系统FPGA芯片采用了Altera公司的Cyclone I芯片 (EP1C6T144C8) 。该芯片采用TQFP封装, 具有144个管脚以及5980个逻辑单元。在Quartus II、ModelSim和Synplify Pro等EDA软件平台下按照FPGA的设计流程对其进行开发。QuartusII用做模块代码输入以及配置实现, ModelSim用来对各个模块进行功能、时序仿真, Synplify Pro则对各模块进行综合。
2 视频输入解码电路
摄像头所拍摄的信号从SAA7113H的4路模拟信号输入端中的任何一路输入, 经转换后从输出端以VPO方式, 输出视频数据。SAA7113H输出的是隔行视频信号, 一帧图像需要传送两次, 分别记为奇场图像和偶场图像;视频处理的对象是逐行排列的图像信号, 因此必须等待一帧图像 (连续的奇、偶两场信号) 采集完后, 合成到一个图像帧中才能进行后续处理。利用SAA7113H的行、场同步信号, 使用可编程逻辑器件FPGA构建控制器, 可将图像数据写入帧存储器, 解决图像的帧合成问题。为了显示部分提供连续的图像信号, 采用两个图像帧存储器A和B交替存储的方式, 来暂存采集到的图像数据和需要处理的图像数据, 可实现图像的实时连续采集处理。
SAA7113H与FPGA之间的硬件接口如图2.1所示。其中J4为视频输入端口, 与高清摄像头相连;L5、C31、Y2、C32和C33等元件构成振荡电路, 为7113H提供24.567MHZ的时钟参考;VP0~VP7为7113H解码芯片的8位数据输出总线, LCC为数据输出时钟, 数据输出频率为27MHZ;RTC0为行同步信号输出端, RTS0为场同步信号输出端, RTS1则为奇、偶数场信号输出, 三者配合起来以确保图像被还原时的显示同步;7113H的初始化过程, 由FPGA通过SCL和SDA以I2C协议的通信方式配置完成。
3 软件部分
3.1 SAA7113H程序设计
解码芯片初始化模块主要完成对解码芯片SAA7113H的初始化过程。初始化流程图如图3.1所示。初始化模块有四个端口, 分别为:CLK (系统时钟输入线) , SCL (I2C时钟信号输出线) , SDA (I2C数据输出线) 和INI_END (初始化结束信号输出线) 。SAA7113H用I2C通信协议初始化时, 通信速率要求在400Kbit/s以下。本次设计中, 将50MHZ的系统时钟进行200分频得到250K用于I2C通信时钟。
3.2 RAM读写时序控制模块
为了解决视频数据的采集输入和显示输出速率的不匹配问题, 引入了高速RAM作为数据缓存。读写控制模块则是为了完成对视频信号接收、存储和输出等进行时序控制。由于高速RAM的读操作与写操作不能同时进行, 只能采用定时刷新的方式来实现读写控制, 即在一次写入完整的一场数据过后再进行读RAM操作, 这样便避免了时序混乱的情况发生。实际调试过程中, 每接收到50场数据, 写入一帧, 即每秒更新一次图像信息。这样做的缺点就是图像更新速度过于缓慢, 在图像更新时, 显示无数据输出或输出固定值, 这样便产生了显示屏幕闪烁。高速RAM的读、写控制时序如图3.3所示, 其中LCC为7113H的视频数据输出时钟, 即高速RAM的写数据时钟;LYNC为图像行同步输入;HYNC为图像场同步输入;ODD为奇偶场区分信号输入;WEN为写允许信号输出 (内部信号, 高电平有效) , REN读允许信号 (内部信号, 高电平有效) 。
3.3 YUV-RGB格式转换模块
YUV-RGB格式转换模块主要完成视频格式之间的转换功能, 将数据格式整理模块输出的YCRCB分量转换成显示所需的RGB数据并输出。换算公式如下:
FPGA在视频时钟及行场同步信号的控制下将RGB数据输出到TFTLCD进行显示。
4 结束语
本设计采用FPGA作为控制芯片, 很好地解决了高速数据在采样、传输过程中的瓶颈, 并以很短的时延真正实现了高速图像数据的采集。该系统具有体积小、功耗低、速度快、显示效果流畅, 稳定、适应性强、便于维护等特点, 因此, 在图像的实时处理方面具有很好的应用前景。
参考文献
[1]同伟锋, 胡方明, 杨颖飞, 等.基于DSP+FPGA的实时视频采集系统设计[J].电子元器件应用, 2009 (12) .
[2]谭会生, 张昌凡.EDA技术及应用[M].西安:西安电子科技大学出版社, 2008.
[3]陈姚节, 卢建华.基于FPGA的VGA显示接口的研究与设计[J].研究与探讨, 2005:21-30.
[4]视频解码芯片SAA7113H在井下电视中的应用[J].自动化信息, 2005, 12:61-62.
[5]SAA7113H Product specification/Data sheet.PHILIPS, 1999
视频的编辑与处理说课稿 篇5
—视频的编辑与处理
各位老师:
大家好。
我今天说课的题目是《我的生活我做主》——视频的采集与处理。下面我将从教材及学情分析、教学目标、教学重、难点、教学准备、教学过程几个方面来说说我这堂课的设计。
一、教材与学情分析
本节内容主要介绍了视频的来源、分类、格式以及常用的视频编辑软件。内容的实用性是连接信息知识运用和师生接受操作的纽带,有利于培养教师的感知能力、动手能力本节知识设置合理。内容丰富,具有很强的实用性和可操作性。在整个信息教学中有重要的地位和作用。
培训的教师大多都不是本专业的,他们在平时的工作中,很少用视频编辑工具,所以老师们对视频编辑不是很了解。老师求知欲强,思维活跃,视野开阔,富有个性,具备了一定的信息素养,他们渴望学到更多更有趣的信息技术知识。在教学中为老师留出自由发挥的空间,能有效的提高老师的学习兴趣。
二、说教学目标 1.知识目标 了解视频的相关内容及编辑的含义、方法。了解常用视频编辑工具的使用方法。2.能力目标
掌握一种以上视频编辑软件的用途及制作技巧。3.情感目标
通过创作——交流——评比的教学手段,激发老师们学习热情,在操作的同时获得成功的喜悦,培养老师的人文精神,学会表达生活的意义。
三、说教学重点和难点
1.视频编辑的含义及掌握一种常用编辑工具确定为本节的重点。2.如何培养学生对视频处理的学习举和如何选择编辑工具确定为本节的难点。
四、说教法
“作品演示观摩——教师引导——教师创作——小组交流评选——展示总结”。以“教师参与制作为主,老师指导为辅”。
五、说学法
引导老师用眼观察、动手操作、动脑思考、使老师始终处于主动探究状态,培养他们的实际操作能力。激发他们的创造灵感和学习兴趣。
六、教学准备
为教师们准备一个《我的生活的视频》。
七、说教学过程
一、谈话导入,激发兴趣
老师们想成为大导演吗,拍出一部部好看的电影,成为千千万万的观众心目中的偶像吗?我们今天就以自己为导演的身份制作一部我的生活的视频,让你们成过一把导演的角色。让我们今天就开始学习,成为我们生活中的“大导演”
二、看视频
1.教师播放一段事先准备好的视频。
2.问:制作电影首先要有原材料这些原材料就是视频图像。什么是视频、图像呢
3.引导观察
请看老师的小实验,老师手中的画片,每一张都很相似。当我们连续翻看时,就会看到画片上的物体动了起来。
4.小结
通过观察可以发现每一张画片相较于上一张都有了一点变化,当它以很快的速度翻动时,利用人的视觉暂留特征,画片上静止的物体,就变成了活动图像。电视电影都是利用的这个原理发明的。一幅幅连续图像组成的序列就称为视频图像。将许多不同的视频图像按照导演的构思连接到一起就成为了电影。
三、学习编辑 1.收集视频素材
获取视频的方法有采集模拟视频 主要是指从非数字化的设备中获取视频,如录像机、录像带等通过视频卡将模拟视频信号转化为数字视频信号。
2.采集数字视频
直接从数码摄像机,RJ45网络摄像机、摄像头等数字设备上获取数字视频信号。数码摄像机具有超高清晰图像、高保真音质、体积小巧轻便和数字化功能等特点,是主流的视频采集设备。常用格式有DV、DVCAM和DVCPRO。家用的数码摄像机也称DV机。
注:教师可以演示利用摄像头和“会声会影”软件采集一段学生的视频。
3.运行“会声会影”软件。
单击“捕获”选项卡在左边选项栏中单击“选择捕获视频”。设置格式、捕获文件夹等。单击“捕获视频”按钮开始采集。单击“停止捕获”按钮停止采集。4.VCD视频截取
从其他视频文件中复制出一段指定的视频常用软件如超级解霸等。采集屏幕动态信息使用屏幕采集软件将计算机屏幕上的信息捕捉下来,生成一个视频文件。屏幕采集软件如Hypercam、屏幕录像机、SnagIt等。
5.网上下载
可以使用迅雷、影音传送带、网际快车等下载工具下载视频。http://.yahoo.com雅虎搜索 http://迅雷搜索 6.编辑视频
视频素材进行编辑,包括截取、连接、过渡、字幕、配音和发布等环节。
四、教学反思
视频图像处理论文 篇6
不废周折 在线视频直接插入
前几天同事就跟我吐槽,上公开课制作演示文稿时,要插入几个在线视频,需要利用专门的下载工具,费了九牛二虎之力才把视频下载到电脑里,可是网上的视频下载后一般是FLV格式,还要用转码软件把视频转换为PPT支持的WMV或者AVI才能插入到PPT中,非常麻烦,而且转码后清晰度也大打折扣,笔者推荐同事用PowerPoint2010,可以不用下载视频文件,直接插入在线视频,支持目前绝大多数视频网站等,这里以优酷网为例,打开优酷网,进入需要的视频播放页面,在视频下面点击“分享给好友”,单击“复制”把该视频的HTML代码复制好(如图1)。
然后打开PowerPoint2010,单击“插入”,选择“视频”(如图2),然后选择“来自联机视频网站的视频”,在弹出的视频插入对话框中把复制的在线视频的HTML代码粘贴到文本框里面,再单击“插入”按钮,这样在幻灯版编辑页面上出现一个黑色视频框(如图3),我们可以拖动边框调整视频的大小,另外还可以移动摆放位置,然后单击“播放”按钮测试是否能正常播放,当我们播放到该页幻灯片时,就会自动播放这个在线视频,当然电脑必须是在能上网的环境中,这个大家在使用的时候要注意。
不用专门的视频编辑工具
视频直接剪辑和修饰
经常有同事问笔者,有什么好视频编辑软件,用来对插入PPT的视频按照需求进行剪辑,只要视频中某一部分,其实这也用PowerPoint 2010可以搞定,而且操作简单,比专门的视频编辑软件更容易上手。先在“插入”菜单中选择“视频”,单击“文件中的视频”,选择电脑中的要插入的视频文件,单击“插入”。
视频插入后,选择“视频工具”里的“播放”,然后单击“剪裁视频”,弹出“剪裁视频”窗口,在播放时间轴上用绿色滑块标识视频截取的起点,红色滑块标识结束点(如图4)。也可以在时间轴下方的“开始时间”和“结束时间”中分别输入精确时间,选取完成后,单击“确定”即可裁掉不需要的视频,保留自己想要的视频部分。
视频检测对象的图像预处理研究 篇7
RGB彩色模型是从硬件的角度提出的, HIS彩色模型是根据人眼对颜色的感知特性而形成的, 它的三个分量为:色调、饱和度和亮度。YIQ色彩系统被NTSC系统所采用, 这里的Y指颜色的明视度, 即亮度, 实际上就是图像的灰度值[1]。I和Q指色度, 即描述图像色彩及饱和度的属性。图像处理中经常使用的是灰度图像, 只含亮度信息, 不含色彩信息, 本文中YIQ与RGB之间的转换关系, 即Y分量:
对每个像素进行处理, 值保存到相应得数组空间上, 便得到了需要的灰度图像。
2. 图像灰度修正
图像灰度修正就是以数字图像的二维像素阵列中的单个像素为对象进行增强处理。下面介绍两种常用的图像灰度修正的方法:灰度变换和直方图修正。
2.1 灰度变换
灰度变换是一种最简单、有效的对比度增强的方法, 它是将原图像的灰度动态范围加大, 图像对比度得到扩展, 图像清晰, 特征更加明显, 是图像增强的重要手段。在这里有一种特殊情况, 如果图像中大部分像素的灰度在某个范围内, 少部分像素分布在小于和大于的区间内, 此时可以采用一种被称为截取式线性变换的变换方法, 其变换式如下
利用该算法将图像处理如图2-1所示
从上面的实验结果可以看出, 图2-1 (b) 看起来要比图2-1 (a) 更加清晰, 给人的视觉感觉较好。
2.2 直方图修正
数字图像的直方图是一个离散函数, 它表示数字图像中每一灰度与其出现的概率之间的统计关系, 反映图像灰度分布的统计特征。因而需要把原图像的直方图两端加以扩展, 而中间峰值区域加以压缩, 使得输出图像的概率密度函数所构成的整个直方图呈现均衡分布[2][3]。直方图均衡化是它的一种常用方法, 基本算法过程如下: (1) 统计原始图像各灰度级的概率密度; (2) 计算累积分布函数; (3) 计算最后的输出灰度级; (4) 修改原图像的灰度级, 获得输出图像。按照以上算法, 将图2-1 (a) 处理的实验结果如图2-2所示。
可以得出结论, 对于所要研究的视频图像, 当对其进行图像灰度修正时, 采用灰度变换的方法得到的实验结果在视觉效果上较优于直方图修正的方法。
3. 图像平滑
图像平滑的目的是为了减少和消除图像中的噪声, 以改善图像质量, 有利于抽取对象特征进行分析[4]。
3.1 均值滤波
均值滤波法是一种简单直观、易于实现的空间域局部处理算法, 它一般采用奇数正方形N×N窗口 (N=3, 5, 7, …) , 用窗口的平均值代替中心点的值。实验结果如图3-1所示。
可见, 均值滤波去掉了与周围像素不相符的点, 抑制噪声效果也较明显, 但随着邻域的增大, 抑制噪声效果和边缘模糊效应同时增加。
3.2 中值滤波
中值滤波主要适用在有很强的胡椒粉式或脉冲式的干扰的情况下, 但对于一些细节多, 如点、线、尖顶细节多的图像不宜采用中值滤波[5][6]。其基本原理就是选择一个有奇数点的滑动窗口, 使它在图像的各点上移动, 用窗口像素灰度值的中值代替窗口该点处的像素灰度值。如前面分析一样, 同样对Vehicle图像进行中值滤波处理得到如图3-2所示的实验结果
无论是均值滤波还是中值滤波, 如果模板大, 去噪声效果更加明显, 但是计算复杂, 所涉及的像素多而容易把细节抹去, 造成图像模糊。在实际应用中, 不同的图像内容和不同的应用要求, 应该采用不同的窗口形状和尺寸。
4、图像锐化
在图像摄取、传输和处理的过程中有许多因素会使得图像变得模糊, 图像模糊是常见的图像降质问题。消减图像模糊的图像增强方法称为图像锐化, 其主要目的是加强图像中的目标边界和图像细节, 使边缘和轮廓线模糊的图像变得清晰。值得注意的是锐化处理在增强图像边缘的同时增加了图像的噪声, 故必须小心处理。一般都是先进行图像平滑, 去除或减轻图像中的干扰噪声, 然后才能进行锐化处理, 这里就不多叙述了。
结论
图像增强是数字图像处理的一种重要手段, 为进一步分析处理图像做好了准备。由于图像增强技术的工具大多数都是基于数学和统计学的概念, 根据不同的用途, 它和要面向的问题是紧密联系的。
摘要:在运动目标检测过程中图像预处理尤为重要, 它关系到图像的下一步质量。本文主要针对视频检测对象的图像预处理常用技术, 包括图像灰度化、图像灰度修正、图像滤波、图像锐化, 并对各种图像处理技术的常用方法进行了介绍, 给出了实验结果并进行分析。
关键词:图像预处理,灰度直方图,图像平滑
参考文献
[1]. (美) Yao Wang, J?rn Ostermann, Ya-Qin Zhang著, 侯正信, 杨喜, 王文全等译.视频处理与通信.北京:电子工业出版社, 2003.
[2].李弼程, 彭天强, 彭波等编著.智能图像处理技术.北京:电子工业出版社, 2004.
[3].姚敏等编著.数字图像处理.北京:机械工业出版社, 2006.
[4].四维科技, 胡小锋, 赵辉.Visual C++/MATLAB图像处理与识别实用案例精选.北京:人民邮电出版社, 2004.
[5].Brownrigg D R K.The weighted median filter.Communication of theAssociation for Computing machinery, 1998, 27 (8) :807-818.
图像视频处理中的修复应用分析 篇8
关键词:图像,视频,修复技术
图像的修复技术具有源远流长的历史, 它最早出现在文艺复兴时期, 艺术家们为了恢复被破坏的物作品, 依据人们的想象力对受损部分进行修复。随着科学技术水平的提升人们将艺术作品的修复观念应用在现代图像与视频处理技术上, 得以广泛应用并取得良好的修复效果。
1 修复的概念
图像视频的处理包括很多方面, 其中数字及视频的修复技术就是图像视频处理的重要组成部分。图像视频修复技术是运用科学计算的方法, 通过对图像视频中的受损信息进行补充, 以达到恢复图像或视频的原来面貌的目的。
为了使观察者察觉不到图像或视频的修复, 需要做好以下两方面的工作, 一是确定修复区域。采用人工统计的方法进行确定, 对视频或图像需要修补的部分进行明确标注, 以确定需要修补的范围。二是对确定的区域进行重点修复, 对图像或视频已经标注的修复的范围, 采用可用、有效的信息, 进行重点恢复与重建。
2 修复技术的发展
图像与视频的修复技术的运用, 源于文艺复兴时期艺术家对艺术作品的修复。它与艺术作品的修复技术不同, 不仅能去除图像的干扰与模糊影像, 改善图像的质量, 还能对图像的受损甚至空白区域进行填补与修复。
最早将修复的概念引入图像与视频的处理技术中的是M.Bertalmio, 他通过偏微分方程的使用, 建立了图像修复算法模型, 将图像的信息与构造按一定的方法传递到需要修复的区域。这种算法虽然能对视频内的噪声干扰进行有效去除, 但由于它使用的范围较小, 对大面积的纹理或复杂的区域修复效果不理想, 甚至出现模糊影像的现象。
随后, 经过多个科学家对视频修复技术的完善, 已逐渐形成较为完善的修复概念。由于视频修复是图像修复在时间上的扩充与完善, 因此, 在整个运动修复的过程中, 视频修复是最优的选择, 它不仅可以将图像进行动态背景与静态背景区分, 还可以增强修复过程中的连续性, 在实践过程中具有很好的修复效果。
3 修复技术在图像视频处理的应用
图像的修复步包括以下几方面的内容。一是静态图像修复。静态修复是指对照片或胶片丢失的信息恢复、无线传输信息的修复、图像压缩及马赛克部分的图像处理技术等。二是动态图像修复。动态修复也叫视频修复, 是指对序列中指定标记的去除、划痕污染区的修复处理及视角空白区域的填充等。
3.1 对现存修复算法的改进
随着科学技术的发展, 现存的修复算法技术被广泛应用到各个行业。虽然在应用过程中, 取得了较好的修复效果, 但其自身的缺陷也被逐渐暴露出来。这些缺陷主要分为以下几个方面。一是现存的修复算法修复只能对较小或构造较为简单的一些区域进行修复, 对于面积较大或结构纹理较复杂的区域修复效果不理想。二是空域或时域的承接连续性不强, 尤其在不同的区域进行匹配衔接操作时, 在连续播放过程中会出现模糊甚至闪烁不停的现象, 对视觉效果造成严重的影响。三是复杂性不高。在实际视频修复过程中, 对复杂性较高的序列不能有很好的处理效果。
因此, 针对这种情况, 可以对以下几个方面进行改进。一是在使用微偏分的基础上, 通过引入有效的微偏分方程及约束方程, 对构造特征区域的细节信息进行特殊处理, 使线性结构具有较强的连续性。二是采用纹理合成的方法, 对尺寸及模板进行匹配择优选择。三是在视频修复过程中, 通过对运动轨迹的概念进行引入, 选择更快速的修复算法进行修复处理。
3.2 运用修复算法对视频进行压缩
由于视频的编码端采用的编码方式不同, 一部分编码端在压缩前通常对某些结构和特征信息进行去除处理, 而这些区域通常采用直流分量的方式, 进行MPEG2进行编码。这种方法虽然可以将视频进行压缩, 但效果不佳。因此为了更好的提升恢复效果, 需要对视频丢弃的区域进行重点选择, 从而使视频的压缩效率与压缩质量达到平衡状态。
3.3 对DTV视觉修复度的修复
修复技术对DTV视觉修复度的修复, 主要是指对视频中影响人们观感的标识及字幕进行移除处理。一般情况下, 视频中呈现的字幕或标识只出现在屏幕的特定位置, 通常采用修复方法对需要移除的区域进行重建和保存, 使移除的信息既不会丢失, 也不会受到影响, 更不会产生模糊的影像, 对提高人们的视觉观感效果有很大的帮助作用。
3.4 在三维视频重建的应用修复
近年来, 随着三维电视的出现, 极大的改善了人们观看电视的视觉效果。三维视频的应用是指通过对二维主视觉视频与相应的深度图像进行结合处理, 从而产生三维视频或是其他新视角视频。在二维视频生成三维视频或其他新视角视频过程中, 主要依据深度信息与二维图像映射, 对产生的重复覆盖区域和空白填充区域进行修复处理。修复技术对视频空白区域进行填充, 是一项具有广阔发展前景的应用技术。
4 结束语
随着科学技术的发展与人们生活水平的提高, 图像与视频在生活中随处可见, 但随之也出现了类似于视频的播放不流畅, 图像画面不清晰问题的问题, 严重影响了人们的视觉观感。其他国家相比, 我国的图像视频处理技术还不够发达, 因此, 利用修复技术对视频及图像损坏部分或空白部分进行填充与修复, 对提升图像视频的处理水平具有十分重要的意义。
参考文献
[1]张欢欢.修复在图像视频处理中的应用[D].上海交通大学, 2010, 01 (11) :20-25.
[2]赵明.数字图像及视频修复方法研究[D].湖南大学, 2011, 10 (10) :11-13.
航空视频图像定位技术 篇9
机载航空摄影主要特点是:几何分辨率更高, 视场角较大。因此, 位于扫描航片边缘的图像变形较大;另外, 航空平台的姿态远不如航天平台稳定。
但是, 航片获取的时效性很高, 图像分辨率相对于卫星遥感数据也比较高, 在很多对时间反应要求较高的应用领域, 航空摄影图像发挥着越来越大的作用。因此对于航片的处理有很高的实用价值。
系统几何校正是航空视频图像处理中的重要环节, 通常在遥感图像处理的前端。针对视频处理所采集的单帧视频图像, 并利用该图像对应的遥测数据, 建立几何校正模型, 对图像进行系统几何校正计算, 完成图像的系统级的初步定位, 校正因为传感器倾斜拍摄导致的图像像素的局部变形;系统几何校正处理关系到航拍图像的定位精度, 对于以后的地理精校正、情报应用处理等处理打下基础。
1 系统几何校正模型
本文利用坐标变换方法建立原始图像和输出图像的几何关系, 即几何校正模型, 其步骤如下:
① 建立从当地地理坐标系到相机的空间坐标系群;
② 完成各个坐标系之间的相互转换关系;
③ 把原始图像剖分成适当大小的矩形网格;
④ 根据坐标系转换关系建立几何校正模型;
⑤ 利用几何校正模型, 计算网格点 (i, j) 在WGS-84坐标系下的大地坐标 (LWGS-84, BWGS-84) ;
⑥ 利用 (LWGS-84, BWGS-84) 进行地图投影变换, 得到投影坐标 (Xi j, Yi j) ;
⑦ 再把 (i, j) 、 (Xi j, Yi j) 作为控制点, 利用多项式拟和方法, 对原始图像进行校正, 以下简称为“图像重构”。
1.1 系统概述
本文仅概述图像信息中与几何校正建模有关部分。图像信息获取由机载侦察设备 (光电平台) 完成。对于光电平台, 可以装载CCD光电摄像机 (简称CCD相机) 、前视红外热像仪 (简称红外相机) 。
飞机采用GPS和惯性导航系统进行组合定位、测量姿态;平台采用四框架两轴稳定。
1.2 坐标系
在几何校正模型中采用以下坐标系:
① 地球坐标系 (e系) , 采用WGS-84坐标系;
② 当地地理坐标系 (t系) ;
③ 机体坐标系 (b系) ;
④ 光电平台坐标系, 简称平台坐标系 (p系) ;
⑤ CCD相机坐标系 (c系) ;
设图像共Ic行、Jc列, 中心坐标是 (Ic/2, Jc/2) , 像元cp在图像中的行、列数分别为Icp、Jcp, 像元大小为lc×lc, 相机焦距为fc, 则其相应扫描角αc, 偏角βc, 根据画幅式相机摄像原理有:
(6) 红外相机坐标系 (h系)
设图像共Ih行、Jh列, 中心像元坐标是 (Ih/2, Jh/2) , 像元hp在图像中的行、列数分别为Ihp、Jhp, 像元为方像元lh×lh, 因为图像为正像, 则:其相应的扫描角αh和偏角βh, 则根据全景摄像原理有:
1.3 坐标转换
系统校正的目的是利用目标图像和飞机位置、姿态, 以及平台的参数计算该目标在WGS-84坐标系中的大地坐标, 算法核心是对以上坐标系中进行准确的坐标变换。本文用到的坐标系变换有:
① 由地球坐标系到当地地理坐标系的坐标变换。其变换矩阵R1为:
式 (1) 和以下各式中的Rx (θ) , Ry (θ) , Rz (θ) , 分别表示绕X轴、Y轴和Z轴旋转θ角的坐标旋转矩阵。B0表示飞机当前纬度;L0表示飞机经度。
② 由当地地理坐标系到机体坐标系的坐标变换。其变换矩阵R2为:
式中, Ψ为航向角;θ为俯仰角;γ为横滚角。
③ 由当机体坐标系到平台坐标系的坐标变换。其变换矩阵R3为:
式中, η为方位角;ζ为平台滚动角。
④ 由平台坐标系到CCD相机坐标系的坐标变换。其变换矩阵R4为:
⑤ 由平台坐标系到红外相机坐标系的坐标变换。其变换矩阵R5为:
从CCD相机坐标系到地球坐标系的转换, 利用上述变换矩阵得:
从红外相机坐标系到地球坐标系的转换, 利用上述变换矩阵得:
1.4 激光测距的应用
如果在计算过程中, 光电平台上加载激光测距仪, 能够输出成像时刻的激光测距值, 校正计算的精度将大大提高, 尤其在较高海拔地区。
在原模型中未加入激光测距数据, 因此计算过程中, 默认拍摄地区海拔为0;当平台高低角不为0时 (平台相机光轴指向不是垂直向下) , 计算结果与实际地理坐标有很大出入, 如果海拔较高, 该误差将非常明显, 这样的图像定位结果将无法实际使用。如果加入激光测距, 可以有效计算拍摄图像地区的海拔高度, 降低原模型误差。
1.5 图像输出
建立系统校正模型后, 输入划分的图像网格点坐标, 输出投影坐标。这些点的图像坐标和投影坐标形成一组控制点集, 使用该控制点集, 对原始图像数据进行多项式校正计算, 重采样生成输出图像数据, 根据当前拍摄区域中心点位置, 设置图像投影条带, 指定图像投影信息, 最后输出为图像文件。
2 实验结果以及误差分析初步
根据上述模型, 输入图像文件, 并同时获取与图像生成时所对应的遥测数据, 从中分离出建立模型所需的飞行器位置、飞行器三姿、平台姿态、相机参数、激光测距值等数据。利用这些遥测数据建立系统校正模型, 对输入的图像进行校正计算, 生成图像数据, 写入输出图像文件中。因工程应用需要, 还要在图像中加入地理坐标数据, 图像投影信息等。为后续的图像处理以及情报应用处理提供支持。
在进行图像校正定位过程中, 由于多方面因素, 会导致产生光轴指向误差。造成该误差的因素包括:系统安装误差、飞机位置误差、飞机姿态误差、平台姿态误差、结构安装误差、相机内方位元素误差等。
对于飞机姿态误差、平台姿态误差、相机内方位误差, 通过各个设备出厂调试, 以及在系统联试过程中进行设备调校。
飞机位置, 是由机载GPS定位系统提供, 在实验中, 使用差分GPS以及组合惯导, 通过插值运算得到精度更高的飞机空间坐标, 理论上可以达到10 m以内的误差。
对于结构安装误差, 这也是一个系统误差, 通过地面检测, 可以测出部分误差结果;然后在模型中加入误差修正量, 弥补误差因素对校正计算精度影响。在实验过程中比较常见到, 并且对校正输出结果影响较大的是平台的安装误差, 该误差有时达到十多度, 这意味着, 在飞行器据地几千米的空中, 该误差量直接导致最终图像校正结果将有上百米, 甚至于几百米的定位误差。为了降低该误差, 首先在系统安装时, 进行系统误差校准。另外, 还需要在实验前, 对已安装的平台进行地面测量, 测定该误差值。并将该值加入到校正模型中的误差消除模块, 降低这种系统误差对校正精度的影响。
3 结束语
本文利用坐标变换方法给出了机载CCD电视摄像机和前视红外热像仪遥感图像的几何校正模型, 实施视频单帧图像的几何校正计算, 完成该图像的定位。同时结合实验, 通过对激光测距数据的引入校正模型, 对平台安装误差进行分析和计算, 提高校正精度。在实际应用中, 该方法取得良好的图像定位效果, 但同时也存在不足, 图像定位经度目前还不算太高, 在今后的工作中, 需要继续研究, 以达到更好的结果。
参考文献
[1]张永生.遥感图像信息系统[M].北京:科学出版社, 2000.
[2]朱述龙, 张占睦.遥感图像获取与分析[M].北京:科学出版社, 2000.
[3]黄世德.航空摄影测量学[M].北京:测绘出版社, 1992.
视频图像处理论文 篇10
关键词:视频,监控,背景,目标识别
0引言
近些年来, 在很多涉及生命财产安全的行业中, 安全监控越来越引起人们的重视。铁路行业的安全监控一直以来是铁道部和国家关注的重点项目, 随着我国火车的不断提速, 安全问题不容忽视, 如何保证行车安全和行人安全直接关系到整个铁路行业的发展。
本文设计的铁路沿线视频监控方法是通过一种基于视频图像处理实现对于行人穿越铁路线的监控。当被监视区域中出现目标后可以自动报警并且存储相应的故障照片, 为事后的工作提供可靠的依据。算法设计的最大特点是提出一种以图像处理为核心的安全监控设计, 通过图像处理可以自动判断有无危险情况发生并自动报警, 特别是在监控人员不在时能够发挥很大的作用。
1视频监控系统中背景的提取
背景图像是指视场中没有运动目标的图像, 即使视场内有运动目标, 背景算法也通过技术处理除去目标而获得没有运动目标的背景图像。目前常规的背景提取的方法有统计直方图法、统计中值法、多帧图像平均法和连续帧差法等。
以上四种方法分别有各自的缺点。统计直方图法存在的问题是随着统计帧数的增加, 得到的背景图像效果并不明显;统计中值法存在的问题与统计直方图法也相差无几, 此外该算法实现时计算量较大, 占用计算机内存较大, 处理较慢;多帧图像平均法得到背景图像受目标运动量的影响比较大, 随着平均帧数的增加, 噪声消除才会有所改善;连续帧差法静止的背景图像不能直接获得, 其关键是如何在有目标运动的情况下获得良好的背景图像, 由于该算法并没有对帧差分本身进一步处理, 存在的问题是易把纹理相似的前景交叠区域误认为背景。
综合考虑以上四种背景提取方法, 本文采用结合多帧图像平均法和连续帧差法这两种方法来进行视频序列背景的提取。考虑到运动目标的多样性, 有目标经过视场而引起的变化长时间内可忽略不计。多帧图像平均法时将运动目标看作为噪声, 用累加平均的方法消除噪声, 利用目标运行一段时间的序列图像进行平均而得到视场背景图像。连续帧差算法是通过当前帧的图像与前一帧图像的差值找到运动区域, 对运动区域的背景保持不变, 而非运动区域的背景则用当前帧进行更新, 经过一段时间的迭代便可提取出背景。两种方法的结合可以很好地弥补各自的缺点, 能够适应铁路沿线周边环境的要求, 对存在运动目标的背景能够提取出质量较高的背景图像。具体过程如下:
只考虑三帧的情况下, 首先从视频序列中随便提取三帧, 如图1 (a) ~图1 (c) 所示。然后对提取出来的三帧图像分别转换为灰度图并求出它们的灰度平均图像, 以灰度平均图像作为连续帧差法的第一帧图像 (即原始图像) [1] 。通过原始图像和提取的三帧图像来做连续帧差法, 得到的背景图像经过灰度图如图1 (d) 所示[2]。
2视场中危险区域的划定
从已经得到的背景图像灰度图开始, 进行一系列的图像处理, 将会得到一幅标定了危险区域的二值图像。首先对背景灰度图进行均匀化处理, 依次是图像增强、图像二值化、区域标记、除去图像毛糙和图像膨胀[5]。
图像二值化后的结果如图2 (a) 所示, 得到的最终结果如图2 (b) 所示。从两幅图像的对比可以看出, 图像经过一系列处理后, 基本标定了危险区域。
对于得到的图2 (b) , 图中白色的区域为铁道双轨内部即设定的危险区域。应用此种方法得到的结果图像在光照条件充足情况下能够得到更好的效果, 不适用于光照条件不足和夜间的危险区域标定。
3危险情况存在时图像的自动保存
由于视频拍摄的位置是平行于地面, 所以拍摄到的视场很宽广。如果对拍到的整个铁路线进行监控, 那么周围环境会对图像处理带来很大的干扰。所以为了达到较好的监控效果, 只考虑沿线的某一块区域, 本文选定的监测区域是:行的位置从346~386的像素点, 列的位置从341~370的像素点。待监测的视频是25帧/s, 每秒钟从视频中抽取一帧进行监测。对于每一帧待监测的图像首先要进行图像的预处理, 处理步骤包括有转换为灰度图、二值化、图像膨胀等。把预处理后的图像和图2 (b) 做相与运算, 然后对得到的结果图像在监测区域内进行像素统计。
首先设定一个计数器counter, 并令其初始值为0。在监测区域内对每个像素点进行二值判断, 如果像素点的值为0 (即黑色点) , 那么计数器自动加1, 待监测区域内的每个点判断完毕后, 再对counter的值进行判断。如果counter的值大于200 (说明监测区域有很大的干扰, 即有人进入) , 则自动对当前待监测的帧以灰度图的形式保存起来, 如果counter的值小于等于200 (说明监测区域没有受到足够大的干扰) , 则本帧监测结束, 不保存图像, 转而监测下一帧。
对每一帧都做上述处理, 经过一段时间的监测后, 系统会自动保存一些危险情况存在时的图像 (灰度图形式) 。图像自动保存方法流程图如图3所示[3]。
从监控结果来看, 得到的是一幅幅危险情况存在时的图像, 图像自动保存的部分结果如图4所示。这些图像是从10 min的视频数据中自动抽取出来的, 从这些图像中可以分析整个设计的识别率, 识别率的高低影响着算法设计和程序编写的好坏。
通过铁轨的人总数为114人左右, 计算机成功识别出的越轨行为有99人、计算机没有识别出的越轨行为有15人, 本身无越轨行为但被计算机识别出的有9人。监控结果的成功率= (99÷114) ×100%=86.8%;监控结果的漏报率= (15÷114) ×100%=13.2%;监控结果的误报率= (9÷114) ×100%=7.9%。
4一种目标识别算法
铁路上运动目标主要分为:行人、车辆、小动物和其他。
在对目标进行识别前先要对危险情况存在时灰度图图像自动保存的结果进行必要的图像处理, 目的是为后续的目标识别奠定基础, 使经过处理后的图像更加方便地应用于目标识别。在这里图像预处理主要包括增强图像对比度、中值滤波和平滑处理等。目标识别算法的流程图如图5所示。
根据运动目标的分类可知, 车辆的周长是最长的, 所以首先直接判断图像中运动目标的周长, 如果大于某一设定好的阈值, 则可轻易判断出视场中目标属于车辆。余下的目标中, 行人比小动物的纵横轴比值大, 设定纵横轴比阈值, 据此可以判断出目标属于行人。最后将设定一个面积阈值, 面积大于此阈值则可判断目标属于小动物, 否则目标属于其他一些环境的干扰。
5结语
本文首先对拍摄到的视频进行背景提取, 根据提取到的背景经过一系列的图像处理最终对视场中危险区域进行划定。然后系统自动监测视频数据, 自动以灰度图的形式保存危险情况存在时的图像, 目的是为了后续的目标识别。最后根据铁路沿线上可能出现的运动目标, 提出了一种运动目标识别算法。从监控结果可以看出, 整个算法设计具有一定的可行性, 可以作为基于图像处理的铁路沿线视频监控的一种算法, 有一定的参考价值。
参考文献
[1]黄浩军, 胡鹏, 李涛, 等.交通视频检测系统中背景提取的优化算法[J].湖北汽车工业学院学报, 2006, 20 (4) :52-55.
[2]徐晓夏, 陈泉林.智能交通监控系统中的自适应背景更新算法研究[J].上海大学学报:自然科学版, 2003, 9 (5) :420-422.
[3]Rafael C Gonzalez.数字图像处理 (Matlab版) [M].北京:电子工业出版社, 2007
[4]肖琨.数字视频监控系统在铁路上的应用研究[J].铁道工程学报, 2008 (2) :69-72.
[5]张勤常.视频监控在铁路系统中的应用探讨[J].铁路工程, 2007, 4 (4) :46-47.
[6]黄垠瑜.铁路沿线重要场所远程视频监控系统的建设与应用[J].安防系统设计, 2007, 35 (6) :24-25.
视频图像处理论文 篇11
关键词:嵌入式;OV7660;uClinux;JPEG2000;图像采集
中图分类号:TP277文献标识码:A
1引言
视频图像处理论文 篇12
当今随着INTERNET及多媒体技术的高速, Web上或多媒体光盘中存在的大量生动逼真的数字化图形图像, 给电视节目制作人员带来了许多非常优美直观的信息源, 也使利用他人的灵感、作品来丰富电视节目的制作, 包装成为可能, 因而倍受人们的喜爱。但多数电视制作人员对种类繁多的机图形图像文件知之甚少, 本文将重点介绍数字图像处理研究的主要内容和一些常见常用的计算机图形图像文件格式以及获得高质量视频素材的方法。
1 数字图像处理研究的主要内容
图像获取和图像表现阶段主要是把模拟图像信号转化为计算机所能接受的数字形式, 以及把数字图像用所需要的形式显示出来。
图像复原当造成图像退化的原因已知时, 复原技术可用来进行图像的校正。复原技术是基于模型和数据的图像恢复, 其目的是消除退化的影响, 从而产生一个等价于理想成像系统所获得的图像。
图像增强当无法知道与图像退化有关的定量信息时, 可以使用图像增强技术较为主观地改善图像的质量。
图像分析对图像中的不同对象进行分割、特征提取和表示, 从而有利于计算机对图像进行分类、识别、理解或解释。
图像重建由图像的多个一维投影重建该图像, 可看成是特殊的图像复原技术。
图像编码和压缩对图像进行编码的主要目的是为了压缩数据, 便于存储和传输。
2 图形图像的存储格式
BMP文件:是Microsoft Windows所定义的图像文件格式, 最早应用在Microsoft公司的Microsoft Windows窗口系统。众所周知, Microsoft Windows现今已成为PC机环境下窗口系统的事实上的标准, 因而BMP图像文件格式也越来越受到人们关注, 在Windows环境中运行的图形图像软件都支持BMP图像格式。
GIF文件:GIF文件是“Graphics Interchange Format” (图形交换格式) 的缩写, 是由Compu Serve公司为了方便和BBS使用者传送图像数据而制定的一种图像文件格式。, GIF图像文件已经成为网络和BBS上图像传输的通用格式, 经常用于像动画、透明等特技制作。
TIF (TIFF) 文件:TIFF文件是“Tag Image File Format”的缩写, 是由Aldus公司与微软公司共同开发设计的图像文件格式。它的最大特点就是与计算机的结构、操作系统以及图形硬件系统无关, 它可以处理黑白、灰度、彩色图像。在存储真彩色图像时和BMP格式一样, 直接存储RGB三原色的浓度值而不使用彩色映像 (调色板) 。对于介质之间的交换, TIF可以称得上是位图格式的最佳选择之一。
PCX文件:PCX图像文件是由Zsoft公司在80年代初期设计的, 专用于存储该公司开发的PC Paintbrush绘图软件所生成的图像画面数据。目前PCX文件已成为PC机上较为流行的图像文件。对存储绘图类型的图像 (例如大面积非连续色调的图像) 合理而有效, 而对于扫描图像和视频图像, 其压缩方式可能是低效率的。
JPEG格式:JPEG格式一般用来显示照片和WWW以及在线服务的HTML (超文本标记语言) 文件, 它能保存RGB图象中的所有颜色信息。JPEG也是一种带压缩的文件格式, 但在压缩时文件有信息损失。当需要在INTERNET上发布新闻图片时, 一般以.jpg格式的图片上载, 不能太大, 一般为180*160像素, 以免文件过大。
TGA格式:是由Truevision公司为视频摄像机图像而设计, 用于帧捕捉的最主要的24位图像格式, 其典型的图象尺寸为400*512个像素, 每像素16、24或32位彩色。目前各电视台节目制作时叠加的台标和栏目标花多是以.tga图片文件引入字幕机的。在电视台节目的制作中, 制作人员有时也需要利用非线性编辑设备从录像带上抓取画面 (抓帧) , 然后将所抓画面用于印刷或上网发布新闻图片。这时抓帧所得的图像就是TGA文件格式, 可以利用Photo Shop进行格式转换。
3 Image J不同的运行版本
目前, 关于图像处理和分析的软件或者函数库, 很多采用的都是c和c语言, 对很多常见的图像处理函数都有现成的代码和成熟的工具。然而, 针对java这一面向对象程序设计语言, 却没有能很好地利用起来, 在这上面开展的工作也较少, 相关的工具也很少。Image J的出现在一定程度上改变了这一局面。Image J是目前世界上最快的纯java图像处理程序。它能在0.1秒内对一张2048x2048的图片进行过滤。Image J不同的版本可以在Windows, Mac OS, Mac OSX和Linux系统上运行。它能读入许多种图片格式, 包括TIFF, GIF, JPEG, BMP, DICOM和FITS。它支持“栈”, 也就是一系列的图片共用一个窗口。它还是多线程的, 所以像在处理读入图片这种费时的操作时, 还可以并行进行其他的操作。它提供一些标准的图像处理函数, 比如锐化、平滑、边缘检测和中值滤波等, 能对图片进行缩放、旋转和反转等。更重要的是, Image J采用了一种开放式的结构, 通过加入java语言的插件来完成它的扩展。这样, 使用Image J的内置编辑器和java编译器就能得到各种插件。这样的机制就使开发人员自己编写的插件能解决他所需要解决的任何图像处理和分析的问题。与之配合使用的macro语言, 也为Image J带来了更多的方便。
4 获得高质量视频素材的几种方法
采用序列帧的方式:这是最传统、最有效也是使用最广泛的一种方法。具体作法是在一些CG素材创作软件系统中完成制作工作后, 将CG素材输出成一系列大孝格式相同而以一组连续数字编号命名的图片, 为了能很好地在其它剪辑或合成软件中使用该素材, 一般采用支持Alpha通道的图片格式, 如tga、tif等。现在几乎所有的后期剪辑软件、合成软件及专业视频板卡系统都具有将序列帧转换成单一素材的功能, 由于输出时选用的一般是不压缩的图片格式, 因此就实现了素材的无损传递, 但其最大的缺陷是所得到的素材的数据量非常大。
采用带Alpha通道的AVI格式:普通的AVI格式的视频文件一般是不支持Alpha通道的, 因此这种方法一般是在CG素材创作软件系统中完成素材的制作后, 在视频硬件板卡的支持下将素材输出成压缩的、包含Alpha通道的AVI格式, 例如在Matrox Digi Suite LX板卡的支持下可以输出成MPEG-2IFrame格式。这种方式通常也能获得较好的视频质量, 因为有硬件板卡支持所以输出速度很快, 其数据量也不是很大。
采用无损压缩的方法:这种方法也能做到素材的无损传递, 通常是采用无损编码器将CG素材输出成Videofor Windows格式或Quicktime Movie格式。由于MOV格式可以很好的支持Alpha通道, 而没有板卡支持的AVI格式中无法包含Alpha通道, 板卡支持的AVI格式又都是有损压缩, 因此这种方法中AVI格式应用不是太多, 主要以输出成MOV格式为主。特别是随着最近新的、高水平的Quicktime无损编码器的出现, 很好的解决了序列帧数据量大而AVI对Alpha通道支持不好的问题, 成为一种在各软件系统之间无损传递素材的好方法。
摘要:数字图像处理即是计算机图像处理, 也就是说把图像信号转换成数字信号并利用计算机对其进行处理的过程。本文将重点介绍数字图像处理研究的主要内容和一些常见常用的计算机图形图像文件格式以及获得高质量视频素材的方法。