循环数据库

2024-07-22

循环数据库(精选6篇)

循环数据库 篇1

摘要:在总结相关文献的基础上,本文论证了PDCA循环应用于审计数据分析的可行性,并设计了一种基于PDCA循环的审计数据分析流程,确立了审计数据分析的研究技术、方法和基本模型,旨在为审计数据分析提供一种新的可行性方法。

关键词:PDCA循环,数据分析,计算机审计

随着被审计单位信息化水平的不断提高,越来越多的企业开始实施ERP系统为审计工作带来了新的风险。企业应用ERP系统后,ERP系统实现了企业的物流、信息流、资金流的统一,使得业务处理能够跨职能部门进行处理,由生产部门开始,采购、生产、销售、库存等各个环节紧密相连,承载着企业几乎全部的关键业务,涵盖了企业最为关键和最为敏感的信息资源; 与此同时,ERP系统中与企业经营活动有关的大量采购、生产、销售等各个环节的业务数据和财务数据高度电子化、无纸化,这些数据等都保存在磁性存储介质上,形成了一个统一的、集成的与企业经营管理活动有关的数据仓库。

在ERP系统下,通过职责分工赋予不同人员不同的权限,他们能在各自的操作权限范围内进行有关操作活动,而这种途径也很容易出现访问密码泄露,使得舞弊人员通过ERP系统可以快速的访问、窃取企业的客户资源、企业产能、销售渠道、合作伙伴、人力资源组成等企业重要的信息资源,并作出相应的修改、调整。在此情况下,审计面临的环境发生了改变,企业的各种单据、票证和账簿等与企业生产经营活动有关的数据都存储于磁性介质中,审计的对象从传统的手工账簿,转向对存储在ERP系统底层数据库的电子数据的审计,审计的范围和重点也从单纯的财务数据,扩展到海量的存储在ERP系统底层数据库的电子业务数据和财务数据。审计人员面对的是一个无纸化的审计轨迹,传统的审计线索因ERP系统的使用在形式上变得更加隐蔽,传统手工上的舞弊操作变成了不留任何痕迹的计算机操作,这些都增加了审计的难度,降低了审计线索的可追溯性。因此,如何从纷繁复杂的、海量的、结构化的、非结构化的ERP系统数据中获取有用的审计数据,如何从被审计单位的海量的、结构化的、非结构化的数据中确定审计重点、审计内容以及审计范围,并对这些审计数据进行综合分析,从中查找问题线索和审计疑点,是审计数据分析所要解决的核心问题。

审计数据分析工作的质量在很大程度上直接决定着审计项目的质量以及审计目标的实现,如果审计数据分析工作的质量不高、甚至出现偏差,将会直接影响到审计工作的效率和效果以及审计结论的正确性。因此,加强对审计数据分析工作质量的控制就显得尤为重要。本文在对相关文献研究的基础上,针对如何提高审计人员的审计数据分析能力,以及审计数据分析工作的效率性和质量,提出利用全面质量管理的基本方法PDCA循环,对提高审计数据分析工作质量的问题进行探讨,并给出相应的模型分析。

一、相关研究

《数据审计指南———计算机审计实务公告第33号》指出: 数据分析适用于审计计划、审计实施、审计报告等审计工作过程,审计人员应当充分利用历史积累数据,以及数据准备阶段形成的基础表,采用适当的组织方式、方法、技术和工具进行数据分析,以便更高效地选择审计项目、确定审计重点,发现问题线索、得出审计结论。数据分析是计算机审计的重要组成部分,其概念有狭义和广义之分,本文的数据分析是广义的概念,涵盖了数据采集、数据整理和数据分析等方面。在信息化条件下,为有效提高审计工作的质量和效率,规避审计风险,需要进一步加强对审计数据分析的研究。

目前,有关审计数据分析的研究得到了理论界与实务界的广泛关注,其中具有代表性的研究成果有冯国富等( 2009) 在论述审计分析模型工作原理的基础上,提出了一种基于数据流图的审计分析模型构造方法及其审计工作指南,并提供了一种实际的审计案例,用以演示其工作过程,验证其可行性和有效性; 张莉等( 2011)[1]提出在审计大型企业集团资产负债表时,依据资产负债表的取数逻辑,采用平行模拟法设计单体公司报表程序,利用关联规则对比分析报表差异项目,结合审计经验,利用统计方法分析异常数据,快速锁定不同公司的疑点科目,仿真结果验证了模型的有效性,并可快速发现多家公司的审计线索,降低了因取数滞后造成的审计误受风险; 施永香( 2010)[2]分析了常用的审计数据分析方法,并重点阐述了基于Benford法则的数值分析方法; 赵辉等( 2010)[3]针对非结构化的审计数据问题,提出了关键字检索分析方法在非结构化审计数据分析中的运用,并运用实例进行了相关内容的阐明; 王莘等( 2007)[4]在FP - growth算法的基础上,提出了一种改进的适用于安全审计数据分析的挖掘频繁模式算法,与FP - growth算法相比,改进算法在挖掘频繁模式时不生成条件FP - 树,挖掘速度提高了1 倍以上,所需的存储空间减少了一半; 吕新民等( 2007) 针对传统审计数据分析技术的不足,提出了运用数据挖掘技术于审计数据分析中的必要性,并在此基础上对数据挖掘在审计数据分析中的应用进行了研究,总结了应用数据挖掘实现审计数据分析的过程; 岳烈骧( 2008)[5]设计了一种基于社保审计专业知网和社保审计专业分词字典的异构数据语义分析系统,围绕异构社保数据分析系统实现过程中的专业知识库的构建,对社保专业知识的收集和组织,以及社保审计字段的理解,相似数据项的查找,基于社保审计专业知网的词义消岐等关键核心技术进行了一系列的研究和探讨。尽管这些研究成果促进了计算机审计理论的发展和应用,但大多都是对审计数据分析的方法、技术以及工具进行的研究,而对如何提高审计人员的审计数据分析能力,以及如何提高审计数据分析工作的效率性和质量的研究尚不多见。

PDCA循环是全面质量管理的基本方法,是一种按 “P ( 计划) ———D ( 实施) ———C ( 检查) ———A ( 总结与处理) ” 的顺序,用周而复始、不断循环向前的方式,提高企业产品质量和改善企业的经营管理。PDCA每循环一次就要对本次循环进行总结,并提出新目标,把未解决的问题进入下一次PDCA循环,PDCA的每一次循环都会促进活动水平的不断提高。目前,PDCA循环的应用已从企业质量管理扩展到许多不同的领域,如企业内部控制有效性[6]、生产工艺安全[7]、高校教学管理[8]、服务绩效管理[9]等各方面。鉴于此,本文将PDCA循环应用于审计数据分析问题,研究如何应用PDCA循环提高审计人员的审计数据分析能力,以及审计数据分析工作的效率和质量; 根据PDCA循环理论以及审计数据分析过程的特点,对PDCA循环应用于审计数据分析的可行性进行论证,设计出一种基于PDCA循环的审计数据分析模型,并确立合适的审计数据分析的技术和方法,以期达到提高审计人员的审计数据分析能力,以及审计数据分析工作的效率性和质量。

二、审计数据分析PDCA循环模型

1. PDCA循环理论用于审计数据分析的可行性。PDCA循环又叫戴明环,是全面质量管理的基本方法,是由美国质量管理专家戴明( Edwards Deming) 博士提出的。经典的PDCA循环过程由计划( Plan) 、实施( Do) 、检查( Check) 、总结与处理( Action) 四个环节组成,其中计划环节( P) 主要是通过对问题现状的调查,分析现状所存在的薄弱环节,明确活动的方针和目标,进行活动计划方案的制定; 实施环节( D) 主要是活动计划方案的具体执行,这一环节是组织完成活动预期目标的重要环节; 检查环节( C) 主要是对计划方案的实施情况进行全面而详细地检查,确认实施方案是否达到了预期的目标; 总结与处理环节( A) 主要是对检查的情况进行总结,将成功的经验进行标准化,以便执行和推广,对失败的教训要进行总结,以免问题重现,并提出相应的整改措施,把未解决的问题放到下一轮PDCA循环。因此,可以把任何一项活动都按PDCA循环划分为“计划( P) 、实施( D) 、检查( C) 、总结与处理( A) ”四个环节,通过PDCA循环把活动的各项工作有机的联系起来,不断循环往复向前转动; 同时,PDCA循环又是一个递归的体系,PDCA循环的每个环节又可再细分为另一个PDCA循环,这样就形成了大环套小环、环环相扣不停地滚动前进的螺旋上升体系,如图1 所示。每一次PDCA循环都会把活动的目标或标准推向一个更新的高度,如此往复不断循环,活动的目标或标准将会不断得到提升[9]。

审计数据分析是计算机审计的一个重要环节,是围绕审计项目展开,对存储在被审计单位信息系统底层数据库中的海量业务数据和财务数据,从不同层次、不同角度进行分析,以便找出问题,获取审计线索,发现审计疑点。在审计数据分析过程中,如果没有采取合适的审计数据分析技术和方法,或者没有采用必要的控制措施,都会对数据分析工作的效率和质量产生一定的影响,从而带来审计风险,影响审计目标的实现以及审计结论的产生。针对审计数据分析过程中可能会存在的问题,需要加强审计数据分析。有效的审计数据分析是产生可靠、准确的审计结论的前提,而可靠、准确的审计结论又需要有效的审计数据分析。因此,审计数据分析是计算机审计流程中的一个重要环节,其分析过程是[10]:

首先,结合被审计单位的特点,调查了解被审计单位的主要业务流程( 包括采购流程、产品制造流程、商品销售流程等) 、被审计单位信息系统部署和电子数据的详细情况,以及企业业务流程在被审计单位信息系统中的反映,明确审计目标、审计范围以及审计重点,确定审计数据分析方案。

其次,根据审计数据分析方案来采集数据,并对采集数据进行清理和转换,搭建分析环境,按照预定的审计目标展开数据分析,找出问题或者存在的薄弱环节,发现审计线索。

第三,对数据分析过程进行审核,编写数据分析报告,总结审计方法,对未达到审计目标的分析原因,提出有针对性的改进措施,并在下一个审计项目中进行改进。如此不断循环往复,达到不断提高审计数据分析工作的效率性和质量。

由此可见审计数据分析过程在逻辑上与PDCA循环理论存在着一致性,都是通过不断地循环往复,促进过程整体水平或质量的不断提高。因此,PDCA循环理论用于解决提高审计数据分析工作的效率性和质量是可行的。

2. 审计数据分析的PDCA递归模型。 依据PDCA循环理论,审计数据分析的过程可以分为P、D、C、A四个环节: ( 1) 计划环节主要是编写数据分析方案。调查被审计单位的基本情况和主要的业务流程,了解被审计单位信息系统的部署和被审计单位主要业务流程在信息系统中的反映,以及被审计单位信息系统的电子数据基本情况,如数据处理流程、数据类型、数据量等。在此基础上分析存在的问题或者内控薄弱环节,明确审计目标、审计内容、审计重点和审计范围,制定审计数据分析措施计划,确定审计数据分析方案。( 2)实施环节主要是根据编制的审计数据分析方案,对审计项目开展数据采集、转换、清理、验证和创建审计中间表等系列数据准备工作,经过一系列的数据准备工作,根据电子数据的特点和规律,构建审计分析模型进行审计数据分析,并对模型运行结果进行分析,对发现的线索进行延伸,调查取证,核实问题。 ( 3) 检查环节主要是检查审计数据分析方案的执行效果是否达到预期的目标,编写审计底稿。检查的内容主要包括审计数据分析方案是否全面完成,数据选择的是否准确、可靠,数据分析方法的选择是否合理等。 ( 4) 总结与处理环节主要是对审计数据分析的总体情况进行总结,形成数据分析报告,将成功的审计方法纳入有关的标准、制度和规定中,以便以后的推广; 对失败的教训进行总结,分析存在的问题或者薄弱环节和未能达到审计目标的原因,提出有针对性的改进和解决措施,交给下一次PDCA循环,在下一个审计项目中予以改进。

如图2 所示描述了审计数据分析的总PDCA模型,PDCA循环是一个不断循环向前转动、整体呈现螺旋上升状态的闭环系统。审计数据分析按 “P- D - C - A” 的顺序进行数据分析活动,并且周而复始地向前进行,一次PDCA循环结束都要对本次循环进行总结,将成功的审计方法进行制度化、标准化,加以执行和推广,并提出新的目标,然后制定下一次PDCA循环。一般来说,上一次PDCA循环是下一次PDCA循环的依据,而下一次PDCA循环又是上一次PDCA循环的落实和具体化,如此不断循环往复,审计数据分析工作的效率性和质量将会得到不断改进、不断提高。

图2 描述的审计数据分析的总PDCA模型,由于PDCA循环是一个递归体系,审计数据分析的总PDCA模型中的P、D、C、A每一环节又可以再细分为一个完整的PDCA循环,即可以用PDCA循环对审计数据分析总PDCA模型中的每个环节进行建模描述,这样就形成了大环套小环、小环套更小的环、环环相扣的有机整体。由于审计数据分析总PDCA模型的实施( D) 环节涉及面比较广,可以利用PDCA循环的递归特性进一步对实施( D) 环节进行递归建模描述,具体环节内容如表1 所示。

由此可见审计数据分析PDCA模型是一个大环套小环,环环相扣,互相制约,互为补充的有机整体。大环是小环的母体和依据,小环又是大环的分解和保证,即审计数据分析总PDCA循环是D阶段的PDCA循环的母体和依据,而D阶段的PDCA循环又是审计数据分析总PDCA循环的分解和保证。各个小环都紧紧围绕着审计数据分析的预定目标朝着同一个方向滚动,推动着大环不断向前滚动循环,通过PDCA循环把审计数据分析的各项工作有机的联系起来,相互协同,相互促进,不断提高审计数据分析工作的质量和效率。

三、审计数据分析技术的确立

对审计数据的分析和处理是计算机审计的主要任务,在审计数据分析的过程中需要构建审计分析模型,而构建审计分析模型需要采用相应的数据分析技术。目前,可以用来进行审计数据分析的技术主要有SQL查询语言、多维分析技术等,这些技术是根据已知的知识去提取符合条件的数据并获取相应的审计线索。但是,由于现代舞弊手段不断提高,这些审计数据分析技术无法获取隐藏在数据背后的审计线索。数据挖掘与传统的审计数据分析技术不同,数据挖掘是从存放在数据库、数据仓库或其它信息库中的大量数据中获取有效的、新颖的、潜在有用的、最终可理解的模式的非平凡过程[11]。运用数据挖掘技术可以利用分类分析、聚簇分析、关联分析以及序列分析等分析方法,对企业ERP系统在运行过程中产生的大量的与采购、生产、销售等有关的业务数据与财务数据进行深入的分析,从中发现蕴含的数据模式和规律的过程,并获取相应的审计线索。因此,本文利用数据挖掘构建审计数据分析模型进行审计数据分析。图3 描述了应用数据挖掘进行审计数据分析的过程模型,具体步骤如下:

1. 明确审计需求。审计人员结合被审计单位的特点、主要业务流程、所使用的信息系统、电子数据,以及业务流程对信息化的依赖程度等具体情况,根据审计数据分析方案对审计目标、审计内容以及审计范围的规定进行审计需求分析,明确审计需求,并将审计需求转化为数据挖掘具体问题。

2. 数据采集与清理,此阶段是实现审计数据分析的前提和基础。根据数据挖掘问题,从被审计单位的ERP系统中采集与审计需求相关的电子业务数据和财务数据,并进行适当的格式转换。当采集的源数据存在值缺失、空值、冗余、错误、数据规范性差等问题时,审计人员必须对采集的数据进行一系列的数据清理工作,如重复行数据、列中冗余数据等的识别与处理、空值的处理、字段值缺失数据的处理、数据类型、数据格式的转换、不规范数据的处理等,从而提高数据的完整性、准确性、一致性、唯一性以及有效性。通过对数据的一系列转换和清理工作提高了数据的质量,为后续的数据挖掘建模分析提供了可靠的数据保证。

3. 数据挖掘建模分析,此阶段是审计数据分析工作核心。针对不同层次的审计需求,根据被审计单位各业务的财务数据与业务数据之间的关系,选择不同的数据挖掘方法,如分类分析、聚簇分析、关联分析、序列分析等,并进行相应数据挖掘算法的设计及挖掘参数的设定,从而建立不同的数据挖掘模型对审计数据进行挖掘和分析。如运用聚类技术建立审计数据分析模型,通过对相似数据的分组,发现分布模式与数据属性间的关系。

4. 结果评价。把通过数据挖掘技术发现的审计知识以可视化的形式显示,并对此结果进行解释,帮助解决实际问题,然后根据可用性、正确性、可理解性等评价指标对审计知识进行评价。

5. 总结及发布。对评价的结果进行总结,将成功的经验进行标准化,对于失败的教训进行总结。根据审计人员的要求,将以可视化的形式显示的审计知识呈现给审计人员,审计人员运用所发现的审计知识进行取证分析,获取审计线索,发现审计疑点。

以上步骤不是一次性完成的,如果数据挖掘结果不满足审计人员的需求,这就需要将过程回退到之前的某个步骤,如重新选择数据、设定不同的挖掘参数值等。因此,有些步骤可能需要反复进行,不断改进完善并提高,以期达到预定目标,这与PDCA循环理论在逻辑上存在着一致性,如图4所示。因此,通过引进PDCA循环的审计数据分析持续改进运行机制,可以科学、规范、有效地提高审计数据分析工作的效率性和质量,并具有较强的可操作性。

由图4 所示,应用数据挖掘进行审计数据分析的PDCA循环模型,将应用数据挖掘的审计数据分析按PDCA循环划分为 “P、D、C、A” 四个环节,通过PDCA循环把审计数据分析的各项工作有机的联系起来。由于应用数据挖掘进行审计数据分析并不是一次性完成的,某些步骤可能需要反复进行,以期达到预定目标。因此,图4 的每一环节又可再分解为一个更小的PDCA循环,这样应用数据挖掘进行审计数据分析的PDCA循环模型是一个大环套小环、小环保大环、小环里又套更小的环、环环相扣的有机整体。在应用数据挖掘进行审计数据分析的PDCA循环模型中,小环是大环的分解,而大环又是小环的母体和依据,各个小环都围绕着预定的目标朝着同一方向滚动,推动着大环不断向前滚动,从而保证审计数据分析过程统一、有序地进行。每一次循环都会使审计数据分析工作的质量提高一步,最终达到审计数据分析工作预定的目标。

四、结论

审计数据分析是计算机审计的一个重要环节,通过对审计数据的分析可以从中发现有价值的审计线索。本文运用经典的PDCA循环理论,设计了一种基于PDCA循环的审计数据分析流程,并确立了采用数据挖掘技术进行审计数据分析。基于PD-CA循环理论的审计数据分析是一种持续改进、螺旋上升的工作模式,目的在于通过对审计数据分析过程的计划、实施、检查及总结与处理环节的PDCA循环建模,不断提高审计人员的审计数据分析能力,提高审计数据分析工作的效率和质量。

本文只是从理论上探索了将PDCA循环理论运用于审计数据分析流程,在基于PDCA循环的审计数据分析模型中,最重要的是审计数据分析技术和方法的选择,以及审计数据分析模型的建立。审计数据分析模型建立的如何,将直接影响到审计数据分析工作的质量,并有可能进一步影响到审计结论的正确性。本文没有进行实证研究,只给出了基于PDCA循环的审计数据分析的思路和框架,若将PDCA循环应用于审计数据分析的实际工作,还需要从理论到实践进一步深入研究。

循环数据库 篇2

从一个圈套For循环来谈软件设计

武汉华中师范大学信管系 谢刚

摘要:就自己的一次实际经历来谈谈软件设计过程中应该注意的一些细节

关键字:软件设计 需求分析

前段时间,跟外面公司设计一个MIS系统(使用工具是PB8.0+MSSQL),是一个关于安全生产的,为了体现我们设计人员的高质量服务,我在《需求说明》之外又帮他们设计了一个功能,就是:在每次这个功能窗口打开时,到数据库中去自动检测看看有没有冲突数据;也就是说,两个一模一样的器材是否被安装了到了两个不同的机器上。这个功能,我相信很多朋友都会写,就是两个循环一圈套就完了。是的,我当时的确是用两个FOR圈套来写的。

不错,设计的和想的都很不错。并且是做的《需求说明》之外的事,开始也得到了公司的一点点“点头”。后来发生的事,就叫我苦笑不得了:

昨天,当将他们公司的实际数据导到我们的MS SQL-Server中以后,(一共是9983条记录,每条记录是20来个字段);发现我的那个功能窗口打不开了。死活是进不去啊!当场无奈。

今天下午经过“黑盒”和“白盒”测试后,经过无数次测验,才发现原来是这个10000*10000的自动检测出了毛病,

就是说,在执行这个10000*10000的循环时,一般的机子本来就有点吃不开,在这个情况下,还在数据库中做了大量的比较工作和验证。所以,就算是AMD1500的双CPU和1024M的内存也有点累的说。

总结:

1,只要是《需求说明》上面没写的功能一律不要自作聪明加上去,因为这样你顶多只会得到公司的一点点“点头”,没有什么实际好处。相反,时刻会给你埋下个定时炸弹

2,设计程序时,一定要考虑算法,正所谓:程序=数据结构+算法,的确如此

3,讲究代码效率的同时,考虑程序执行效率

4,书写详细的注释和说明(这个习惯是非常重要的)。

5,每次修改都做修改记录,每次测试都记下测试结果和测试数据类型和方法。

6,认真体会《软件工程》知识,不要片面的认为其无用。

循环数据库 篇3

本文介绍了一种循环记录的方法———需要在设备上电初始化检查并修复Flash存储卡,在视频记录过程中根据磁盘剩余空间的大小按照时间的先后次序删除先前记录的视频文件的方法,实现并保证试飞试验过程中的音视频能够完整地记录下来。

1实现循环记录所需要的工作任务

1. 1 设备上电初始化检查和修复磁盘的处理

机载数字视频记录仪设备上电初始化主要完成硬件和软件初始化的各项工作,其中一个关键的任务就是Flash数据存储卡的初始化工作,Flash数据存储卡是将存储单元组织为块阵列[1],但是由于工艺和使用环境的问题,Flash存储器中不可避免会出现坏块[2],并且这些坏块是随机分布的,如果在已经制成的器件中,不能检测出坏块,那么在设备运行过程中将导致视频数据无法保存到磁盘从而产生数据丢失或者数据错误的故障,因此,需要在视频记录前完成检测并修复Flash存储卡上坏块的工作,使系统能正确地存储及读取数据[3]; 另外,还应在每次上电初始化时根据当前Flash存储卡上存在的视频文件夹建立索引文件,方便在存储卡记满时可根据索引文件中已经排好序的文件名称删除视频文件和文件夹。

1. 2 视频记录过程中检测磁盘剩余空间并处理

因为机载数字视频记录仪设备需要记录每次飞行或者试验过程中各个显示器上的视频数据,数据量很大,举例来说:若视频图像分辨率为1 024 × 768,帧率为25 f/s( 帧/秒) ,假定共有4 个显示器,那么1 s时间内产生的音频数据、视频数据和保存视频关键帧位置的文件总大小约为10 Mbyte,若是记录6 路分辨率为1 600 × 1 200 的视频,相同时间内数据量约为35 Mbyte,所以应该在Flash存储卡上预留一定的剩余空间作为判定卡满的条件。这样在视音频记录过程中进行删除文件操作的时候,就不会出现传输过来的数据无法保存到存储卡的故障。因此,需要在设备初始化完成之后视频记录开始之前,启动一个专门检测并处理磁盘空间的任务,当视频记录过程中剩余空间小于设定的阈值后,需要按照时间先后顺序执行删除视频文件和修改索引文件的操作,同时将所删除的文件大小累加到当前存储卡剩余空间,直到剩余空间大于设定的阈值。

2 循环记录关键技术和方法

2. 1 检测和修复存储卡坏块

首先,在应用层程序启动之前,需要对Flash存储卡进行扫描,执行chkdsk函数完成对Flash存储卡的坏块检查和修复工作,chkdsk函数是由Vx Works下板级支持包BSP提供的接口函数,需要注意的是chkdsk函数的参数选择,应该是chkdsk( “/ ata0 ”,DOS _ CHK _ REPAIR,DOS _ CHK _ VERB _ SILENT) 。

2. 2 建立索引文件

每一次设备上电进行磁盘自检时,都应该按照时间的先后顺序将磁盘上的音视频文件夹的路径名写到索引文件中,路径名的命名规则为“/ata0 /年年月月日日时时分分秒秒”总共18 个字符,具体方法( 如图1 所示) 为:

1) 以opendir的方式打开名称为“/ ata0 ”的磁盘,并将结果保存到名称为p Dir的DIR结构体中;

2) 将磁盘上的视音频文件的相关信息保存到dirent类型的结构体中,并从该结构体中获取文件路径名和磁盘当前视音频文件总数;

3) 调用strcmp函数,使之按照字符的字典排序重新排列磁盘上的路径名;

4) 判断当前磁盘上是否存在索引文件,若存在,那么需要删除已存在的索引文件,将新的路径名排序结果以* . txt的格式保存到磁盘上。

2. 3 管理索引文件

如图2 所示,若在建立索引后,检测到当前磁盘上的空间已经小于所设定的阈值,那么应做以下处理:

1) 若索引文件长度mod18 为0,说明从未进行过删除音视频文件的操作,应该从索引文件中起始位置开始获取18byte的路径名,并初始化删除次数变量为0;

2) 若索引文件长度mod18 不为0,说明已经进行过删除音视频文件的操作,文件指针应该向后移动( 删除次数 × 文件路径名长度) 大小的字符,并以此为起始获取准备删除文件的路径名;

3) 检测磁盘空间是否仍然小于所设定的阈值,若已经满足最小阈值,那么在等待一定的周期后继续查询磁盘剩余空间,否则应按照时间顺序删除音视频文件直到磁盘剩余空间满足最小阈值。

2. 4 逐层删除文件及文件夹

如图3 所示,按照需求程序依次将音视频文件、存放音视频文件的文件夹、保存音视频数据关键帧位置的文件和存放上述两个文件的文件夹一并删除,那么应做如下处理:

1) 打开要删除的音视频文件夹,并返回一个路径描述符video Dir;

2) 获取该文件夹中各个音视频文件的路径名,并删除文件直到文件夹为空;

3) 关闭该文件夹;

4) 打开要删除的存放音视频数据关键帧位置文件的文件夹,并返回一个路径描述符;

5) 获取该文件夹中各个音视频数据关键帧位置文件的路径,并逐一删除文件直到文件夹为空;

6)关闭该路径描述符;

7)删除文件夹操作。

3 功能测试

使用C语言实现了上电检测存储卡、视频采集和循环记录等功能,通过Tornado将应用程序和BSP联编在一起,设备上电后自动挂载存储卡后再执行应用程序,经过长时间的拷机试验以及外场用户的使用,视频采集功能和循环记录功能实现正常,在试验试飞结束后,使用视频解码器对编码数据进行回放,视频画面清晰流畅,没有出现丢帧和误码问题。

4 结论

本文针对现有技术存在的不足,提供一种机载设备上视频数据的存储方法,它能够实现存储空间的循环利用,无须地勤人员去删除存储设备中的数据,存储设备无存储空间时能够删除老旧的数据为新存储的视频数据让出空间,从而达到充分利用存储空间的目的。

摘要:介绍了基于VxWorks嵌入式操作系统的某型机载数字视频记录仪中使用的循环记录算法,并对其中需要完成的任务和关键技术进行了详细的描述,该算法运算速度快且不会影响视频数据的实时采集和存储操作,从而实现了机载设备对存储卡的有效管理。

循环数据库 篇4

1.首先下载 UltraISO(网上绿色版,单文件版本一大堆,随便下吧)

2.打开 UltraISO,选择文件-打开光盘

3.如果只是少数文件,那么你可以直接在 UltraISO 里边选择你所需要的文件,右键单击-提取到指定位置就可以了

4.如果想整张光盘都弄出来的话,那么你可以选择 工具-制作映像文件,来制作ISO

5.然后就是漫长的等待时间了,等时间结束,你的ISO基本也就完成啦,用虚拟光驱载入或者 WINRAR 解压看一下,你的文件已经被拯救了,

循环数据库 篇5

以下以未来伙伴机器人的JC代码编程来讲述如何使用传感器检测讲解循环程序的编写教学方法。

一、传感器的简单检测程序运行讨论

二、简单改进, 引入while最简单的循环, 分析结构, 观察现象分析, 理解while (1) 循环

新知识点:while循环结构, 循环条件“1”“0”的意义。

三、能够随时保持记录数据的程序

新知识点:1.while循环条件使用传感器数据作为条件。2.循环条件的获取和处理。3.循环条件的数据类型。

在检测中增加一个按钮, 接在DI端口上的就是数字类型, 获取值是“1”或“0”, 接在AI端口上就是模拟, 获取值是可能是0~254 (具体由主控器厂商设定) , 下面以按钮接在模拟口为例编程, 程序分析见后面的注释。

这个程序能够在程序获取到数据的瞬间按下按钮, 数据就可以停留在显示屏上一段时间。但它的缺点是要重新检测就要重新启动程序。

四、可以重复检测好用的检测程序

知识点:循环嵌套程序

五、智能多传感器检测程序

一些机器人显示屏显示空间有限, 采用循环程序加上一些运算等, 就可以将我们要知道的一些数据逐一显示出来, 下例程序有采用while循环进行检测数据并且用一些变量来存储数据, 亦有采用while循环来显示数据同时等待按钮按下显示下一个数据内容。

通过以上对传感器一系列数据检测程序的编写和实际检测, 加上教师对程序结构和相关知识的讲解, 能够使学生掌握循环程序的结构有了较深的理解。在此基础上就可以引导学生用循环程序来解决机器人智能行走、智能完成一些较为复杂的任务等。

摘要:在编写的程序中加入循环结构, 加入相关的知识点, 就能够学好循环结构的编程, 当学生理解了循环结构和用法就能够将知识用到机器人完成任务的各种循环程序编写了。

关键词:传感器数据,循环结构

参考文献

[1]徐科军.传感器与检测技术[M].北京:电子工业出版社, 2007

循环数据库 篇6

关键词:大数据,“仓鼠奔跑”,媒体

目前, “大数据”的概念及其价值更多的是被IT业和企业营销领域所关注, 但事实上, 传媒业也将是受到大数据时代冲击的主要行业之一。在商业领域, 大数据对于用户行为偏好的分析, 使得点对点的精准营销成为可能。但大数据对于新闻出版行业来说, 其意义不在于掌握庞大的数据信息, 而在于对含有意义的数据进行专业化处理, 达到数据的增值和服务的增值。而借助大数据和互联网思维衍生出的新的媒体平台形式、专业化的资源整合和服务, 有可能让媒体重新找回在信息碎片化、源头多元化、新闻娱乐化背景下失去的自信, 焕发新的生机。

一、“大数据”给传统媒体带来的挑战

“大数据”对于新闻出版行业发展的影响是具有两面性的:一方面, 正如哈佛大学社会学教授加里·金说:“这是一场革命, 庞大的数据资源使得各个领域开始了量化进程, 无论学术界、商界还是政府, 所有领域都将开始这种进程。”通过大数据分析, 人类完全有可能认识复杂、隐秘的社会和自然现象, 过去的不可知领域可能将被人类彻底解开谜底;另一方面, 大数据只是决策的一种量化手段, 正确认识事物的是非和利害, 遵循人文精神是运用大数据的最重要前提。缺少这个前提, 大数据不仅毫无用处, 而且能为谬论寻求支持的数据。

因此, 在大数据时代, 新闻媒体通过驾驭大数据, 从互联网、物联网和社交媒体中不断地“提纯”和选择新闻事实, 最终才能在庞杂的信息海洋中, 给读者精炼出真正有价值的新闻。

目前, 在大数据及相关技术的影响下, 过去只有受过专业训练的人才能承担的新闻报道工作, 开始部分地转移到了计算机身上。美国Narrative联合创始人兼首席技术官克里斯蒂安·哈蒙德认为, 未来机器生成的新闻将占到媒体新闻的90%, 并且在未来5年之内, 这样的新闻有可能获得普利策新闻奖。尽管我们目前还不能判断机器生成的新闻对世界的描述是否更接近本质的真实, 是否符合人类社会的主流价值观, 但无疑, 新闻采访写作这样一个过去被“人”所垄断的领域, 开始受到机器的“入侵”。

在中国, 以大数据为基础的新闻报道已崭露头角。2014年6月, 数据新闻《青岛中石化管道爆炸》获得亚洲出版业协会 (SOPA) 的卓越新闻奖, 这是中国新闻史上第一次程序员获得新闻奖。2014年11月, 财新网可视化数据新闻《周永康的人与财》获得腾讯传媒大奖首度设立的“年度数据新闻”奖。财新传媒数据可视化实验室也成为国内唯一获得数据新闻奖项的可视化团队。

在这样的背景下, 新闻出版业, 包括其中的从业人员, 如何借助大数据, 从中找到新的行业价值和发展前景, 是非常紧迫而严峻的问题。

从目前的研究看, 中国人民大学新闻学院学者彭兰认为:大数据技术促使趋势预测性新闻和数据驱动型深度报道分量的增加;数据呈现、分析与解读能力的提高;新闻生产中跨界合作, 主要是与数据处理企业合作的增强, 等等。这一切, 增强了媒体的内容加工能力和数据说服力, 但并不能从根本上改变传统媒体广告下滑则新媒体赢利模式尚未成型的尴尬局面。新媒体、新技术以及大数据时代的到来, 只是给传统媒体以越来越深刻的“唯恐掉队”的危机感, 但在气喘吁吁的追逐中, 还远未看到胜利的曙光。《哥伦比亚新闻研究》的一篇文章把媒体记者的这种状态称为是“奔跑的仓鼠”:“编辑部的人数不断地减少, 任务量一直在增加。但仓鼠虽然一直在奔跑, 却依然停在原地, 新闻业也是如此。”

大数据, 是新闻行业消亡的加速器, 还是推动传统媒体新生的发动机?如果是发动机, 需要怎样利用, 才能促使传统媒体发生质的革新?

二、大数据将使精准的受众需求分析成为可能

在第一手新闻是稀缺资源的时代, “新鲜性”是第一衡量标准。而到了信息极为易得、普遍过载的互联网时代, “内容泡沫化”、“新闻娱乐化”已给现代人带来了巨大的信息焦虑和困扰。

清华大学新闻与传播学院副院长李希光对此反思到:“看不见的手利用新闻蒙住了人的眼睛, 模糊了真相, 新闻与我们现实的生活、健康、工作和学习越来越不相干。”而瑞士小说家罗尔夫·多波利则更为激进:“新闻有害健康, 导致你恐惧、好斗, 阻碍你独立思考和创造的能力。最好的解决方法, 就是完全停止看新闻”。

这种压力和焦虑同样在折磨着媒体从业者。在人人都是自媒体的时代, 由于新闻的碎片化、来源的多元化, 媒体人的信息优势正在消失, 职业边界受到根本性的挑战, 很多媒体从业者陷入了职业自豪感、使命感丧失后的迷惘之中。

虽然完全停止看新闻是一种比较个别的、极端的选择, 但它提示我们, 人们需要的新闻并不是越多越好。当前媒体发展和更替的趋势也印证了这一点:小型化、便捷化、自主化、互动性强的微博冲击了大型新闻网站;基于人际间强关联的微信朋友圈成为资讯传播和新闻移动时代的新宠;腾讯新闻弹窗、网易、搜狐新闻客户端对当日最重要、最新发生的新闻进行严格筛选、滚动推送。

当前读者对新闻的态度, 经历了信息极为贫乏的饥渴;信息“暴富”时占有的贪婪;面对信息多元化选择的眼花缭乱;到最后, 趋向于追求更加健康和有品质的生活, 即有限的、有深度的、真正对“生活、健康、工作和学习有用”的新闻。

在这样的大趋势下, 新闻的“有用性”将如其诞生之初一样, 重新上升为第一功能, 回到人们的视野。要想从根本上摆脱行业危机, 就必须实现媒体发展思路从“为内容而内容”向强调“内容的有用性”转变。

这个思想转变得越快, 就能越及时地将工作重心转移到发现需求上来, 赢得大数据时代赋予传统媒体的变革机会。要充分理解和运用互联网思维, 使被动的受众变成新闻或资讯产品的消费者甚至是生产参与者, 通过大数据发现需求并提供增值服务, 对传统媒体生产目标、内容、人力资源、组织方式进行全方位的整合和重构, 才能走出“奔跑的仓鼠”的原地循环, 在为用户创造价值中, 实现媒体行业新的存在价值。

目前, 国内外对大数据的产业化运用的有两个层面:一是统计学意义上的大数据运用。即从用户使用痕迹数据统计出发, 分析用户作用偏好, 从中发现商机。这对于产品销售、资讯推送等方面有较大的指导意义, 此外, 对微博、微信等新媒体用户偏好研究也具有重要的参考价值。二是对媒体现有和未来数据的积累和再加工, 使新闻作品向资讯产品转变, 从新媒体“烧钱赚吆喝”, 转向提供有“生产力”的资讯产品, 找到相对明确的赢利模式。目前已出现的这方面产品包括舆情分析报告、民意调研报告、政策实施后评估报告等特定资讯产品定制等。

其中, 第二个层面能够充分利用媒体的资料积累, 激发在媒体职业“青春化”下沉没的资深记者编辑人力“沉没资本”, 延伸媒体产业链, 从信息发布者向信息的收集、加工、分析、咨询、线上线下活动组织者角色转变。

三、对平台型媒体“自组织”资讯的大数据将创造新机遇

从20世纪90年代起, 当代中国社会开始了大规模、高速度的阶层分化, 研究这个分化对明确媒体受众定位具有重要作用。当前, 一方面, 是“百事通”式的“砖家”被公众“遗弃”, 信息需求专业化、定制化需求明显;但另一方面, 过分苛求专家仅对本专业领域发言, 容易使社会各圈层陷入自说自话的怪圈之中, 需要一个形成共识和通识的平台。

这两者都是媒体的生存机会。目前, 着眼于形成社会通识的媒体功能已非常发达, 竞争趋于白热化, 而对信息专业化、定制化需求的发掘远远不够。

从新闻时效性来分析, 抢在第一时间发布的新闻属于“知道即可”的通识新闻, 在这场竞争中, 赢者只有一家, 而且这种独家优势在网络的快速传播中也许只能维持几分钟甚至几秒钟。尤其是在突发社会发布方面, 新媒体要比传统媒体快得多, 也灵活得多。因此, 媒体在新闻“第一落点”的生存状态, 将越来越艰难, 是典型的“奔跑的仓鼠”状态。

目前, 已有不少媒体开始从新闻的“第二落点”寻求机会。

一种方式是加大深度报道的力度。皖江晚报副总编辑刘力在2012年刊发的《第二落点的第一关注》一文中表示, 失去新闻的第一落点转而抢抓第二落点, 实在是纸质媒体的一种无奈选择。然而, 无论从新闻队伍的整体水平还是纸质媒体的固有特征来看, 在抢抓新闻第一落点的同时, 扬长避短, 集中精力做足第二落点, 不失为纸媒适应日趋激烈的竞争环境之良策;另一种方式是内容为体, 服务为用。2012年7月, 《第一财经周刊》在《虎嗅网:争抢互联网新闻的“第二落点”》一文中提到, 虎嗅网创始人李岷与其他着眼于新闻“第二落点”的媒体的不同动机在于:其发布内容的目标是建立起平台和品牌, 而其真正的赢利着眼点在于能够给企业提供的咨询服务。

而创造机会、激发活力、整合资源、提供多元化的选择和服务正是互联网的魅力所在。很多互联网企业都不否认自己的平台具有一定的媒体属性, 但媒体属性只是其功能中非常小的一部分。例如, 淘宝网、百度等等。这些企业之所以能够产生巨大的赢利空间, 是因为它为用户创造了活力、价值和机会。它对传统媒体转型的启示, 正如喻国明所说:“互联网是一种激活个人要素的‘高维’媒介”;它“让所有的个人在上面找到自己的通道, 找到能够激发自己活力的资源”。

这些平台的特征, 以淘宝网为例, 类似新闻的第一落点和第二落点, 产生了两个赢利层次:第一个落点, 由于这个平台能够给用户提供较为方便和可靠的供给和需求交易平台, 使得商户信息产生了激烈的广告位竞争和搜索排名需求, 由此产生了第一赢利层次;第二赢利层次, 类似媒体从新闻的第二落点寻找机会, 淘宝平台通过对大量真实交易信息的大数据跟踪和分析, 推出了基于用户偏好分析的、极为有针对性的产品推送服务, 大大提升了商家产品推送的针对性和成交概率。由此可能产生的真金白银的价值, 是商家心甘情愿为其付费的原因。

由此, 喻国明表示, “真正应该成为媒体转型融合发展主流模式的应该是与互联网逻辑相吻合的‘平台型媒体’ (Platisher) ”。所谓Platisher是Platform (平台商) 和Publisher (出版商) 两个字合成后的新词。这种平台性的媒介不是单靠自己的力量做内容和传播, 而是打造一个良性的开放式平台, 平台上有各种规则、服务和平衡的力量, 并且向所有的内容提供者、服务提供者开放, 无论是大机构还是个人, 其各自独到的价值都能够在上面尽情地发挥。

传统媒体转型要改变新媒体发展“赔钱赚吆喝”的局面, 就必须向着为用户提供真金白银价值的方向转变。在新闻的“第一落点”, 应将读者看作用户, 在定位其需求, 为其提供方便快捷的信息共享渠道的同时, 做好信息的筛选和鉴别, 形成整合这一特定用户圈层信息和资源的平台;在对用户“第一落点”新闻需求大数据分析的基础上, 提供专业和精准的第二落点新闻、资讯、产品、广告等服务。通过对这两个层次产生的大数据跟踪和分析, 将形成一幅细节更加精准、活力进一步绽放的社会图景, 推动传统媒体跳出“仓鼠奔跑”的原地循环, 伴随着经济、社会、科技发展的脚步, 一起成长。

参考文献

[1]大数据——知识, 真正的价值体现[DB/OL].赛迪网, 2013-6-21.

[2]彭兰.“大数据”时代:新闻业面临的新震荡[J].编辑之友, 2014.

[3]王斌.数据与新闻理念创新:以全球首届“数据新闻奖”为例[J].编辑之友, 2013 (6) .

[4]黄志敏.程序员获新闻奖, 你怎么看?——解读财新网可视化数据新闻[J].中国记者, 2015 (1) .

[5]余婷.美国报纸调查性报道衰微原因探析[J].新闻实践, 2011 (1) .

[6]李希光.谁蒙上了你的眼睛——人人必备的媒介素养[M].法律出版社, 2013.

[7]刘力.第二落点的第一关注[J].新闻战线, 2012 (7) .

[8]杰罗姆.平台型新媒体, 科技与媒体百年缠斗中再平衡[DB/OL].钛媒体, 2014.

[9]喻国明.媒体融合重在应用“互联网思维”[DB/OL].人民网, 2014-8-20.

上一篇:高校图书馆员素质研究下一篇:领导语言艺术