数据传输机制

2024-07-16

数据传输机制(精选11篇)

数据传输机制 篇1

铁路工程建设不仅满足了社会交通的需要, 也带动了区域经济的快速发展, 避免了外界因素对交通结构的破坏作用。从长远角度考虑, 未来铁路应急平台需进行技术改造, 采用智能化的调控系统加以控制, 保证铁路运输流程的有序进行。

一、铁路应急平台的具体组成

为了防范交通运输意外的发生, 铁路项目工程需设计应急平台, 在事故发生前做出告警反应, 以阻止突发事件的发生。随着科学技术的发展进步, 国内铁路交通应急平台的结构组成更加优化, 除了必备的功能模块外, 也添加了一些新型的装置。目前, 比较常见的方案是根据铁道部、铁路局和铁路站段 (现场) 三级结构部署。

铁道部应急平台的主要功能是对所有交通线路情况实施综合监管, 对存在的安全风险或意外故障提前采取应急处理方案。通常应急平台处置铁路突发事件响应级别达到Ⅱ级以上, 或突发事件的处理需要两个以上铁路局 (公司) 共同配合时, 由铁道部应急平台指导相关铁路局进行应急处置工作。铁路局 (公司) 应急平台负责处置管辖范围内的应急事件, 并且把一些重要事件汇报给上级部分, 从而开展必要的指导活动。现场应急平台也就是铁路移动应急平台, 当发生铁路突发事件时, 移动应急平台将处于事发现场, 实现应急事件的现场处置指挥及事件现场与其它各级固定应急平台的互联互通。

二、铁路应急平台数据传输的必要性

2.1满足处理信息需求

铁路交通涉及到多方面的内容, 其在数据传输期间也会遇到不同的潜在风险。随着国内交通行业的快速发展, 铁路应急平台的建立成为了不可缺少的策略。建立应急平台能够保持内部数据传输的高效运行, 降低数据调配中发生的各种风险。鉴于突发事件对铁路运动的不利影响, 利用三级平台系统可以抵制数据传输的风险, 在突发事件发生前作出有效的回应。突发事件中涉及到的信息包括:预警信息、事件信息、现场处理信息, 一些特殊的语音、图片、视频等也可作为传输数据的载体。

2.2满足外部系统需求

铁路应急平台并非单独运行的, 其在发挥数据传输功能的同时, 也要借助其它调控系统的帮助。从应急平台与外部系统的关系来看, 这种结构组合需要处理的数据内容相对复杂。具体内容:一是业务信息, 对铁路工程涉及到的内容及时调控, 尤其是与铁路部分业主拓展相关的数据, 应结合实际情况制定应急平台方案, 保证业务信息的有效运用;二是社会信息, 铁路应急平台要考虑地域特点、环境特点、交通特点等, 这样才能实现系统结构的有效组合, 保持高效率的数据传输功能。

从铁路工程建设角度考虑, 未来应急平台数据传输机制应注重“集中式”调配模式, 以控制中心为准不断完善系统的调控节奏。对于不同形式的数据信息, 要结合自动化操控系统完成必要的转换, 以此满足数据传输系统的应用要求。

三、基于消息中间件的传输模式

3.1 JWMQ消息中间件概述

科学技术是第一生产力, 在先进科技的带动下铁路应急平台建设日趋完善。新型平台的建立不仅在功能上突破创新, 在结构上也优化了平台的组合模式, 使其更加偏向于智能化传输模式。JWMQ消息中间件对应急平台中数据传输机制的改善发挥了重要的作用, 其充分显现了多方向数据传输的优势。从实际应用情况看, 消息中间件是计算机系统的核心软件, 经过中间件可以实现数据传输的融通, 在提高数据传输效率的同时也降低了意外风险的发生。中间件通常被设置在操作系统与网络软件两者之间, 为其创造了可独立操控的传输平台。基于JWMQ消息中间件建立数据传输机制, 大大改善了铁路自动化控制系统的效率。

3.2数据传输处理的措施

3.2.1 XML的特点:

XML中标签和属性的语义可由研发者自行定义, 对每个标签也编制的权利。同时, XML也具备了其它不同的特征, 如:XML语言运用于数据表达中, 能够对原始程序代码一一识别, 然后根据网络传输的具体要求完成信息交换工作。

3.2.2 数据传输的处理措施:

处理数据要经过标准性的转换过程, 使其按照规定的数据形式传达给接收端口。为了保证数据传输的有效性, 可借助于不同的传输模块完成操作, 所建立模型的结构:数据通信模块、数据转换模块两部分构成。数据通信模块采用JWMQ消息中间件, 这样可以免数据传输阶段发生安全问题, 维持了数据传输流程的稳定性。

对于数据交换系统的操作, 其它子系统的操作系统、网络协议和数据库不尽相同, 这就需要根据实际情况控制传输模块功能。这种通信服务平台的形式多种多样, 用户可按照数据端口的连接方式适当调整, 从而加快数据传输平台效率的提升。从此次研究情况看, 该模型的通信模块配备了专业使用的安全接口, 而消息中间件在连接异构分布式系统中的运用优势明显, 从多个方面为数据交换系统的操控提供了方便。

四、结语

总之, 新时期国家投资铁路工程建设之后, 对数据传输机制的研究更加深入, 其所建立的自动化数据处理平台是调控信息的关键。为了避免数据传输阶段发生故障问题, 技术人员要采用多功能的应急平台, 对现有数据实施自动化调控, 从而确保数据的点对点传输。

参考文献

[1]唐堃, 孙健, 陈光伟.中间件技术在客票系统中的实现及应用[J].中国铁道科学, 2004 (613) :103-108.

[2]陆海州.铁路应急平台框架体系研究[J].中国铁路, 2007 (6) :90-91.

[3]谢清援, 张富春.建立电务管理新模式, 适应局管站段新要求[J].铁道通信信号, 2005 (12) :24-25.

数据传输机制 篇2

为了简单化,本文给出的虚拟化平台以VMware ESX为例。除了最后一个步骤:确定合适的部署方法外,以下过程对微软Hyper-V、Virtual Iron及其他虚拟化平台来说都一样。

我应当对哪些应用程序进行虚拟化处理?

利用当前的虚拟化技术,几乎可以对所有应用程序进行虚拟化处理。你只要选定一组合理的应用程序,然后汇集下列信息即可:

1、 确认所选择的应用程序在负荷状态下具有的特点。

描述这些应用程序在最大预期负荷下具有的特点绝对很重要;否则你部署了虚拟基础架构后,就会开始遇到资源突然用完的情况。

总的内存占用空间

某应用程序在峰值负荷下占用多少内存?如果该应用程序“泄漏”内存(即使在恒定的负荷下,内存占用空间也会变大),你就同样需要为此留出空间,

总的CPU占用率

峰值负荷下多少个CPU被使用、百分比是多少?你在进行测量时,千万不要忘了记下所使用的CPU的类型。

总的磁盘空间,包括下一预算周期之前为增长需要留出的磁盘空间

网络带宽占用率

某应用程序在峰值负荷下占用的网络带宽。记得要考虑到网络流量的进出两个方向。

作为输入和输出的存储网络吞吐量(SCSI、光纤通道、iSCSI和网络附加存储)

对于消息传送网络,你也应当这么考虑。

磁盘的读写

某应用程序在负荷状态下所需要的磁盘活动。可能还要描述其他磁盘负荷参数的特点,具体视应用程序而定。

内存总线占用率估计,即内存总线可用带宽-(总的I/O带宽)x 4

数据传输机制 篇3

【关键词】征信系统  数据质量  评价机制

一、建立征信系统数据质量评价机制的必要性和重要性

(一)有利于促进征信业的发展

目前,金融信用信息基础数据库(简称征信系统)是我国重要的金融基础设施之一,采集近10亿企业和个人的信用信息,已经成为世界上规模最大的数据库。它由中国人民银行征信中心运营和维护,接入金融机构、小额贷款公司、融资性担保公司、汽车金融公司等多种类型的机构。通过开展征信系统数据质量工作评价,有利于全面、系统、客观公正地反映和评价接入机构征信系统数据质量工作的成效,塑造金融业良好形象,促进征信业发展。

(二)有利于提高征信系统数据质量

通过开展征信系统数据质量工作评价,对接入机构及其工作人员进行激励约束,从而督促接入机构重视征信系统数据质量工作,建立提升征信系统数据质量的长效机制,提高接入机构报送征信系统数据的及时性、准确性、完整性,从而促进征信系统数据质量不断提升。

(三)有助于提升征信工作人员的积极性

在我国征信系统数据质量工作激励约束机制中,除了制度法规约束外,运用金融经济学中的“补偿原则”,引入利益分配和补偿机制,使征信系统数据质量卓有成效的机构有一定程度的获益,提高数据质量工作的主动性和创造性,为做好数据质量工作提供内在的、强大的、持久的动力。

(四)有利于减少异议或诉讼的发生

随着信用信息主体维权意识的逐步增强,信用信息主体申请征信异议或投诉的数量呈现出增长的势头。据调查,接入机构数据报送错误是引起异议或诉讼的主要原因。因此,提高信用信息的完整性、及时性和准确性,有利于减少征信异议或诉讼的发生。

二、征信系统数据质量工作现状和存在的主要问题

(一)征信系统数据质量工作重视程度不高

征信系统防范信用风险、促进信贷市场发展有着重要的意义。然后,存在一些接入机构对征信工作重视程度不高、相关制度落实不到位的情况,影响了征信系统的数据质量。

(二)对征信系统数据质量的认可度不高

根据信用信息基础数据库运行情况问卷调查显示,接入机构对数据质量的认可度较低,主要由于一些接入机构上报信用信息不真实,录入不够准确,更新不够及时等原因,导致征信系统中不能真实、全面反映个人和企业的信用情况。

(三)征信系统数据质量专业人才缺乏

由于我国征信体系建设起步较晚,高等教育也就这几年才有征信人才的培养,在全国看来,建设征信体系人才缺乏已是不争的事实。尤其是一些小额贷款公司、融资性担保公司等小型机构,征信工作的专业人才缺乏,缺少对数据质量工作的责任心,对从而影响了征信信息准确性、完整性、及时性。

(四)征信系统数据质量评价机制有待健全

目前,主要针对征信系统量化考评等个别专项工作进行激励约束,缺少对征信数据质量工作全面的评价机制。同时,征信系统数据质量的相关规章制度总体重处罚轻激励,对数据质量工作积极配合、努力尽职的机构或个人缺乏激励机制和成本补偿机制,不利于征信数据质量工作的开展。

三、征信系统数据质量评价方案设计

(一)评价原则

1.科学性。设计征信系统数据质量工作评价指标体系时,以征信系统数据质量相关制度要求、征信系统数据质量应达到的目标、开展征信系统数据质量工作等方面为指导。设计评价指标体系力求在基本概念和逻辑结构上严谨、合理,抓住征信系统数据质量工作的实质,并具有针对性。另外,采用定性、定量的相结合方法,将征信系统数据质量抽象的内容具体化。

2.可操作性。可操作性,也就是可行性和实用性,指征信系统数据质量评价指标内容客观明确,指标简化、方法简便,信息及数据易于采集且准确可靠。

3.引导性。评价指标要能引导被评价对象的行为。合理、可行的征信系统数据质量工作评价指标体系必须能对接入机构及其工作人员的行为起到一定的引导作用,接入机构及其工作人员不仅仅为了评价而评价,评价只是手段,它的最终目的应该是保证目标的实现,因此,评价指标应具有灵活、动态和全方位的特点,以此引导被评价者与组织目标保持一致。

(二)评价指标及内容

征信系统数据质量评价工作分为对接入机构征信系统数据质量评价和对接入机构征信系统数据质量工作人员评价。本文中指标体系设计的思路是根据征信系统数据质量工作内容、性质、目标要求以及完成这些工作所具备的条件等进行研究和分析,确定评价的各项要素。本文在认真分析研究影响征信系统数据质量的各种因素的基础上,建立评价指标体系。

1.接入机构征信系统数据质量工作评价内容包括三个方面:征信系统数据质量考评情况、数据质量日常监测情况和对征信中心数据质量工作配合支持情况。其中,征信系统数据质量考评情况包括评价接入机构征信系统数据的完整性、及时性、准确性。数据质量日常监测情况主要评价接入机构征信系统数据上报和加载、补报和纠改情况。对征信中心征信系统数据质量工作机制具体包括接入机构征信工作牵头部门及人员配备情况,内控制度情况,会议培训情况,工作创新情况和投诉、诉讼情况等方面。若接入机构发生征信系统数据丢失、向未经信贷征信主管部门批准建立或变相建立的信用数据库提供信用信息等对征信系统有较大负面影响的事件,则实行一票否决。

2.对于接入机构征信系统数据质量工作人员的评价以其所属接入机构质量评价结果和接入机构工作人员数据质量工作情况两方面进行考评。根据接入机构数据质量评价情况的评价得分,作为接入机构征信系统工作人员评价得分的一部分。接入机构工作人员数据质量工作情况主要评价工作人员征信系统数据日常工作、数据质量提升工作以及征信制度业务学习情况、征信系统数据质量理论研究情况工作创新情况等。若工作人员所在部门或本岗位发生数据丢失、泄密、违规查询信用报告等对征信系统有较大负面影响的事件,则实行一票否决。

(三)评价的结果划分

根据评价结果将接入机构征信系统数据质量划分为A、B、C、D四个等级。其中A级指该机构征信系统数据的完整性、准确性和及时性好,能很好的开展数据质量工作,并对征信中心数据质量工作配合力度高。B级指该机构征信系统数据的完整性、准确性和及时性较好,能较好的开展数据质量工作,并对征信中心数据质量工作配合力度较高。C级指该机构征信系统数据的完整性、准确性和及时性不高,能开展数据质量工作,但效果不明显,并对征信中心数据质量工作配合力度较低。D级指该机构征信系统数据的完整性、准确性和及时性差,数据质量工作开展较差,并对征信中心数据质量工作配合力度。同上,根据评价结果将接入机构数据质量工作人员评价成绩划分为优秀、良好、一般、较差四个等级。

(四)评价的程序

1.评价数据的采集。定量指标数据来源于征信数据量化评分、两端数据核对、征信数据日常上报、更新、纠改。定性指标根据各接入机构数据质量工作开展情况等。

2.计算各指标得分。定量分析跟据专家打分法确定权重,按照层次分析法计算出分值;定性分析按照事先制定好的接入机构评价内容及指标表进行打分。

3.综合指标得分。将定量指标与对应的权重相乘,并与定性指标得分进行加总,即得到接入机构征信数据质量工作最终得分。

4.在接入机构征信数据质量工作评价结束后,将评价结果作为对征信数据质量工作人员评价的一项重要指标。对征信数据质量工作人员评价比照接入机构征信数据质量工作评价进行。

5.评价的流程。(1)成立征信中心征信系统数据质量评价办公室(以下称评价办公室),并在各分中心成立评价小组(以下称评价小组)。全国性接入机构由评价办公室负责评价,地方性接入机构由评价办公室委托评价小组评价。

(2)评价工作开始前,由评价办公室启动评价工作,如图1所示。评价办公室制定评价计划,下发数据质量工作评价标准。接入机构报送评价对象的征信系统数据质量工作情况自查报告和自查表,并说明理由。其中全国性接入机构将材料报评价办公室,地方性接入机构将材料报当地评价小组。评价办公室和评价小组根据接入机构报送资料及掌握的相关资料进行打分。

(3)评价小组汇总各类得分,计算最终得分,并进行初步等级判定,将本地区评价结果报评价办公室审批。

(4)评价办公室汇总评价结果,将初评结果发送至各接入机构。

(5)被评价对象收到评价结果后,如有异议,可以在5个工作日内将申诉意见反馈至评价办公室或当地评价小组。评价办公室或当地评价小组收到申诉意见后5个工作日内,应给予答复。

(6)评价办公室以正式文件形式下发被评价对象的征信系统数据质量工作的评价结果。

四、建立健全征信系统数据质量评价机制的措施

(一)提高对征信系统数据质量工作重要性的认识

“征信系统数据质量是征信系统的生命线。”做好征信系统数据质量工作是落实科学发展观,坚持以人为本的根本要求;保障征信业健康发展,维护金融稳定的客观需要;塑造金融业良好形象,维护正常金融秩序的有效举措;促进社会公平正义,建设和谐社会的重要内容。因此,接入机构提高对征信系统数据质量工作重要性的认识,积极主动做好征信系统数据质量工作。

(二)加强对征信系统数据质量评价机制的宣传

目前执行的征信系统数据质量方面的文件都强调了接入机构征信系统数据质量工作的职责义务,却没有涉及激励机制问题。因此,在推行征信系统数据质量评价机制中,应加强宣传,使接入机构及其工作人员了解征信系统数据质量激励及约束机制的目的、内容等,促使接入机构认真履行征信系统数据质量工作义务,并使征信系统数据质量卓有成效的机构有一定程度的获益,提高数据质量工作的积极性。

(三)明确征信系统数据质量评价工作的程序

建议征信中心制定征信系统数据质量评价工作的方案,并明确征信系统数据质量评价工作的程序。围绕个征信系统数据质量评价的制度规范、工作流程、方式方法等内容,组织对分中心及接入机构工作人员开展培训。为了确保评价工作顺利,可以根据量化考评掌握接入机构的数据质量情况,在全国部分分中心选择不同机构类型、数据质量在不同层次的接入机构开展征信系统数据质量评价试点工作,对发现的问题进行研究分析和解决,总结试点地区进行征信系统数据质量评价的工作做法和先进经验,并在全国推广。

参考文献

[1]胡燕.商业银行征信监管影响因素探析——基于《征信业管理条例》的视角[J].征信,2013,(12):23-27.

[2]刘霏.完善商业银行员工激励的对策研究[M].企业导报,2011,(7):206-207.

[3]孙艳丽.完善我国国有商业银行绩效考核机制的思考[J].科学之友,2011,(1).111-112.

数据传输机制 篇4

(1) IP协议概述。

网际协议或互联网协议 (Internet Protocol, IP) 是用于报文交换网络的一种面向数据的协议, 是网络层通信的标准协议, 它负责提供基本的数据封包传送功能, 让每一块数据包都能够到达目的主机, 但不检查是否被正确接收。与IP协议配套使用的还有四个协议:地址解析协议ARP、逆地址解析协议RARP、网际控制报文协议ICMP、网际组管理协议IGMP。

(2) 虚拟互连网络中IP数据报的传输。

如一个互联网中的源主机要把一个IP数据报发送给目的主机。根据分组交换的存储转发的概念, 源主机先要查找自己的路由表, 看目的主机是否就在本网络上。如果是, 则不需要经过任何路由器而是直接交付, 任务就完成了。如果不是, 则必须把IP数据报发送给某个路由器A。A在查找了自己的路由表后, 知道应当把数据报转发给路由器B进行间接交付。这样一直转发下去, 最后由路由器C知道自己是和目的主机连接在同一个网络上, 不需要再使用别的路由器转发了, 于是就把数据报直接交付给目的主机。而各个网络之间可以是异构的。

(3) IP地址。

IP地址是为每个网络连接 (网卡) 分配一个在全世界范围内惟一的标识。报文头中的源IP地址、宿IP地址分别表示源主机、目的主机的IP逻辑地址。

IP地址长度为32比特, 由网络号、主机号组成, 常用的IP地址有A类、B类、C类地址, 路由器就根据IP地址进行寻址。

现在的国际互联网普遍的采用了IP协议。而现在正在网络中运行的IP协议是IPv4;IPv6 为IPv4的后续的一个版本。互联网现在正慢慢的耗尽IP地址, 而IPv6的出现解决了这个问题, 与IPv4的32位的地址相比较而言, IPv6拥有128位的地址空间可以提供比前者多很多的地址。

(4) IP层转发分组。

在TCP/IP系统中, 选路是指在网络中选择一条用于传送IP数据包路径的过程。路由器是承担选路任务的网络设备。用于决策选路的信息称为IP选路信息。路由器使用IP选路信息, 对所传输的IP数据包进行IP转发。

由于Internet是由许多不同的物理网络连接而成的, 加入Internet的计算机在与其他入网计算机通信时, 发送信息的源计算机可能与接收信息的目的计算机在同一个物理网络中;也可能不在同一个物理网络 (如以太网) 中。IP数据包在从源计算机发送到网络上后, 根据上述两种不同情况, 被传递到目的计算机时也有两种方式:直接交付和间接交付。

①直接交付:

IP数据包被直接交付时不需要经过路由器。因为在运行TCP/IP协议的以太网中, 入网的计算机TCP/IP协议族的ARP协议软件, 会帮助查询到本物理网络中其他计算机的MAC地址, 使IP数据包可以直接从源计算机传递到目的计算机。

②间接交付:

当送出IP数据包的源计算机与接收数据包的目的计算机不在同一个物理网络时, 就需要借助跨接不同物理网络的路由器实现间接交付。特别是当源计算机与目的计算机被多个物理网络隔开, 且它们之间可能有多条信息传输路径时, IP数据包的间接交付不但需要借助多台路由器, 还有一个选择最佳路径的问题。

2 路由选择协议

2.1 路由原理

当IP子网中的一台主机发送IP分组给同一IP子网的另一台主机时, 它将直接把IP分组送到网络上, 对方就能收到。而要送给不同IP于网上的主机时, 它要选择一个能到达目的子网上的路由器, 把IP分组送给该路由器, 由路由器负责把IP分组送到目的地。

路由动作包括两项基本内容:寻径和转发。寻径即判定到达目的地的最佳路径, 由路由选择算法来实现。路由选择算法将收集到的不同信息填入路由表中, 根据路由表可将目的网络与下一站 (nexthop) 的关系告诉路由器。路由器间互通信息进行路由更新, 更新维护路由表使之正确反映网络的拓扑变化, 并由路由器根据量度来决定最佳路径。这就是路由选择协议 (routing protocol) , 例如路由信息协议 (RIP) 、开放式最短路径优先协议 (OSPF) 和边界网关协议 (BGP) 等。

转发即沿寻径好的最佳路径传送信息分组。路由器首先在路由表中查找, 判明是否知道如何将分组发送到下一个站点, 如果路由器不知道如何发送分组, 通常将该分组丢弃;否则就根据路由表的相应表项将分组发送到下一个站点, 如果目的网络直接与路由器相连, 路由器就把分组直接送到相应的端口上。这就是路由转发协议 (routed protocol) 。

2.2 路由协议

典型的路由选择协议有静态路由选择策略与动态路由选择策略。静态路由选择的特点是简单和开销小, 但不能及时适应网络状态的变化。对于很简单的小网络, 完全可以采用静态路由选择, 用人工配置每一条路由。动态路由选择的特点是能较好地适应网络状态的变化, 但实现起来较为复杂, 开销也比较大, 因此, 动态路由选择适用于较复杂的大网络。

根据是否在一个自治域内部使用, 动态路由协议分为内部网关协议 (IGP) 和外部网关协议 (EGP) 。自治域内部采用的路由选择协议称为内部网关协议, 常用的有RIP、OSPF;外部网关协议主要用于多个自治域之间的路由选择, 常用的是BGP和BGP-4。

(1) RIP协议。

RIP协议最初是为Xerox网络系统的Xerox parc通用协议而设计的, 是Internet中常用的路由协议。RIP采用距离向量算法, 所以也称为距离向量协议。路由器收集所有可到达目的地的不同路径, 并且保存有关到达每个目的地的最少站点数的路径信息, 除到达目的地的最佳路径外, 任何其它信息均予以丢弃。同时路由器也把所收集的路由信息用RIP协议通知相邻的其它路由器。这样, 正确的路由信息逐渐扩散到了全网。

RIP使用非常广泛, 它简单、可靠, 便于配置。但是RIP只适用于小型的同构网络。而且RIP每隔30s一次的路由信息广播也是造成网络的广播风暴的重要原因之一。此外, 它还有慢收敛的问题, 即好消息传播快, 坏消息传播慢。

(2) OSPF协议。

20世纪80年代中期, RIP已不能适应大规模异构网络的互连, OSPF随之产生。它是网间工程任务组织 (1ETF) 的内部网关协议工作组为IP网络而开发的一种路由协议。

OSPF是一种基于链路状态的路由协议, 需要每个路由器向其同一管理域的所有其它路由器发送链路状态广播信息。在OSPF的链路状态广播中包括所有接口信息、所有的量度和其它一些变量。利用OSPF的路由器首先必须收集有关的链路状态信息, 并根据一定的算法计算出到每个节点的最短路径。

(3) BGP协议。

BGP是为TCP/IP互联网设计的外部网关协议, 用于多个自治域之间。它既不是基于纯粹的链路状态算法, 也不是基于纯粹的距离向量算法。它的主要功能是与其它自治域的BGP交换网络可达信息。各个自治域可以运行不同的内部网关协议。BGP更新信息包括网络号/自治域路径的成对信息。自治域路径包括到达某个特定网络须经过的自治域串, 这些更新信息通过TCP传送出去, 以保证传输的可靠性。

2.3 新一代路由器

由于多媒体等应用在网络中的发展, 以及ATM、快速以太网等新技术的不断采用, 网络的带宽与速率飞速提高, 传统的路由器已不能满足人们对路由器的性能要求。

新一代路由器使用转发缓存来简化分组的转发操作。在快速转发过程中, 只需对一组具有相同目的地址和源地址的分组的前几个分组进行传统的路由转发处理, 并把成功转发的分组的目的地址、源地址和下一网关地址放入转发缓存中。当其后的分组要进行转发时, 应先查看转发缓存, 如果该分组的目的地址和源地址与转发缓存中的匹配, 则直接根据转发缓存中的下一网关地址进行转发, 而无须经过传统的复杂操作, 大大减轻了路由器的负担, 达到了提高路由器吞吐量的目标。

参考文献

[1]谢希仁.计算机网络 (第5版) [M].北京:电子工业出版社, 2008.

数据传输机制 篇5

关键词:故事;叙事传输;态度改变;影响机制

分类号:B8421

引言

一直以来,“态度改变”都是营销、广告以及社会心理学领域关注的热点问题,研究者们关心的是个体态度改变背后的心理机制。近些年来,随着媒体形式发展的多样化,电影、电视剧中的植入广告开始大量涌现并且呈现出传统广告所不具备的独特优势。事实上,这一类传播载体与小说、报纸故事、电视剧等有着共同的特点,即叙事性。叙事最突出的特征就是故事性。故事是我们认识和理解周围世界的一种方式,它可以使人沉浸其中,忘记周围的世界,引起人们态度的改变 (严进, 杨珊珊,2013)。而故事正是通过叙事传输对人们的态度产生影响。如今,这一影响机制受到越来越多研究者的关注。

2叙事传输的概念解读

2.1叙事传输的内涵界定

传输这个术语最早是Gerrig (1993) 在研究叙事体验时提出的,随后Green和Brock以此为基础对叙事传输的概念作出了清晰的界定。他们认为叙事传输是一种机制,这种机制很好地解释了个体是如何通过注意、感觉和意象的融合沉浸在叙事当中的 (Green, Brock, & Kaufman, 2004)。通俗地讲,人们在阅读小说或故事的时候会“进入到”叙事世界中,当个体回到现实情境中,形成的信念或态度却保留了下来,这种态度改变机制就是叙事传输。可见,叙事传输是一个比较独特的心理过程。有的研究者认为,叙事传输是一种个体与叙事相互作用时所使用的视觉心理表象 (MacInnis & Price, 1987; Wyer, Hung, & Jiang, 2008),在这个过程中个体的想象、认知与情感都聚焦在叙述的事件上从而产生了强烈的现实感。被传输的个体会将叙事当作参照系 (Strange, 2002),从原本的世界跳入到叙事世界中 (Green & Brock,2000)。

2.2叙事传输的特点

个体阅读小说、观看电影的过程中会产生叙事传输,此时个体的注意力与认知资源都聚焦在叙述的事件上 (严进, 杨珊珊,2013)。一般来说,叙事传输表现出以下三个特点:

(1) 脱离现实世界。进入传输状态的个体会暂时脱离自己身处的现实世界,全身心地投入到故事里去。从物理层面来讲,被传输的个体会对周围发生的事情丧失敏感,比如注意不到周围发生了什么变化;而从心理层面来讲,被传输的个体不能够察觉到现实世界与叙事世界的差别。

(2) 产生情绪波动。Green (2008) 认为被传输的个体尽管知道那仅仅是故事,但是还是会因为主人公的经历和遭遇而产生较大的情绪波动。Gerrig (1993) 发现,传输中的个体甚至会主动去构建和预设故事的发展,比如思考一个情节的变动会引起整个故事如何改变等问题。

(3) 保留与故事相一致的态度。当个体经历过传输回到现实世界当中,故事中的某些状态会延续 (Green,2000),即个体倾向于保留与故事描述一致的态度。

3叙事传输的影响机制

3.1叙事传输过程

3.1.1叙事能够形成意义表征

叙事最突出的特征就是故事性,故事自身有一定的结构。故事情节具备时间顺序与逻辑关系 (Bruner,1986),能够表现出叙事的延续性,即故事是如何起因的,如何发展的,经历了什么以及是如何结局的。逻辑关系又可以体现出因果关系。这两大要素将零碎的信息整合起来从而形成了有意义的表征。

3.1.2独特的信息加工方式

叙事加工是一种不同于传统信息加工方式的信息处理方式。Bruner (1986) 指出在叙事加工之下,个体加工信息如同是创造故事。在叙事传输情况下,故事以信息流的方式呈现,个体会将注意力放在故事上,而且这个过程是注意力聚合的过程。当个体沉浸在故事中的时候,会产生类似心流的体验,这是一个自动化的过程,而且可以带来愉悦感 (严进, 杨珊珊, 2013)。在传输下,个体完全投入到故事中,因此会更容易接受故事所传达的观念和态度。传输通过降低被传输者的负面认知而减少其质疑与反驳。当涉及到决策时,个体往往会将自己当作主角,通过对故事的体验和认同作出决策。另外,在叙事加工下,个体对于逻辑关系的判断是基于故事的时间顺序。这意味着时间顺序会让个体作出因果关系推断,尽管故事本事的因果逻辑有可能并不正确 (严进, 杨珊珊, 2013)。

总的来说,叙事加工下个体自动地几乎不耗费意志努力地沉浸于故事中并获得故事体验,并对故事传达的信息产生认同。这种独特的信息加工方式是叙事传输影响个体态度的重要影响机制。

3.2叙事传输结果

3.2.1带来愉悦体验

Green (2004) 发现,叙事传输能够给个体带来愉悦感。他认为个体全身心地投入到故事中会获得故事中愉悦的体验。那些正面的积极的信息往往就是这样感染个体的,而且传输还会不断加强这种积极的情绪。这一理论很好地解释了为什么个体愿意在影音媒介中花费大量的时间,比如反复看某一部电影或小说。

3.2.2态度改变

普遍认为,被传输的个体倾向于保留与故事相一致的态度 (Green & Brock, 2000)。Escalas (2004) 在研究产品广告的时候发现,经历叙事传输的个体会增加品牌评价,而且叙事传输能够增强客户的购买意愿。在改变态度方面,有实证研究表明叙事传输是通过降低个体的负面认知并促进个体产生积极情绪来改变态度的 (杨珊珊, 2014)。

3.2.3行为变化

故事中包含的信息在叙事传输中能够很好地传递给受众,研究者明确指出了叙事传输对教育行为的意义 (Slater,2002 )。Dan R. Johnson的研究发现,传输能够提高个体的共情与亲社会行为。

4叙事传输的测量

Green (2000) 指出叙事传输的结果很大程度上是以故事内容为基础的态度和信念的转变,他们在Gerrig研究的基础上进一步编制了包含15个题项的传输量表以达到量化叙述传输结果的目的。量表主要考察了情感、认知和视觉想象三个维度。后来的研究者根据不同的研究目的编制了不同的传输量表,如Escalas (2004) 在研究消费行为时编制了包含3个题项的简易传输量表。Busselle等人 (2009) 则编制了内涵更为丰富的叙事经历量表。该量表被认为覆盖的范围更为广泛,它包含四个维度,分别是叙事理解、注意力集中、情绪经历和叙事呈现。

5叙事传输的影响因素

叙事传输作为故事改变态度的机制自提出便得到了很多研究者的重视和研究。故事并不总是能够带来良好的传输效果,因为叙述传输受到很多因素的影响,回顾相关文献,我们发现叙事传输的影响因素大致有以下几个方面:

(1) 个体差异

研究证明个体对场景的熟悉程度、与故事有关的知识与经历、与故事主角的相似度以及调节点匹配等存在于个体身上的差异都影响着叙事传输的效果 (Green,2004; Vaughn, Hesse, Petkova, & Trudeau, 2009)。姚卿等人 (2011) 则指出自我构念是影响传输的重要因素。个体的信念、个性特征、认知模式等方面的因素对传输也有影响,除此之外,个体的想象能力也会对传输程度产生影响,Green (2008) 指出与低想象能力被影视传输的程度大于高想象能力的个体。高想象能力的个体在阅读文本材料的时候比低想象能力的个体被传输程度大,这是因为文本能够给个体提供广阔的想象空间。

(2) 故事的质量

Escalas (2007) 指出结构不良的叙事明显降低了叙事传输的程度。结构不良的叙事表现为时间顺序混乱和逻辑不清晰。当故事的情节趋向于惊险或浪漫时往往会带来较好的传输效果 (Green&Brock, 2000),故事情节不清晰或与现实相矛盾都会影响传输效果。用文字材料作为载体时,文本的清晰程度,语句是否通顺,情节是否合乎逻辑,这些因素也会影响传输效果。

(3) 其他因素

Kaufman (2004) 认为文字材料的传输效果更好,因为个体可以自行控制阅读速度,有利于其充分展开想象。Gerrig (1993) 则认为电影能够使观众的注意力集中,可以带来很高的传输程度。Vaughn (2007) 指出,若故事能够带来个体加工信息所需的流畅感,那么传输程度会很好。Green (2008) 还发现,个体是否重复接触阅读材料也对传输程度有所影响。

6研究展望

大量研究都证实了叙事传输能够改变个体的态度,但是对于影响叙事传输因素的研究并不充分。比如,个体认知因素对叙事传输的效果是否有影响?比如,对于如何提高传输能力或控制被传输的程度,我们尚且不清楚,这些都需要相应的理论与实证研究来发现与验证。

另外,值得关注与研究的问题还有叙事传输效果与媒体形式的关系。信息传播依靠载体,不同的载体带给个体的感受是不同的,比如文字材料与视觉影像材料的传输效果就有所不同。随着新生载体的不断涌现,对不同载体传输效果的研究以及如何运用它们说服客户就颇具现实意义。

数据传输机制 篇6

1.1 背景

部分信息化建设较早的总分结构的大型企业存在这样一种情况, 系统分散部署在各分支机构。近年来, 随着企业业务及信息化发展, 绝大部分新系统上线之初就以集中形式建设, 老的分散系统则逐步开始进行大集中。这个过程中, 不可避免的出现了集中系统与分散系统交互的情况, 消息机制无疑是处理这类交互较好的一种方式。

1.2 研究思路

以某公司实施的集中系统与分散系统数据传输项目为案例, 介绍了初始设计时采用的技术思路, 经试运行, 总结过程中产生的问题, 提出了解决方案并付诸实践, 对数据传输压力和改进效果进行对比分析。

2 参考文献

2.1 消息

消息有异步和同步之分。同步指客户发出调用后, 必须等待服务对象完成处理并返回结果后才能继续执行;异步指客户发出调用后即可返回, 待对端完成处理后, 再返回结果。在现实系统中, 异步消息机制得到了广泛应用, 出现了消息中间件MOM (Message-Oriented Middleware) , 它的主要机制是:消息发送者将消息发送给消息服务器, 消息服务器将消息存放在消息队列中, 在合适的时候将消息发送给接收者, 发送和接收是异步的。

2.2 JMS

JMS (JAVA Message Service) 是J2EE平台中消息处理标准, 是一个与具体平台无关的API, 绝大多数MOM提供商都对JMS提供支持, 包括IBM Web Sphere MQ、Oracle Web Logic Server、Apache Active MQ等。它包含了点对点 (Point to Point) 和发布订阅 (Publisher/Subscriber) 两种消息模型, 提供可靠消息传输、事务和消息过滤等机制。

2.3 MDB

MDB (Message-Driven Bean) , 即消息驱动bean, 是在EJB容器中消费和处理异步JMS消息, 这样可以把一些任务抽象出来交给容器提供的基础功能去完成。MDB消息处理模式, 极大简化消息监听、消息处理逻辑, 提高消息处理效率, 并实现自由配置消费者的大小, 合理使用资源, 当初始消费者较少时, 根据业务繁忙情况, 容器自动创建消费者实例, 增加服务处理能力, 当服务压力较小时, 可释放一定的消费者, 减少资源使用。

3 某公司数据传输方案

3.1 系统体系结构

A系统为全国集中的渠道类系统, 公司很多核心应用分散部署在分公司, 为保证A系统数据的正常后处理, 需开发一套数据传输系统用于总分公司数据交互, 保证后续业务的顺利进行, 同时保障总分公司相关数据一致性。

3.2 消息处理机制设计

(1) 在总公司和分公司各部署相应数据传输应用。

(2) 采用多线程后台运行模式, 总公司与分公司分别有三个线程处理三个队列消息, 每个线程负责一个队列消息的处理, 即每个线程启动一个服务窗口显示消息的处理情况。

(3) 总公司三个队列集中处理全国各地的消息。

4 问题及分析

4.1 问题

(1) 资源管理机制不完善, 无法有效监控资源利用情况。

一是每个线程需要的资源比如:系统内存大小、线程总数大小及需要加载的服务启动jar包都需单独配置, 资源利用不合理。

二是通过单独线程启动服务, 无法方便的监控服务运行情况, 包含数据源的使用情况, 服务线程使用情况, 消息队列的使用情况等。

(2) 可靠性差, 个别地区的消息堵塞影响全国数据交互

总公司三个线程集中处理全国消息, 在初期业务量较小的情况下还适用, 随着业务量快速增长该模式已经无法保障消息正常收发。每天下午4点到6点各分公司上收消息量达30000条/小时;同时, 总分数据传输不稳定的现象也时有出现, 原因包括总分广域网网络异常, 分公司数据传输设备异常, 分公司数据传输应用异常等等。一旦消息出现堆积, 蝴蝶效应会立刻将影响放大到各分公司。

4.2 解决方案设计及效果

为有效解决以上问题, 拟实施以下几点改进方案。

4.2.1 整合服务到MDB

采用MDB处理模式后, 相关资源的分配管理由容器实现, 对数据库的访问也可以直接使用JDBC方式进行访问, 实现了资源的有效管理配置;另外, 可以通过中间件控制台可视化监控服务器运行情况, 及时发现问题以便采取措施。

4.2.2 采用集群部署

为保障数据传输系统的稳定性, 总公司采用集群部署方案, 以应对单节点出现异常的情况;采用集群部署, 在主管服务控制台上需要调整消息队列为分布式队列。

4.2.3 队列分区优化

为解决单一地市出现问题影响全国的情况, 梳理出经常出现网络问题的地市及出单量较大的地市有针对性的进行分区处理。分区简单理解为在总公司服务端将各分公司分成不同区, 对不同区采用不同的数据传输队列及服务, 进行负载均衡及分解风险。综合考虑到资源合理利用及负载、风险有效分担, 分解后共设有6个区。如表1所示。

4.2.4 错误队列优化

现有服务正常使用三个队列进行处理消息, 所有队列消息处理顺序都是先进先出, 因某个消息无法正常处理时不会被移走, 就会造成消息堵塞。为解决该问题, 在总公司端增加了错误队列, 并基于中间件采用了容错机制。

调整后总公司每个分区配置5个队列, 分别用于消息发送、接受以及容错。具体如表2所示。

错误队列使用机制。当正常队列无法把消息推送到目的地时, 需要将正常队列消息转移到错误队列, 以便下一个消息正常处理。转移到错误队列的消息等待与该分公司数据传输服务进行连接, 若连接成功, 则继续处理此队列上的消息。如图4-1所示。

经过以上调整, 对新近的数据传输效率进行了统计, 结果比较满意, 具体如下。

2014年1-4月数据传输单量、传输时间及数据传输一次成功率见下表, 共传输约1728千万笔, 平均每日约14万笔。如表3所示。

从以上数据可以看出, A、B类单平均在1.3秒内能够完成;D类单平均在2.5秒内能够完成;有99%以上的单子, 能够一次传输成功, 只有少部分单子因分公司数据库、网络等原因需要人工处理。

5 总结

本文简单介绍了消息传输技术, 基于某公司现状及数据传输需求, 设计了数据传输方案, 并针对试运行期间出现的问题进行一定深度的分析, 设计解决方案, 达到了一定的效果, 可以供同类项目参考。

参考文献

[1]徐计忠, 何明昕.基于JMS的金融支付系统的实现[J].计算机应用与软件, 2010.

[2]王俊松.基于JMS和Web服务的数据交换系统研究与实现[J].工业控制计算机, 2013.

数据传输机制 篇7

1 系统硬件结构

系统硬件部分主要由CCD探测器、驱动电路、FPGA图像数据处理电路、ARM嵌入式系统、电源电路及其他接口电路组成。系统结构图如图1所示。

CCD及驱动电路采集图像数据后, 在FPGA中对采集的数据进行校正、增强等处理, 形成对比度较好的灰度图像数据并缓存在FIFO中, 同时向ARM端发送一个图像数据准备好中断信号。ARM收到中断信号之后, 启动DMA传输, 将图像灰度数据读取到ARM嵌入式系统的存储器, 以便于送LCD显示或者做进一步处理。

2 FPGA与ARM之间的接口

FPGA形成20位地址总线, 分别连接在ARM处理器的A0-A20, 16位数据总线分别连接在ARM的D0-D15, 中断信号连接在ARM处理器的EINT1引脚, 片选信号连接在ARM处理器的n GCS1引脚, 读写信号分别与ARM相对应。

3 嵌入式系统中DAM及中断系统原理

DMA指在数据传送过程中, 不需要CPU的参与, 这种方式可以大大提高数据传输效率, DMA传输在实现的过程中, 往往会结合中断使用。通常, CPU初始化DMA控制器 (包括选择DMA通道, 数据传输的源地址、目的地址、传输字节数、传输模式) , 然后启动DMA开始传输, 这时CPU就空闲下来, 可以去处理其他事情。待DMA传输完成之后, DMA控制器会向CPU提出DMA结束中断, 这时, DMA再响应该中断, 将目标地址中的数据取走, 完成一次传输。

4 同步传输机制

系统上电之后, CCD采集一帧图像数据, 并通过EINT1向ARM发起数据准备好中断请求, 在一定时间之后, 采集第二帧图像数据 (图2左) 。用户空间的应用程序循环发起读命令, 但这时, 需要等待DMA传输结束才将数据从内核空间传递到用户空间。因此, 应用程序发起读命令之后就会阻塞, 直到数据准备好。此时, ARM检测到外部中断EINT1信号有效 (表示FPGA已经准备好一帧数据) , 内核启动DMA传输, 当传输结束之后, 向ARM发出DMA传输结束中断。这时, 应用程序的阻塞状态得到解除, 将内核空间的这一帧图像数据取走 (图2右) 。流程如图2所示:

可以看到, 每次用户空间的读命令, 都会取到一帧完整的图像数据, 否则, 程序就会等待 (或阻塞) , 直到一帧完整的数据复制到用户空间。

5 程序实现

我们在ARMlinux环境下构造DMA传输的字符驱动程序来实现了这一同步传输机制。 (图2左在FPGA中实现) 。部分代码 (关

键函数) 如下:

6 测试结果及结论

样机参数:CCD器件采用320*240面阵的ULS探测器, FPGA采用Xinlix的spartan3A, , S3C2440A处理器, 主频200MHz, 操作系统为armlinu x, 内核版本2.6.30, 交叉工具链为arm-linux-gcc3.4.1。数据采集后保存为BMP文件, 通过样机验证, 能准确实时传输图像数据, 未出现错位及错帧现象, 说明该同步传输方法是有效且可靠的。效果如图4所示。

摘要:在基于FPGA的数据采集过程中, 往往需要面对FPGA与ARM的DMA技术, 其中, FPGA在ARMLinux下的同步DMA数据传输是难点。本文在实际工作的过程中, 实现了FPGA的DMA驱动, 完成了图像数据的实时无误传输。

关键词:嵌入式,ARMLinux,DMA,同步传输

参考文献

[1] (美) 科波特.LINUX设备驱动程序[M].第三版.中国电力出版社, 2006.

[2]三星公司.S3C2440A数据手册[M].第一版.韩国:三星公司, 2004:8.1-8.14.

[3]宋宇.基于USB的DMA方式实现CCD高速数据采集[J].光电子.激光, 2004, (10) :37-40.

数据传输机制 篇8

关键词:数据备份,数据中心,备份策略

0 引言

进入21 世纪以来, 随着信息技术在金融业中广泛应用, 金融机构纷纷建立了自己的数据中心, 实现了数据大集中。从过去主要由服务器、网络设备、小容量存储等设备组成的运算中心, 到今天已经成为超容量、高可用、多并发的智慧中心。金融数据中心存放并管理着企业核心的金融业务数据, 包括:系统业务数据、交易痕迹数据、客户行为数据等等。这些数据涉及企业运营的方方面面, 是企业的核心信息资产。为保障企业信息资产的安全, 保障业务连续性, 金融数据中心必须对其所管理的数据进行高安全、多层次、快效率的份[1]。

数据备份是周期性地将整个信息系统的数据、运行状态以某种方式制作一个或多个拷贝, 并将其存放在专门的设备上用以保留, 以便在信息系统遭受破坏或数据丢失的情况下能够进行快速的数据恢复。其作为现代容灾管理的基础, 是保障数据完整性和一致性的最后一道防线。随着大数据时代的到来, 企业对数据的依赖性不断加强, 数据安全问题更加突出, 数据备份将在大数据时代发挥出越来越重要的作用[2,3,4]。

1 数据备份概述

数据备份是为了保证数据的一致性和完整性, 通过保存正在使用的数据, 生成数据的副本, 以备数据在遭到丢失或破坏时, 能够有效进行数据恢复。

1.1 数据备份的意义

在信息时代, 数据作为企业的重要资产, 其价值和重要性不言而喻。而数据在传输、存储、交换过程中面临着遭受损坏或丢失的各种风险, 如自然灾害、信息攻击、设备故障、误操作等等能。如果缺少数据备份措施, 数据的一致性和完整性就得不到保障, 就可能导致数据丢失或损坏的情况出现, 对企业产生无法弥补的损失, 甚至灾难性的后果[5,6]。

1.2 数据备份的原则

为保障数据备份的安全性、可靠性、一致性, 满足进行快速数据恢复的要求, 数据备份须满足以下原则:

1.2.1 全面性原则。是指数据备份需要做到对备份内容全面覆盖, 包括操作系统、数据库、应用程序、数据库、业务数据、交易日志等, 如果备份内容不完备、不全面, 就有可能导致在数据恢复时出现数据缺失, 功亏一篑, 无法达到完整恢复数据的效果。

1.2.2 容错性原则。是指数据备份的内容保存在不同介质上, 需要对备份介质进行保护并具备一定容错能力。如引入RIAD技术对磁带进行镜像, 就能更好地保证数据安全可靠, 相当于对备份数据增加了一把保险锁

1.2.3 高性能原则。由于业务的快速发展, 备份数据的量越来越多, 对于大型的系统每天备份的数据量都是TB级的。为减少数据备份对系统性能产生的影响, 一般要求数据备份要在限定的时间窗口内完成, 这就要求数据备份具备高性能的处理能力。

1.2.4 自动化原则。根据系统业务特点及运维要求, 不同系统的数据备份窗口各不相同, 多数情况下数据备份会选择在业务低峰时段进行, 不能完全依靠人工操作。因此需要数据备份具备自动化的处理能力, 能够自动定时执行, 自动记录执行过程日志, 并能在出现异常情况下自动报警。

1.3 数据备份的模式

数据备份对象及备份需求存在较大差异, 针对不同的数据对象及备份需求可采用不同的数据备份模式, 根据不同划分原则, 数据备份模式可分为以下几大类。

1.3.1 按备份数据的完整性划分, 可将备份数据划分为以下3 类:

(1) 全量备份。是指对应用系统连续产生的在某时间点的横截面的全量数据进行备份, 不依赖于数据的归档属性, 也称为完全备份。在备份在过程中, 任何现有的标记都被清除, 每个数据快都被标记为已备份, 也就是说清除存档属性。该备份方式的优点是恢复操作便捷、完整性强、可靠性高;其缺点是备份数据量大、备份时间长、备份期间数据容易变动、数据恢复时间长。

(2) 增量备份。是指对应用系统在上次备份之后所产生、更新的数据。在备份过程中, 只备份有标记的选中的数据块, 备份后标记数据块, 也就是说清除存档属性。该备份方式的优点是备份数据量少、占用空间少、单个备份或恢复时间短;其缺点是恢复操作复杂、数据完整性相对差, 一旦发现单个增量备份不能正常恢复, 整个系统的备份将受到影响。

(3) 差分备份。是指只备份在上一次完全备份后有变化的部分数据。在备份过程中, 只备份有标记的选中的数据块, 备份后不标记为已备份数据块, 也就是说不清除存档属性。该备份方式的优点是备份数据量少、占用空间少、单个备份或恢复时间短;其缺点是恢复操作复杂、备份及恢复技术要求较高。

在实际应用中, 金融行业对数据完整性、时效性、安全性要求较高, 一般在制定备份策略时会将3 种方式的结合使用。例如每周一至周六进行一次增量备份或差分备份, 每周日进行一次全量备份。

1.3.2 按备份数据的性质划分, 可将备份数据划分为以下2 类:

(1) 逻辑备份。是指对金融大数据 (如用户、数据表等) 利用工具进行导出保存。该备份策略的优点是能够实现对象级的数据备份, 易实现跨平台的数据迁移。其缺点是不能满足介质失效下的数据恢复, 仅能满足逻辑故障下的数据恢复。

(2) 物理备份。是指将物理文件进行转储保存, 需要恢复时可以利用这些文件进行还原。该备份策略的优点是备份和恢复迅速, 容易达到低维护、高安全的效果。其缺点是单独使用时只能提供到某一时点的恢复, 不能按具体数据对象进行恢复。

1.3.3 按备份时是否终止外服务划分, 可将备份数据划分为以下2 类:

(1) 冷备份。又称脱机完全备份, 在关机 (或停服务) 的状态下进行对备份对象进行完成的截面数据备份。该备份策略的优点是备份快速、安全且操作方法简便。其缺点是在备份过程中必须处于脱机状态, 对业务会造成一定的损失, 而且只能进行物理备份, 对存储介质造成空间浪费;恢复过程中只能进行完整数据恢复, 不能以小粒度进行恢复。

(2) 热备份。又称在线备份, 是在生产系统运行状态下直接进行数据备份。该备份策略的优点是能满足业务连续运行要求。其缺点是热备份会占用一定的系统资源, 一般需要选择业务低峰时段进行。

1.4 数据备份的策略

数据备份策略是指为满足数据备份需求, 制定的数据备份内容、数据备份时间、数据备份时长、数据备份方式。备份策略的好坏直接影响备份系统的投资成本、备份时效、恢复效率、安全性等。完整的备份策略需要满足以下基本要素[7,8,9]:

1.4.1 备份对象。指进行数据备份的数据内容, 数据存放的物理位置, 常见的数据备份对象有操作系统、数据库实例、数据库表、文件、磁盘等。

1.4.2 备份类型。指进行数据备份采用什么方式, 如按备份数据的完整性分全量备份、增量备份、差分备份, 按是否停机划分冷备份、热备份。

1.4.3 备份频率。指为满足备份需求执行数据备份的间隔。如:每天、每周、每4 小时等。

1.4.4 备份时间窗口。指执行备份操作可执行的时间范围, 规定了备份操作的最早开始时间、最迟结束时间。

1.4.5 备份保存时长。指为满足业务需求对备份文件保存的时长, 一般来说备份文件保存周期必须要大于备份执行周期。

1.4.6 备份存放。指备份结果文件存放的位置 (介质) , 例如:光盘、磁带、虚拟磁带库、数据库、文件系统、文件服务器、异地存放、云存放等。

2 数据备份内容

对于应用系统, 一个完整、有效的数据备份涉及多个方面和多个层级备份内容, 包括操作系统、数据库实例、物理磁盘 (存储) 、应用程序、数据库表、交易日志、非结构化数据文件等。操作系统备份、数据库实例备份、物理磁盘 (存储) 备份、应用程序备份、数据库表备份主要目标是实现系统故障恢复, 保障系统的业务连续性, 属于技术性需求的数据备份。数据库表备份、交易日志备份以及非结构化数据备份更多的是为了满足业务需求和监管部门要求, 属于业务性需求的数据备份。

2.1 基础软件备份

基础软件备份是对整个操作系统、文件系统、设备驱动程序、常用工具软件等进行备份, 主要用于实现对整个基础软件环境进行故障恢复, 主要通过自身提供的备份命令 (工具) 将系统数据备份至磁带、磁盘、光盘等外部介质上。

由于基础软件相对较稳定, 备份频率较低, 一般每季度备份一次即可, 另外在基础软件升级前后需要进行一次备份。

2.2 应用程序备份

应用程序备份是指对安装的应用程序、配置文件、用户数据等进行备份, 主要用于满足应用程序故障恢复、版本回退等运维需求。其实现机制主要是通过定时任务调用备份工具 (或脚本) , 对涉及到的应用程序、配置文件、用户数据进行备份。

因为业务发展的需要, 目前金融数据中心应用程序 (版本) 变更相对比较频繁, 其备份频率一般是每周一备, 以及在每次版本升级前进行一次备份。

2.3 物理存储备份

物理存储备份是指通过磁盘镜像、磁盘复制等方式实现对整个物理磁盘的数据备份, 主要满足磁盘级的数据保护和恢复。

磁盘镜像是指将两个磁盘接在同一个阵列卡上, 用一个阵列卡来管理两个磁盘的技术。当用户向服务器写数据时, 磁盘镜像技术就同时将数据写入两个磁盘中, 基本上满足数据实时备份, 一旦一个磁盘损坏, 便可从另一个磁盘上获得数据, 可维持系统的正常运行。

2.4 数据库备份

数据库备份是指对整个数据库实例进行备份, 用于保证整个数据库实例的数据一致性、完整性, 保障数据库在出现物理故障或逻辑故障情况下能够有效的进行恢复[10]。

数据库实例备份一般采取0 级备份和逻辑日志备份相结合的备份策略, 0 级备份实现对整个数据库的dbspace进行全备, 可用于将数据库完整地恢复到具体某个时间点所处的状态。逻辑日志记录了数据库每一步的具体操作, 基于前述的0 级备份, 再通过重做备份的逻辑日志的方式能够将数据库恢复到最近的一次操作所处的状态。0 级备份和逻辑日志备份的执行频率要视系统数据的重要性、数据库的大小、可用备份时间窗口而定。

对于重要业务系统, 一般采用每日进行一次数据库0 级备份, 每4 小时进行一次归档逻辑日志备份。

2.5 交易日志备份

交易日志备份是指对应用系统运行日志进行备份保存, 主要用于满足问题追踪分析、业务需求及监管审计要求等。应用系统时刻会产生应用日志以记录交易处理详细过程及重要的报错信息, 由于本地文件系统空间限制, 可保留的日志量有限, 因此对于某些重要的日志需要定期将其备份到外部介质上进行保存。为方便对历史日志查询, 一般是按日期每天进行一次备份。

2.6 业务数据备份

业务数据备份主要是针对应用系统在业务处理时产生的数据文件, 如:批量文件、文本文件、图像、声音、视频等非结构化数据文件进行备份。这些文件包含了重要的业务数据, 是保障业务连续性所需要的文件, 为满足业务需求及审计监管要求, 也需要定期对这些文件进行备份。其备份策略基本和交易日志备份相同。

3 数据备份不足

数据备份是日常系统运行维护工作中一项重要的基础工作, 目前在数据中心广泛应用, 但在具体的执行过程中还存在诸多问题和不足, 需要我们予以关注。

3.1 缺乏对数据恢复验证

数据恢复验证是为了检验数据备份是否有效, 及时发现在数据备份存中在的问题, 并促使进一步优化、完善数据备份策略。由于系统运维人员对数据恢复验证重视不足及缺少相应恢复验证环境, 目前普遍缺少数据恢复验证工作, 对于多数数据备份的有效性、一致性、全面性不得而知, 这就埋藏巨大的风险隐患。

对此, 建议金融数据中心应更加注重数据恢复验证, 通过制定相关的演练计划, 定期进行数据恢复验证, 测试备份介质的可用性, 备份数据的完整性及恢复所需的时间是否满足要求。

3.2 等级划分落实不够

根据《信息安全技术信息系统灾难恢复规范》规定, 信息系统等级是其灾备建设的重要考虑因素, 也就说明数据备份需要根据信息系统等级进行规划。《规范》将信息系统划分为6 级, 不同的等级对数据备份系统要求各不相同, 等级越高对于信息系统的保护效果越好, 但同时成本也会急剧上升。在《规范》中也指出了, 可以根据成本风险平衡原则 (即在灾难恢复资源的成本与风险可能造成的损失之间取得平衡) 来确定。应建立重要数据的定期数据备份机制, 至少每天进行一次完整的数据增量备份, 并将备份介质存放在安全区域内。应对关键数据进行同城和异地的实时备份, 保证业务应用能够实现实时切换[11]。应制定灾难恢复计划并定期进行测试, 确保各个恢复程序的正确性和计划整体的有效性。

业务数据备份主要了满足业务需要、监管审计要求提出的, 在制定数据备份策略过程中往往缺少相关业务部门参与, 导致出现业务数据备份需求不明确, 备份策略不完备, 无法满足业务需求的情况。

3.3 安全要求存在缝隙

数据备份所涉及的数据均属于重要数据, 其中不乏涉及客户资金账号、个人身份信息等敏感数据。因此在制定数据备份策略时, 不仅要注重数据备份的完整性、有效性, 同时也应注重数据的安全性, 对于涉及敏感数据的备份应当采用必要的加密保护机制, 对于所使用备份介质也应当采取相应的安全保护措施, 防止信息泄露。

3.4 数据去重难于操作

数据去重是在数据备份前消除冗余数据以提高数据的存储和/或传输效率, 金融业务处理中重复数据难免, 备份大量的重复数据, 会消耗一定的存储和带宽, 导致资源浪费。随着数据急剧膨胀, 该问题日益突出。因此, 在保证数据备份的完整性的同时应当尽量减少重复数据的产生, 或者应将重复数据删除和数据压缩技术纳入整体的备份策略当中[12]。

4 结束语

数据备份是金融数据中心日常运行维护的基础工作, 是保障数据一致性、完整性的必要手段。当前, 数据备份在数据中心的运用已无处不在, 各种数据备份技术成熟度趋于成熟, 但由于缺少对各种备份方法理论方面的总结和介绍, 致使系统运维人员在面对五花八门数据备份时困惑重重。随着信息技术发展, 企业对数据的依赖性不断加强, 数据安全问题更加突出, 数据备份也将发挥出更大的作用。本文从理论角度出发, 对数据备份所涉及的基本内容、基础知识进行总结, 通过概述性的介绍帮助系统运维人员提高对数据备份的认识, 在日常工作中, 有效的做好数据备份, 提升信息系统运维能力, 防范运行风险。

参考文献

[1]Suguna, S.Overview of data backup and disaster recovery in cloud[C].Chennai:Information Communication and Embedded Systems (ICICES) , 2014 International Conference on, 2014.1-7.

[2]Xiaofang Zhang.Research on the Recovery Strategy of Incremental-Data-Based Continuous Data Protection[C].Hangzhou Computer Science and Electronics Engineering (ICCSEE) , 2012International Conference, 2012.498-502.

[3]Jayadevappa, B.A new risk analysis method for data backup strategy[C].Singapore:TENCON 2009-2009 IEEE Region 10 Conference.1-6.

[4]费振婷.银行系统在数据备份恢复上的研究[D], 上海:上海交通大学.2011.

[5]主流备份技术大观[P].中国计算机报, 2003年10月27日第H12版.

[6]李伟.银行研发中心数据备份方案解析[P].中国计算机报, 2006年8月28日第B08版.

[7]刘惠敏.数据备份策略分析[J].福建电脑, 2007, 8:70-71.

[8]张岩.数据仓库历史数据归档与重构的策略研究[D], 沈阳:东北大学.2005.

[9]朱红梅, 孙玉华.银行系统备份与恢复流程设计[J].数据存储.

[10]刘超, 张明安.基于Oracle数据库系统的备份与恢复技术研究[J].软件, 2014, 35 (3) :125-128

[11]吴卫国.西安市中心医院信息系统容灾备份方案设计[J].软件, 2012, 33 (12) :172-173

数据传输机制 篇9

在现代气象报文传输系统中数据库是关键部分,如站点信息、传输日志、要素数据等大量信息被存放在数据库多个表中。数据库实时支持着整个系统的正常运行,因而保证数据库中数据的正确性与完备性极为重要。但气象业务应用程序在操作数据库表内容时,数据的完整性可能遭到破坏,例如:无效的数据被追加到数据库中,如:某报文指定的站号并不存在;

将存在的数据修改成无效值,如:将风向字段值增加到360度以上;仅对数据库进行了不完善的修改,如:某站点增加了一份报文,但却没有调整站点收发报文的数量。

在数据库管理系统中,保证数据库中的数据完整性是非常重要的,维护数据的完整性仅靠外部报文传输应用程序来承担将使整个系统变的复杂而低效。充分利用SQL SERVER内部提供的约束技术机制来保持数据的完整性,将使问题变得简单而高效。

1 数据完整性介绍

1.1 数据完整性定义

SQL Server联机丛书中,将数据完整性解释如下:“存储在数据库中的所有数据值均正确的状态。如果数据库中存储有不正确的数据值,则该数据库称为已丧失数据完整性。”强制数据完整性可确保数据库中的数据质量。简单讲数据完整性,就是指存储在数据库中数据的一致性和正确性。约束定义关于列中允许值的规则,是强制完整性的标准机制。使用约束优先于使用触发器、规则和默认值。查询优化器也使用约束定义生成高性能的查询执行计划。

在SQL Server中,根据数据完整性措施所作用的数据库对象和范围不同,可以将数据完整性分为以下几种。实体完整性、域完整性、引用完整性、用户定义完整性。本文将重点介绍与实际业务相关的域完整性、引用完整性两个方面。

1.2 域完整性实现

域完整性又叫列完整性,以保证列数据的输入具有正确的数据类型、格式和有效的数据范围。域完整性主要通过CHECK约束、DEFAULT等定义和规则来实现。

CHECK约束对可以放入列中的值进行限制,以强制执行域的完整性。CHECK约束拒绝所有在检测条件中取值为false的值。可以为每列指定多个CHECK约束。下例显示名为chk_id约束的创建,该约束确保只对此关键字输入指定范围内的数字,以进一步强制执行主键的域。

1.3 引用完整性实现

引用完整性又称参照完整性。引用完整性维持被参照表(主表)和参照表(从表)之间的数据一致性。引用完整性确保键值在所有表中一致,这样的一致性要求不能引用不存在的值,如果键值更改了,那么在整个数据库中,对该键值的所有引用要进行一致的更改。在被参照表中,当其主键值被其他表所参照时,该行不能被删除也不允许改变。在参照表中,不允许参照不存在的主键值。引用完整性通过主键(PRIMARY KEY)约束和外键(FOREIGN KEY)约束来实现。

FOREIGN KEY约束标识表之间的关系。一个表的外键指向另一个表的候选键。当外键值没有候选键时,外键可防止操作保留带外键值的行。在下例中,order_part表建立一个外键引用前面定义的part_sample表。通常情况下,order_part在order表上也有一个外键,下面是一个简单示例。

如果一个外键值没有候选键,则不能插入带该值(NULL除外)的行。如果尝试删除现有外键指向的行,ON DELETE子句将控制所采取的操作。

2 数据库数据完整性保护约束机制在气象业务中的应用

在气象传输业系统务中每时每刻都存在大量的数据库操作,应用程序在用INSERT、DELETE、UPDATE修改数据库内容时,数据完整性就可能受到破坏。最典型两种情形,一者是气象要素数据写入范围可能无效,另一者是写入报文站号与站号信息表不一致。

下面就两种情形,展示数据库约束机制在业务中的应用方法。

2.1 检查(CHECK)约束在气象要素数据入库有效性方面的应用

业务系统中有一个表tab Time Data中有[空气温度]字段,现在要保证录入的数据不超出合理范围设定值为0至50。打开SQL Server查询分析器输入命令:

alter table dbo.tab Time Data

add constraint[CK_Users_空气温度]check(空气温度>0 and空气温度<50)

这样简单的字段级别约束已经定义好了。如果企图把值插入到[空气温度]字段超出了我们定义的范围,就会被数据库引擎成功捕捉到,如图1。

INSERT INTO dbo.tab Time Data(区站号,入库时间,…,空气温度)VALUES(‘J8811’,’2014-07-2411:00:13.000’,…,’90’),

2.2 外键约束(Foreign Key)在站点信息一致性检查方面的应用

气象传输业务数据库系统中必定都有一个站点信息表,一些不同的应用还有自己特定的站点信息表,其它数据表都以此为基础录入数据。某些系统常由于站点信息的不一致导致整个系统出故障。人工维护站点信息完整一致性变得很艰难,利用外键约束可以比较好的解决此难题。设基本站点信息表为B_stationinfo,区站号字段stationnum是其主键,在数据表tab Time Data中也有区站号字段。如果数据表tab Time Data中有一区站号为J99912的纪录,但时B_stationinfo表中根本没有区站号J99912这样的站点,也就是说区站号J99912不能在tab Time Dat表出现,因为这是毫无意义的,为了防止这样的问题出现,B_stationinfo表的区站号设置为主键,tab Time Data表的区站号设置为外键,那么在tab Time Data表中录入区站号就必须参照B_stationinfo表中的区站号,打开SQL Server查询分析器输入命令:

alter table dbo.tab Time Data add constraint fk_sn

foreign key(区站号)references B_stationinfo(stationnum)

如果在tab Time Data表中录入B_stationinfo表中没有的区站号,那么将报错,如图2。

INSERT INTO dbo.tab Time Data(区站号,入库时间,…)VALUES(‘J99912’,’2014-07-24 11:00:13.000’,…,)

3 几种数据完整性一致性保持方法比较

对于数据完整性不同业务逻辑决定了业务规则,事实上用户可有多种方式来维护数据的完整和一致性。用户可以选择由外部应用程序完成也可交由数据库系统约束或触发器完成。对于通常的业务,约束机制完全可以提供高性能的操作查询执行任务。

3.1 数据库约束机制和应用程序比较

因为数据存储在数据库里,约束规则也存储在数据库中,因而数据库约束规则更容易运行更高效,并且无需编写复杂代码,使得整个系统分工明确而简单。

3.2 数据库约束机制和触发器比较

数据库系统也提供触发器保护数据完整性,但需要编写专门的代码。另外,CHECK约束是在数据库修改通过数据库引擎完成之前执行的,然而触发器是事故发生后检查的。使用触发器延长了一个事务的执行时间,如果检测到一个回滚事件那么代价可能是昂贵的。

4 结语

数据库约束机制提供了一种简单高效的数据完整性强制保护技术,利用约束规则几乎无需编码,高效解决复杂问题。在业务系统上应用此方法可以充分发掘数据库系统潜能,减少系统复杂度,提供更细粒度的数据控制和管理功能。对于现代以秒级考核的报文传输质量指标要求,无疑是一项重要的技术手段。

摘要:本文通过深入分析数据库约束机制在保护数据完整性中的作用和实现方法,详细介绍了该技术手段在气象报文传输中的应用。

关键词:数据库,约束,数据完整性,一致性,有效性,业务规则

参考文献

[1]黄楠.海量信息存储中数据库性能优化方法.科技通报,2013,3

[2]付增少.关系数据库SQL使用指南.北京:学苑出版社,1995,全书页码(451pp)

[3]郑鑫梅.ERP系统中ORACLE数据库性能调整与优化[D].中南民族大学,2010

数据传输机制 篇10

一、“数据监狱”:伦理、法律隐忧

大数据在以摧枯拉朽之势深刻改变着包括影视剧生产在内的人类经济、政治、文化、社会、生态、军事领域的既定运行模式的同时,也引发了不少伦理乃至法律上的质疑与考验。

福柯在《规训与惩罚》中提出“全景敞视主义”的概念,奥威尔在《1984》中提出了“老大哥”“第三只眼”的概念。这两个概念与建筑心理学概念“圆形监狱”高度契合,用以揭示人类在享受科技进步带来成果的同时,面临被技术监控和反噬的可能性再合适不过。大数据时代,影视剧生产机构对海量用户在门户网站、移动终端、社交平台等所有可能领域的行为进行记录、分析,使用户信息无所遁形,仿佛置身于一座“数据监狱”。

这座“数据监狱”的监控方式有别于政治学概念上的一般性监视。第一,科学技术的进步造就了这座“监狱”,而非自上而下的国家暴力结构使然。第二,它由科学技术与应用实践互动交织而成。自下而上的监视生成机制使得这座“数据监狱”比“圆形监狱”更具迷惑性和隐蔽性。更加值得一提的是,“圆形监狱”由国家强力主导,建构在囚徒的自我规训意识之上,而“数据监狱”则由实施者和受众在尼尔·波兹曼所谓“娱乐至死”[1]的语境中共同打造。乔布斯坦言,自己曾经认为电视和网络合谋让人类变得更愚蠢,后来发现其实是人类自己热衷和乐于此道。[2]第三,在影视剧创作领域,或者更加广泛一些,在所有文化产品生产领域,这座“数据监狱”建立在文化、伦理和法律接壤的模糊地带。2013年,美国中央情报局技术分析员斯诺登震惊世界的逃亡和爆料,引发了各国对“棱镜计划”的强烈批评。近日,美国地方法院要求苹果公司特别开发一个有漏洞的IOS版本,让警方得以绕过安全系统,进入谋杀嫌犯的手机,以获取案件相关信息。这种做法遭到库克的断然拒绝和公开抨击,谷歌和脸书公司立即表示响应。各界人士对于以国家安全名义进行的大范围无休止的监控活动十分反感,政府一着不慎,便可能招致舆论的讨伐围攻。但在影视剧生产领域,仅奈飞公司网站一天就要收集付费用户3000多万个收视动作,并进行精准的分析研判,以之指导生产实践。广大用户对这种堂而皇之的、可能引发伦理乃至法律问题的行为却并未像对待政府监控那般充满斗争和批判精神,相反我们在这座“数据监狱”中怡然自得,为自己每一个“恶趣味”所得到的尊重而欣喜。这才是最值得忧虑与警惕的地方。

这座被人们精心构建,又受到普遍“欢迎”的“数据监狱”,引发了一系列伦理和法律意义上的争议与忧虑。

二、手段越位:原创精神式微

用文学史上著名的“狄更斯之叹”来注解这个问题似乎再也恰当不过。大数据技术的广泛深度应用在给影视剧生产带来巨大机遇和指导意义的同时,也在迅速冲击着这个领域的核心价值:原创精神。

制片的选择、导演的把握、剧本的打磨、演员的塑造、制作团队的雕琢、营销团队的推广,影视剧生产的每一个环节都是广大影视工作者专业才智和原创精神的高度凝练。大数据的持续走强,使得影视剧生产的链条和逻辑面临颠覆性的逆转。市场分析、剧本创作、班底配备、后期制作、营销模式皆可通过对目标受众的大数据分析进行倒推运作,任何一个环节都体现为数据主宰,原创精神变得可有可无,大数据的力量让影视剧生产领域看似颠扑不破的真理轻松逆转,且显得如此天经地义。

2010年3月,“优酷指数”问世。国内视频网站的大数据实践从这里起步:从播放次数、搜索数量、评论内容、数量、站外引用数量等指标中,分析受众趣味、制作节目内容,甚至决定服装、化妆、道具的风格。优酷高层李黎以著名网络脱口秀节目《晓说》为例,坦言其主题内容、讲述风格等都由数据说了算。《晓说》如此,优酷土豆平台上大量的自制剧更是如此。

舍恩伯格认为大数据的意义不在于发展人工智能,而在于通过对海量数据的分析研判,预测可能发生的事情。[3]好莱坞梦工厂首席执行官卡森伯格认为:“影视剧作品的创作与观看是一个感性体验的过程,大数据技术的应用有助于优化这种体验,而并未在其中发挥决定性的作用。大数据对于影视剧生产的最大意义在于,使行业变得更加透明和冷静。”

有人将大数据比作一张航海图,制作方是航行中的船只。航海图越精准,航行自然越顺利。可最终抵达目的地,还是离不开优秀的船长和船员。一言以蔽之,大数据作为技术手段,值得影视剧行业加以有效利用,并且以之指导创作实践。然而,它的应用不能以牺牲制作团队的主体性和原创精神为代价。一旦离开原创,影视剧作品就会沦为无本之木、无源之水,从而彻底丧失作为人类精神生产领域一个独立单元的艺术价值和存在意义。

三、公器蒙尘:社会功能缺位

“公器”一词出自《庄子》,原指官家器物,亦代指有才能的人和公共资源。随着现代汉语的发展,“公器”的外延不断扩展,开始泛指具有平等、共享、公益性特质的社会公共系统,如法律、教育、文化、艺术等。影视剧作品作为新兴的文艺形式,一方面成长于市场化的现代经济环境和娱乐化的后现代文化语境,一方面又作为文化艺术系统的组成部分,理所应当地与其他文艺形式一样承担有相应的社会功能。如何处理好社会效益与市场效益、艺术价值和娱乐功能的关系问题,实在是一个由来已久又历久弥新的命题。

nlc202309090114

《论语·八佾》说:“子谓《韶》,尽美矣,又尽善也。谓《武》,尽美矣,未尽善也。”“美即音乐的表现形式和手段,善是音乐的内容和实质。”早在春秋时期,中国古代哲人就开始运用“美”和“善”两个概念来评判音乐。孔子又进一步指出:“人而不仁,如乐何?”意思是人如果不能行仁道,再美的音乐又有什么意义呢?这说明孔子认为“仁”是根本,“乐”是“仁”的表现形式,美必须具备社会意义和价值,尽管“美”的重要性也不可忽视。李泽厚认为,美和善都是人类社会的产物,两者相对人和社会才有意义。[4]换句话,文艺的社会效益、艺术价值是第一位的,经济效益、娱乐功能是第二位的。从国家意识形态层面讲,文艺作品如何追求社会效益与经济效益、艺术价值和娱乐功能的协调统一的问题根本是个伪命题,真正的命题是如何以更好的“美”来体现“善”。

早在大数据技术被广泛应用于影视剧生产之前,影视剧作为大众文化消费品就备受精英阶层所谓“娱乐至死”“低俗媚俗”的指责与诟病。大数据的狂潮席卷之后,一切以受众观影习惯为中心的生产导向愈发加剧了这种忧虑和批评。好莱坞梦工厂首席执行官卡森伯格面对媒体表示“电影是用心之作”,自己拒绝使用大数据。近年来,我国影视剧行业的大数据应用发展迅速,大荧幕作品以《小时代》为代表,电视剧方面,尤其体现在一些数据收集途径更为丰富和便捷的新媒体播出平台上。耗资两亿的大制作《芈月传》固然红极一时,但一部槽点满满的小制作网剧《太子妃升职记》却也以超10亿的点击傲视同行。与传统影视剧创作模式迥异,通过数据分析,准确把握受众需求,与受众充分互动,才是一部“神剧”产生的基础。这种一切以用户习惯数据为指挥棒进行逆向选本、选角、拍摄、制作、推广的神剧诞生的方式正在猛烈冲击传统影视剧创作的基本模式,人们有理由担心:完全臣服于大数据的影视剧作品,将会因盲目从众、媚俗而彻底丧失“文以载道”的社会功能和艺术价值。我国的顶层设计层面也对这个问题投以高度的关注:习近平在与文艺界代表座谈时直指当今文艺创作存在“有数量缺质量”“有‘高原’缺‘高峰’”“抄袭模仿”、“千篇一律”“机械化生产”“快餐式消费”等问题,要求“文艺不能在市场经济大潮中迷失方向,不能在为什么人的问题上发生偏差,否则文艺就没有生命力”。影视剧作品作为社会公器进行“激浊扬清”的社会功能正在面临着“一切从大数据出发”的考验。

影视剧作为一种文艺作品,在当代社会影响广泛而巨大。对“大数据+影视剧”生产机制造成的“公器蒙尘”问题的质疑,其实质是呼吁相关的文艺作品继续承担起相应,乃至更大的社会责任、社会功能。

四、数据困境:客观性、

全面性、科学性的考验

有研究者认为,大数据背景下的影视剧生产是19世纪实证主义哲学传统作用于当代大众文化的极致。诚然,大数据的自信源于对所有对象数据化的信心。从导演和观众的数量、性别、年龄、地域、族裔、收入、受教育程度到电影中哪些或哪种片段受人欢迎,哪种作品类型受哪些人喜欢,电影情节预测在观众反馈之中的情况,等等。反对者们也言之凿凿,尽管有些论调因不合时宜而被视作迂见:导演精神、电影思想、审美情趣等影视剧核心要素都不能被量化。[5]

本文所说的“数据困境”主要从大数据拥趸最引以为豪的“客观”“全面”“科学”等特质展开论述。数据本身无论多么的“客观”“中立”和“理性”,但它永远是遵从某种价值观念和倾向被选择和建构出来的,用一句套话,是人的主观思想作用于客观实践的产物,所以说价值判断始终贯穿于大数据分析的全过程,不容否认。再者,大数据分析所宣告标榜的,对巨量信息进行的分析处理,进一步具体到影视剧行业的实践,从观众数量、点击次数,到涵盖性别、年龄、阶层、收入、受教育程度等,单从数量的角度看,的确相当庞大。但这些庞大的信息是否就能够代表“全面”的信息?这些庞大的信息是否真的能完全覆盖影视剧生产全链条所衍生的各方行为的全部数据?答案显然是否定的。许多非物质层面的因素,譬如导演的精神、编剧的巧思、演员的塑造等,这些被专业人士奉为圭臬、视作影视剧作品灵魂与内核的东西常常被选择性忽略。所以说大数据的“全面”性始终是个相对的概念,与其说它是“全面”的数据,不如说是收集者能力所及或是意愿所及的数据。如果收集者没有某种业已存在于心中的倾向和意愿,哪怕一些数据每天都在高频度客观发生,也无法被纳入样本进行分析处理。这意味着人的思维局限将会影响大数据的“全面性”。另外一个方面,大数据的科学性通常也只能停留在对相关关系的分析层面,而很难去追问因果关系。这种大数据思维与实证主义传统中“只研究怎么样(how),而不研究为什么(why)”一脉相承。这里要明确一个概念:“相关关系的核心是量化两个数据值之间的数理关系。相关关系强是指当一个数据值增加时,其他数据值很有可能也会随之增加”[6]。相关关系分析是大数据时代的选择,技术的支持使得对相关关系的探寻比对因果关系的追问和思考容易得多。因此,大数据的科学性至多体现在对研究对象之间相关关系的分析处理上,而不可能涉及作品审美判断、人物形象和故事意义等层面,更遑论整理出一条完整的因果逻辑链条了。

综上所述,关于客观性、全面性、科学性的质疑和考验,也是大数据本身需要突破的困境和局限。

影视剧生产行业的“大数据+”浪潮方兴未艾,在“内容为王”和“数据为王”双期叠加的时代,大数据在市场分析、剧本创作、班底配备、后期制作、营销推广等产业全链条发挥着重要影响。影视剧行业的各种市场主体在分享着大数据技术发展成果的同时,也不可避免地面临一系列问题和挑战。如何既充分把握大数据时代的重要战略机遇,又充分认识、高度重视、审慎研判、科学应对随之而来的种种问题和挑战,无疑是对整个行业的一次重要考验。

参考文献:

[1](美)尼尔·波兹曼.娱乐至死[M].章艳译,中信出版社,2015.

[2](美)沃尔特·艾萨克森.史蒂夫·乔布斯传[M].管延圻译,中信出版社,2011.

[3](英)维克托·迈尔-舍恩伯格,肯尼思·库克耶.大数据时代[M].周涛译,浙江人民出版社,2013.

[4]李泽厚.关于当前美学问题的争论——试再论美的客观性和社会性[J].学术月刊,1957(10):25-42.

[5]徐杰.大数据时代下新媒体电影的呈现和问题[J].文艺研究,2014(11):109-115.

[6](英)维克托·迈尔-舍恩伯格,肯尼思·库克耶.大数据时代[M].周涛译,浙江人民出版社,2013.

网络数据库安全机制研究 篇11

网络数据库应用系统是结合网络技术及数据库技术而开发的一种新型的用于处理各类信息的系统。网络数据库的安全性直接影响了数据传输及处理的结果和效果。网络数据库是一个开放式的信息存储和处理平台, 不管是局域网或是广域网, 其都会因来自自然或人为等方面的威胁而产生安全问题。针对网络数据库的安全问题, 相关业内人士不断深入研究, 制定了一整套的网络数据库存安全机制, 以期提高网络数据库的安全性, 保证信息传输的统一性和完整性, 充分发挥网络数据库应有的作用。

2 网络数据库安全机制概述

2.1 网络数据库安全机制的概念

网络数据库是基于后台数据库, 结合前台程序的访问控制功能, 利用浏览器实现数据的存储、查询等功能的信息集合。在网络的基础上, 数据库最大的特征便是可实现大量数据信息的共享, 同时使数据的统一性和完整性得以保持, 以控制数据冗余度及访问量[1]。网络数据安全机制即指对网络数据库所做的安全系统, 以保证网络数据库的安全及系统流畅运行。

2.2 网络数据库的模式

网络数据库的模式主要有两种:B/S模式和C/S模式。C/S模式主要包括客户端应用程序 (Client) 、服务器管理程序 (Server) 及网络 (Network) 三层结构。客户端应用程序主要用于实现数据在系统与用户间的交互, 其主要负责事务的处理及显示逻辑;服务器管理程序主要用于管理资源, 当多个用户同时请求使用同一资源时, 对资源实现最优化管理。网络是用于连接客户端应用程序与服务器管理程序的, 起中间桥梁作用, 协同完成数据查询、数据处理、数据管理等任务, 以满足用户需求。结合WWW技术, 将客户/服务器模式进一步演化后便得到B/S模式。B/S模式主要包括Web服务器、浏览器及数据库服务器三层结构。通过浏览器的交互功能连接系统与用户, 用户输入信息之后交由Web服务器进行处理并将处理结果返回给浏览器, 供用户使用。若用户有数据存储需求, 则Web服务器还需结合数据库服务实施数据存储操作。数据库服务器通过对不同Web服务器发出各种数据处理请求进行协调以实现对数据库的管理。

2.3 网络数据库的安全机制模型

B/S与C/S存在很多共同点, 如都为网络模式, 都涉及到系统软件及应用软件等。为使整个网络数据库安全机制更加清晰, 通过分析B/S及C/S模式的共同点及特点之后, 可得到一个完整的网络数据库安全机制模型, 如图1所示。从图中可以看出, 每一层结构都对应着一套独立的安全机制, 且每一层结构都有对别层结构产生制约的机制, 这使得每一层结构在完成自身任务的同时又可对别层的机制产生制约作用, 层与层之间存在着密切的联系, 从而构成一套完整的网络数据库安全机制。此外, 分层式的安全机制模式使得系统的安全结构非常清晰, 在实际应用当中可根据不同的需求来选择不同的工程, 以提高系统任务处理的针对性和目的性。

3 网络数据库各层的安全机制

3.1 网络系统的安全机制

网络数据库安全机制的最主要机制是网络系统安全机制。网络系统安全是网络数据库安全的第一道屏障, 外部入侵的首要攻击对象就是网络系统。网络入侵的主要目的是破坏网络数据库信息系统的完整性、机密性及任何可信任的网络活动, 现网络安全存在的主要威胁有身份窃取、数据窃取、错误路由、数据流分析等[2]。防止网络系统被侵入的安全技术有很多, 其主要包括防火墙技术、入侵检测技术及协作式入侵监测技术等。

防火墙技术是为保护网络安全而使用的一种最为广泛的防范技术。防火墙是网络系统的第一道防线, 其主要用于对可信任网络及不可信任网络之间的访问通道进行监督和控制, 在内部网和外部网之间构建一道保护屏障, 以拦截外部网的非法访问, 同时防止内部信息泄露, 但是其无法拦截自内部网产生的非法操作。

入侵检测是近些年来迅速发展的一种新型安全技术, 入侵检测综合使用了各类先进的技术和方法, 包括统计技术、网络通信技术、人工智能、推理、规则方法、密码学等, 其主要用于对网络系统是否存在被滥用或被入侵的征兆进行监督和控制。检测入侵思想于1987年由Derothy Denning提出, 在多年的发展过程当中, 入侵检测技术不断完善, 并被列为对攻击进行监督和识别的标准解决方案, 现入侵检测已成为网络安全防御的重要组成部分。

协作式入侵监测技术有效弥补了单独使用入侵监测系统的不足, 协作式入侵监测技术是一个具完整性和统一性的入侵监测体系, 参与协作的各入侵监测组件之间有着很好的互动性, 其会自动交换入侵信息, 通过信息的交换可有效监测网络入侵行为, 且这种技术可广泛应用于各网络安全环境当中。

3.2 服务器操作系统的安全机制

服务器操作系统为网络数据库系统的运行提供了平台, 也为网络数据库提供了一定的安全保障。现使用较多的服务器操作系统主要有Windows NT、Unix, 其安全级别通常为C1、C2。服务器操作系统的安全技术主要包括安全策略、安全管理策略及数据安全等。安全策略主要用于对本地计算机的安全设置进行配置, 包括账户安全、密码安全、IP地址安全、审核安全、加密数据安全及用户权限安全等方面, 具体来说就是用户的账户、口令、访问权限、审计等。

安全管理策略主要是指网络管理员为维护网络系统安全而采取的一系列安全管理方法和策略。网络环境和操作系统的不同, 网络管理员会采取不同的安全管理方法和策略。但总体而言, 安全管理策略的目的主要还是保护服务器的安全并做好各类用户权限的分配工作。服务器操作系统的数据安全具体体现在数据备份、数据加密、数据传输安全及数据存储安全等方面。用于保护服务器操作系统数据安全的技术有很多, 如Kerberos认证、TLS、VPN (PPTP、L2TP) 、SSL、IPSec等。

3.3 数据库管理系统的安全机制

基于网络操作系统, 网络数据库系统通常是以文件形式来管理网络的, 因此, 网络操作系统的安全直接影响了网络数据库的管理, 入侵者可从网络操作系统着手, 利用网络操作系统的漏洞来窃取网络数据库文件, 或是对数据库文件内容进行篡改或伪造[3]。一般网络数据库用户很难发现这类网络安全隐患, 因为此类安全隐患的分析和解决通常会被归为B2级数据安全技术措施。数据库管理系统的安全机制则主要是为了解决这类安全隐患而设立的。在解决这类安全隐患的过程当中, 系统会先寻找安全隐患的入侵途径, 若前两个层次的安全机制已被突破, 数据库管理系统的安全机制则会发挥其作用保护数据库的数据安全。这就要求数据库管理系统必须拥有一套完整而强有力的安全管理机制。数据库管理系统的安全技术主要包括视图、审计跟踪、存储权限、触发器、数据加密、数据备份和恢复等。

视图机制主要用于隐藏用户的私密数据, 防止数据外泄, 这在一定程度上为数据库的数据安全提供了保障;存储权限是指不同的用户针对其隐私数据拥有一定的公开及隐藏权限, 此外还有操作权限;数据加密主要是用于保护数据在被使用或是进行传递的过程当中不被修改或窃取, 从而达到保护数据完整性和统一性的目的;数据备份和恢复是指在数据库系统出现故障时, 其能将数据库系统还原至故障前状态;审计跟踪简单来说就是给数据库做一本日志, 数据的修改、删除、更新等都可通过审计跟踪进行查询, 使数据的各种活动状态都有证可循。

3.4 客户端应用程序的安全机制

客户端应用程序的安全机制是整个网络数据库安全机制当中最简单也最实用的安全机制。相比于其他层次的数据库, 客户端数据库具很强的独立性, 其可在不受外界干扰与支配的前提下发挥数据库安全机制的作用, 并且其还可随时进行更改。客户端应用程序可控制用户登录的合法性、身份验证等, 其还可直接设置和管理自身数据库的数据。加强控制和管理客户端应用程序可有效保障客户端应用程序的安全。此外, 客户端应用程序具很强的灵活性, 其可自行更改数据库数据, 同时可使用多种技术对客户端安全进行灵活管理, 同时结合在COM+组件基础上开发的用户身份鉴定技术可使客户端安全得到有效的控制和管理[4]。

4 利用DBMS安全机制防范网络攻击

4.1 认证与授权

认证是对请求服务的人或应用程序进行验证的过程;授权是指将已通过身份认证的人或应用程序映射至已授予许可的数据库用户的过程, 此过程限制了用户行为需在数据库允许内发生。认证主要是解决身份问题;而授权主要是解决行为问题。认证和授权技术主要有用户标志与鉴别、存储控制等。

4.2 备份与恢复

当系统出现故障时, 通过数据备份及恢复, 网络管理员可迅速恢复数据库的原有状态, 保证数据的完整和统一。数据库备份方法主要有静态备份、动态备份及逻辑备份等;数据库恢复方法主要有磁盘镜像、数据库备份文件、数据库在线日志等。

4.3 审计

利用审计可将用户数据库的所有活动记录下来并存放至审计日志当中, 如此一来, 数据库系统就可根据审计跟踪来查询数据库的现有状况及各数据的活动状况等, 从而将从事非法存取数据的人、时间及内容等找出来, 这样一方面方便网络管理员追查非法存取数据的相关责任, 另一方面也有助于网络管理员及时发现系统安全漏洞及弱点, 并及时修正, 以进一步提高网络数据库的安全性, 保证数据的统一性和完整性。

5 结语

网络数据库安全问题是一个具强综合性和系统性的问题, 在设计网络数据库安全机制的过程中, 不仅要考虑每一个结构层的安全机制, 而且还要注意层与层之间的紧密联系, 做到层层设防且保证设防不矛盾。随着计算机技术及网络技术的不断发展, 网络数据库的安全问题也会成为一个不断发展的问题, 而且伴随入侵者入侵手段及技术的不断提高, 相关的安全技术也应不断提高。只有不断对新问题、新情况进行研究和处理, 网络数据库的安全性才能得到不断提高。

摘要:随着计算机技术及互联网技术的快速发展, 人们逐渐进入现代化信息时代。利用各种现代化信息手段, 人们的工作及生活都变得更加便利。但同时, 也有不法分子利用网络的便利性不断进行网络安全攻击, 使网络数据库安全受到威胁, 信息的传输及处理受到影响, 为此就需制定一套完善的网络数据库安全机制以保证网络数据库的安全性。文章简单概述了网络数据库安全机制的基本概念、网络数据库的模式及其安全机制模型, 分析了网络数据库各层的安全机制, 并讨论了利用DBMS安全机制来防范网络攻击问题, 旨在为提高网络数据库的安全性提供若干建议。

关键词:网络数据库存,安全机制,操作系统

参考文献

[1]孙宏志, 任丽妍.网络数据库安全机制研究[J].信息系统工程, 2015 (06) :58.

[2]嵇可可.认证技术下网络数据库安全机制研究应用分析[J].硅谷, 2012 (16) :106-107.

[3]张萍.计算机网络数据库的安全机制问题初探[J].信息与电脑 (理论版) , 2014 (06) :99-100.

上一篇:质量测评体系下一篇:新型协调机制