大数据分析方法

2024-10-21

大数据分析方法(共12篇)

大数据分析方法 篇1

大数据分析的业务价值和数据类型

越来越多的企业认识到数据分析能够带给企业业务的价值。中桥的多选项调查结果显示 (图1) , 企业认为大数据分析能够带来的主要业务价值依次是:提高生产过程的资源利用率, 降低生产成本;根据商业分析提高商业智能的准确率, 降低传统“凭感觉”做决策的业务风险;动态价格优化利润和增长;获取优质客户。这表明大数据已经对企业的成本、业务决策、利润有着直接的影响。中桥的另外一组调研数据显示, 目前越来越多的企业级用户考虑从批量分析 (大数据创造价值的第一阶段) 向近实时分析 (第二阶段) 发展, 从而提高IT创造价值的能力。同时, 数据分析在快速从商业智能向用户智能发展。中国市场正逐步从大数据降低成本向大数据加速业务增长、提高利润以及突破创新发展。

中桥调查显示, 目前中国用户主要是通过数据分析来提高整个企业的运营效率, 降低运营成本。从图2对数据类型的调查结果来看, 目前, 中国企业的数据分析还是以结构化数据为主, 如数据库或事务性数据。此外办公文件、计算机/网络日志文件、文本/信息等也是企业数据增长的主要来源, 同时也是能够攫取出价值的数据类型。

而就导致大数据问题的数据来源调查显示 (图3) , 毫无疑问, 数据库首当其冲, 是企业大数据的主要来源;而半结构化和非结构化数据如软件和网络日志、感应数据、社群等也已经纳入企业数据分析的主要范畴, 这表明企业已经意识到这些数据对于业务的重要性, 这也是实现从 (大) 数据分析第一阶段到大数据分析第二阶段的必要条件。也成为未来24个月用户通过IT创造价值的IT投资重点。

中国市场大数据分析方法

在了解了企业大数据的来源和种类之后, 如何采取有效方式对这些数据进行分析, 从而最大程度攫取数据价值, 转化为最明智的商业决策以利于企业业务运营, 是企业对大数据进行分析的目的所在。从目前中国大数据分析的分析方法来看 (图4) , 有33.8%的企业选择针对具体工作负载来调整通用数据库;22.0%的受访企业选择数据分析云计算服务 (如软件即服务和/或基础设施即服务) ;还有20.7%的企业选择自定义开发的解决方案。仅4.8%的用户使用了并行处理 (MPP) 分析数据库, 3.3%使用了对称处理 (SMP) 分析数据库。这一结果表明, 大多数的中国企业仍处于数据分析的第一阶段。而且, 目前中国用户大多采用通用数据库、云计算或自定义开发的解决方案和数据库工具作为大数据分析方法, 而没有选择去购买数据分析的软件。

Map Reduce可以让用户把半结构化和非结构化数据整合到数据处理和分析平台, 从传统的核心式数据分布演进到集群或网格式数据分布。从图5关于数据处理和分析平台的调查结果来看, 常用的分布式计算环境 (29.0%) 、自定义开发的解决方案 (27.7%) 、SMP (对称处理) 数据库 (16.0%) 、公有云平台 (10.5%) 是目前大数据环境下较为普遍采用的数据处理和分析平台, 而使用Map Reduce的企业占比较低 (4.8%) 。这说明, 目前中国企业对Map Reduce的认同有限, 这不仅影响着数据分析三个阶段的演进速度, 也制约着数据的采集管理, 进一步也影响着大数据分析四个环节的后面几个环节。

大数据分析方法 篇2

网舟科技数据分析课题组

大数据营销价值:

随着全球的信息总量呈 现爆炸式增长,移动互联网、可选渠道和设备增加以及不断变化的消费者特征,同时大数据技术的更新日益。大数据营销依托多平台的数据采集及大数据技术的分析及预测能力,使企业的营销更加精准,为企业带来更高的投资回报率。无论是线上还是线下大数据营销的核心在于在合适的时间,基于你对用户的了解,把你希望推送的东西通过合适的载体,以合适的方式,推送给合适的人。

大数据营销关键问题:

问题1:怎么才能准确知道Who?Where?Do What? How Do? 大数据营销首先要解决的是数据汇聚的问题。通过打通用户在多个渠道上的行为数据,构建对用户行为和用户数据的深入洞察,一方面实时监控各渠道的用户行为特征,运营和营销的效果,进行优化;另一方面集中用户的数据,便于后续的深入挖掘工作,实现以用户为中心的数据汇聚,提升用户数据价值,实现用户交互的精准识别和多渠道数据打通,为用户提供更准确的服务和营销。问题2:渠道及交叉渠道组合方式如何选择?

当营销预算不够的时候,如何在搜索和其他的渠道间进行营销预算的分配?是选择电子商务最优搜索渠道还是选择跨渠道组合营销呢?跨渠道营销预算如何进行排列组合?

问题3:如何通过个性化营销让企业离用户更近一点?

营销方式从海量广告过度到一对一以用户体验为中心的精准营销,一对一精准营销实际上是对于任何一个互联网用户在那一刻,在那一个渠道以一个独特的价格,推送一个独特的广告创意,效果是怎么样的。围绕用户、业务场景、触点、营销推送内容/活动推荐,并且基于跨渠道触发式的营销能力,在注重用户体验同时达到最佳的营销效果,并且可对营销进行跟踪,从而不断优化营销策略。

问题4:如何实现基于大数据营销的即时营销?

企业希望通过实时分析来获取竞争优势。精准营销也要求在活动的同时我们就能得到数据,立即优化营销效果。

大数据营销系统组成:

基于大数据的精准营销过程分为:采集和处理数据、建模分析数据、解读数据这么三个大层面。通过对客户特征、产品特征、消费行为特征数据的采集和处理,可以进行多维度的客户消费特征分析、产品策略分析和销售策略指导分析。通过准确把握客户需求、增加客户互动的方式推动营销策略的策划和执行。

网舟科技大数据营销项目的解决方案主体为:数据整合营销平台

营销管理平台中心有一个通用的工作流引擎,以及创新生动的用户界面。它具有高度自动化的特点,基于角色的协作,工作流工具使营销上很容易定义流程规划和管理预算、资源和内容,细分客户,定义规则和机制,创建和重建模板,执行活动,捕捉反应,定义领导流程和结果分析。营销商根据需求动态的格式化内容协调所有营销过程与跨越多渠道的用户交互,而视觉框架使这一切变得更直观。

大数据精准营销实现方式:

通过一个表达式构建器、原始SQL、或通过预定的过滤器进行构造。即可以基于一个无限数量的隐式或显式条件下,利用底层营销数据:包括历史客户交易、人口统计、模型评分、营销历史以及浏览行为等实时变量,进行细分和决策规则的配置。支持Offer(针对不同特点客户所要提供的营销内容、素材等的供给物)与渠道(网站、手机应用、邮件短信等)的关联配置。数据营销后台可对各触点的推送offer中的推送规则、推送内容进行定义,还可实现多渠道、多波次的营销定义,并负责精准营销的推荐实施。

基于大数据对城市公园的研究方法 篇3

摘要:当今时代是大数据时代,市民对城市公园质量的要求也多样化。研究大数据的类型信息和收集平台,以及数据的可视化和处理平台,探讨大数据在城市公园的服务质量、人群特征两方面的研究方法。

关键词:大数据 ;城市公园 ;服务质量 ;人群特征

[本文系广东大学生培育专项资金项目,项目编号:j2tw-K1160010]

大数据时代的到来,使得城市时空间组织和行为研究方法面临着变革。近年来,国际上大量知名的开放数据组织开始支持国内数据访问;中国政府也在有序推进着政府的信息公开工作;大批互联网公司开始在一定程度上开放自己的数据。

城市公园作为一种面向着广大市民的公共服务,颇需关注。随着经济发展的小康要求,公园逐渐泛化,市民对公园质量的要求也多样化,但关于公园的服务质量、使用人群特征的研究并不多,且公园的服务质量和市民的需求之间出现了一定程度的错配,如空间使用强度错配、周边设施错配等。

因此,通过研究关于公园的大数据类型和收集方式,以及数据可视化和处理平台,并将数据和分析内容结合起来,能为以后研究者提供发掘城市公园的使用现象和规律、不同人群的需求方法,进而能对城市公园的供给和需求进行匹配,并提出有意义的政策和建议。

一、关于城市公园的大数据收集

对城市公园研究需要收集的数据信息:一是城市公园本身的信息,包括公园名称、位置经纬度、总体评分、评论数量和周边设施情况等;二是使用人群的活动状态和特征,包括基本信息、来源地、位置经纬度、使用时间、评论内容和舆情评价等。

网络大数据平台多样且形式丰富,具有收集途径多样、提取迅速、成本低、操作简单等优点,能够为研究者提供短期内采集大量公园数据的可能性。

(一)大众点评网数据

大众点评网是国内使用量较多的本地生活消费平台,也是全球最早建立的独立第三方消费点评网站。大众点评网能够为公园使用者提供城市各类公园的介绍信息、用户点评和周边公共服务设施信息。

收集数据的工具为火车头工具。收集数据的步骤为,在抓取网址中填入“公园”“广场”“绿地”和不同类型的“公共服务设施”等关键词,并填入抓取范围对角的经纬坐标。数据保存为Excel文件,信息包括:公共空间的名录、地理位置、公共空间拥有的评价数、用户对该空间的总体评分以及公共服务设施的数量和地理位置。

(二)新浪微博数据

新浪微博网是提供微型博客服务类的社交网站,是目前国内最大的网络信息交互平台。新浪微博蕴含海量有价值信息,其使用者数量基数大,状态信息更新频繁,信息传播迅速,收集意义十分重大。

收集方式为:利用微博开放平台作为接口,获取一定区域范围内的带地址信息的微博。收集操作较简单,可行性强。但从2015年4月之后,微博开放平台进行了身份验证的改革,平台的开放性降低,数据获取增加难度。数据保存为Excel文件,信息包括发送微博事件、微博ID、微博文本内容、发微博时候的经纬度、发微博的地区距离查询中心的的距离(单位是米)、用户的ID、用户性别、用户资料填写的省份和城市。

(三)百度搜索数据

百度网是全球最大的中文搜索引擎、最大的中文网站。百度拥有全球最大的中文网页库,目前收录中文网页已超过200亿,这些网页的数量每天正以千万级的速度在增长。与公园有关的搜索量和词汇,在一定程度上能反映出公园的热度和用户对公园的评价。

收集方法为:在上述微博数据中选出高频词,在百度搜索进行词频搜索“公园名称+关键词”,记录搜索数量。存在的不足是该方法使用人工方式进行搜索,使用起来方便性不高,如能设计自动搜索程序将有利于该方法应用。

(四)网络舆情数据

探宝是一款网络舆情监测产品,国内首个免费的舆论监测平台,舆论的监测信息的数据来源于8000多个主流新闻网站、论坛、网站、贴吧、网易、新浪、搜狐等博客门户,以及微信平台文章的信息采集及汇总整理。在探宝中能获得公园名称在不同媒体中出现的频率以及正负性评价,非常直观。

收集方法为:在探宝平台上输入相应公园,可得到网络上相关的信息数量信息来源以及正负面信息统计。不足为该方法使用人工方式进行所有公园搜索,使用方便性不高,且依赖于探宝舆情监测平台,数据经过了二重转换和整理。

(五)其他平台数据

1.手机移动数据

中国移动通信集团公司是中国通信行业三大运营商之一,在通信行业处于排头兵位置。移动数据蕴含使用者的一些基本信息、位置分布和生活轨迹等。收集方法为:基于移动公司平台,基于地图可以获取城市公园内的CGI和CGI可以获取使用的用户,最后基于用户可以提取业务信息;但移动公司平台针对商业用户服务,且数据涉及到大量的个人隐私,因此和科研机构合作很难。

2.开放爬虫系统数据

开放爬虫系统主要面向高校和科研单位的大数据研究团队,提供个性化、定制的互联网数据获取服务。该系统面对大众开放,通过绑定新浪微博帐号并通过验证后,用户即提交新浪微博的数据抓取任务。但在抓取数据的过程中,遇到了以下困难:(1)很多用户在公园里对其进行评论时不写出公园的名称,故以“××公园”为关键字抓取的数据会有很多遗漏;(2)系统对每天提交关键词的数量有限制,每个用户每日单个类型任务最多可提交5次,获取信息量小且需耗费大量人力手动搜索。

3.八爪鱼采集器数据

八爪鱼采集器是深圳视界信息技术有限公司研发的一款网页采集软件,以完全自主研发的分布式云计算平台为核心,可以从各种不同的网站或者网页获取大量的规范化数据,帮助用户实现网页信息的自动化采集。但是经过试验发现该方法存在的问题:(1)抓取的数据不含地理信息;(2)一次性抓取的数据量太少;(3)需要购买抓数据规则、现成的规则不能灵活满足抓取需求;(4)参照该采集器规则自行编程设计规则的难度较大。

4.ROST系统数据

ROST数据抓取工具是一款针对多种类型网页的数据抓取工具,可以抓取文学网站的数据以及“新浪微博”“腾讯微博”和“搜狐微博”等微博平台的数据。该工具的优点在于简单易操作,但存在问题是该工具已过期,不可直接使用。

5.Gooseeker数据

Gooseeker集搜客大数据软件针对Web这个大数据库,提供将网页内容进行语义标注和结构化转换的功能,能够把语义标签摘取下来,实现网络数据的抓取。单在抓取数据的过程中有两方面的局限性:(1)微博数据无法完整采集;(2)基于网页的采集方式使得很难自动采集到大众点评上的公园的研究。

二、数据处理的平台和方法

把收集的大数据整合成数据库,为了让研究者更方便直观地了解结果,可以借助图形化手段清晰地分析与传达数据,揭示出大数据背后令人惊奇的特征和规律。本研究探索了不同数据处理平台的可视化步骤,方便根据数据类型的不同,选择相应的分析处理平台。

(一)GIS平台

GIS平台,即地理信息系统,是一种特定的空间信息系统。它是在计算机系统的支持下,对地球表层空间中的有关地理分布数据进行采集、储存、管理、运算、分析、显示和描述的技术系统,将地图这种独特的视觉化效果与一般的数据库操作集成在一起。处理方法为:

1.建立空间数据库

通过数据抓取工具获取具有经纬度的数据后,对所有收集的数据进行清洗、预处理,并按要求批量汇总合并不同区域的数据excel文件,形成空间数据库。

2.文件导入ArcMap进行预处理

分别将参照点文件和参照地图导入ArcMap,添加参照点Excel文件,XY分别为经度、纬度,接着编辑空间参照属性,选择合适的地理坐标系,一般为“Xian 1980”。再导入研究的城市的划分边界,即可得到初步的数据空间分布。如果城市划分边界的坐标系和参考点的坐标系不一致,则需要运用万能坐标转换器对数据的坐标系统进行转换。

3.利用ArcToolbox处理工具进行相关分析

ArcMap的ArcToolbox中Spatial Analyst工具,可以生成直观的分析图表达数据的空间分布特征。以采用核密度分析为例,首先选择密度分析中的核密度分析,在选项卡上设置输出像元大小和搜索半径,其中城市层面和片区层面的搜索半径值不同。接着在符号系统选项卡中选择分类,分类方法选择自然间断点分级法,并选择色带,最后得到数据的空间分布可视化表达。

(二)百度地图LBS 开放平台

百度LBS开放平台具有开放定位、地图以及搜索三个领域的服务。用户可以将自身数据与百度地图的数据在云端结合,同时在平台上完成测距、本地搜索、周边查询、路径规划等所有关于位置数据的计算和分析。同时可以直接在开放平台上模拟或实现数据存储、数据字段设定、检索等,可以在编辑器中直接调试运行程序。

其操作简易,能在没有专门知识的情况下获得可以直接使用的代码,开发成本极低,另外可以共享百度地图用户和流量,但每次只能进行单个数据的操作,无法负荷大数据的可视化效果。处理方法为:

1.定位中心点

打开百度地图API中的地图快速生成器,可以按位置名称或经纬度进行中心点定位。

2.设置地图

可以在此步骤中对地图的尺寸、状态、各种按钮的位置、大小以及比例尺的单位进行细化调整。

3.添加标注

百度地图自带了点、线以及文字标注工具,可以直接在地图上进行标注地点名称、备注,等等:

4.获取代码

点击获取代码键就能得到地图信息的代码。

(三)“地图慧”平台

地图慧是一个提供在线地图与地理信息系统服务的网站,能一键式制作专业的地图应用,让数据内容在地理空间上得到可视化展示,是一款开创交互式地图、地理空间应用新形态的工具。该操作简单快捷,比较适合短时间内获得小规模的可视化效果,但其数据处理基于在线网站,只有数据导入功能而缺少数据导出功能,因而普适性较差。处理方法为:

1.选择地图及标注模板地图慧平台上有各种各样用途的地图模板,如在地图上标注公园位置,则可以选择业务地图中的点标注模板。地图数据创建进入制作界面后,创建地图的标题、介绍和标签。

2.手动标记和批量上传是添加点数据的两种方法

手动标记的优点是较为灵活,可直接标注在地图上,但是手动标记需要逐一修改名称、描述,若数据点多则时工作量较大;而批量上传可以按经纬网坐标定位,只需将空间名称、评论数、经纬度整理成excel表格,接着上传至网站,即可自动生成分析图。

(四)Google earth平台

谷歌地球是一款Google公司推出的虚拟地球仪软件平台。它把卫星照片、航空照相和GIS数据整合在一起,形成一个地球的三维模型。该平台支持导入、导出大量的矢量和图像文件,可以快速地制作GIS数据地图,还能使用电子表格导入程序制作大量地址的地图。Google earth平台以全面的谷歌卫星地图为依托,地图数据较齐全。

GIS平台与Google earth具有较好的数据交互功能,可以利用GIS的功能模块Layer to KML将GIS平台下的各种数据转换为KML文件导入Google earth中。KML文件是该平台的一种标定地理位置的地标文件,可用来描述和保存地理信息(如点、线、图像、多边形、3D模型等)。但由于谷歌地球是一个真实的球体模型,其坐标系统在与其他平台对接时会产生不可预料的偏差,因此在该平台上分析的数据难以在其他平台上进行进一步操作。

三、对于城市公园供给(服务质量)研究方法

(一)空间分布

城市公园在城市中的空间分布,反映出不同地区公园的服务强度。通过收集的大众点评网数据,包含经纬度和数量信息,接着通过GIS平台或“地图慧”工具能实现公园在城市上分布的可视化表现,再通过GIS平台生成相应的核密度图,可直观得知公园在城市中的分布规律。对比公园分布密度疏密的地区,特别是市区和郊区,分析成因,并提出加强建设区域公园的建议政策。

(二)服务均衡性

城市公园的服务均衡性,体现在人均绿地、公园覆盖率等。通过收集的网上统计的公园覆盖率、人均绿地面积,可以制作相应的柱状图,分析城市不同地区的公园情况。再通过GIS平台分析生成公园覆盖率图,分析公园在城市不同地区中覆盖的情况。对比公园分布密度疏密的地区,并结合调研和访谈结果,分析成因,提出协调城市各区域公园的服务均衡性的建议政策。

(三)开放使用情况

通过收集网上统计的研究城市的公园开放情况、使用情况及设施情况,可以制作相应的饼状图,再结合问卷和访谈结果,分析使用者对公园内部设施、清洁度和锻炼设施等硬件设施的评价,分析城市整体的公园开放使用情况、成因,并提出优化公园的开发使用的建议政策。

(四)交通设施便利性

先在GIS平台上描绘城市的公共交通道路网和地铁线路网,再提取大众点评网的地铁站点、公交站点和周边设施站点数据,通过GIS平台将数据可视化,生成相应核密度图。将线路网和公园核密度图叠加,和将站点设施核密度图和公园核密度图做对比,可以分析公园周边交通和设施的便利性,并探讨成因,提出改善公园周边交通和设施的建议政策。

(五)使用者满意度

使用者满意度可以由公园热度、评分和正负度反映。通过收集的大众点评网公园数据,分别将评论数量高和数量低的公园在GIS平台上进行可视化表现,能分析得到城市热度高低的公园的分布规律;再将评分高和低的公园在GIS平台上可视化表现,能分析得到城市评分高低的公园的分布规律;再通过网络舆情工具,收集城市公园的正负度和形容词的搜索指数,对比空间热度分布、评分分布图和正负度分布图,分析使用者满意度现状,并提出改善公园服务质量的建议政策。

四、对于城市公园需求(人群特征)研究方法

(一)人群画像

人群画像指城市公园内使用人群的性别比例、年龄结构、人群类型和来源省市,通过统计收集的微博数据和移动数据,制作相应的饼状分析图和人群分布图。分析城市公园内的人群画像,归纳出使用人群的基本特征。

(二)出行情况

使用人群的出行情况,主要包括出行交通方式、花费时间、使用目的、使用频率和停留时间,通过统计收集的移动数据和问卷调研访谈数据,制作相应的饼状分析图,可以分析城市公园内使用人群的出行特征及成因,并提出改善公园使用者的出行情况的建议政策。

(三)空间分布

公园使用人群空间分布,反映出不同区域的公园使用热度,对比城市人群分布和公园使用人群的分布,可以分析不同区域公园的使用效率。通过收集微博数据和移动数据,在GIS平台上实现空间可视化,得出城市人群的分布核密度图及公园使用人群的核密度图,分析人群的空间分布规律,并探究其中成因,对公园的建设提出建议政策。

(四)时间分布

公园使用者在工作日、休息日、节假日以及每天的不同时间段使用强度不同。通过收集公园内的微博数据和移动数据,根据时间整理出不同时间的数据,在GIS平台上实现空间可视化,得出城市人群在不同时间的分布规律,探究其中成因,并提出对使用者的出行有效的建议政策。

(五)使用需求

使用者对公园的使用需求,包括社会性需求、情感需求、功能性需求、知识需求和偶发性需求。获取的微博数据和大众点评网数据中,包含着使用者对公园的评价信息,通过语义舆情工具,提取出评价的关键词、舆情情况,从而归纳出人群的使用需求;再结合部分问卷调研和访谈,进一步验证出城市公园人群在使用需求方面的具体要求,并据此对公园的建设提出有利效建议政策。

参考文献:

[1]秦萧,甄峰,熊丽芳等.大数据时代城市时空间行为研究方法[J].地理科学进展,2013,(9):1352-1361.

[2]邓昭华.城市开放空间服务能力的研究方法探索[J].价值工程,2013,(35):7-11.

[3]崔永峰.游憩性城市公共空间使用状况评价(POE)研究[D].长安大学,2008.

[4]于彩娜.基于使用状况评价(POE)的城市公园研究[D].青岛理工大学,2012.

[5]李华.城市生态游憩空间服务功能评价与优化对策[J].城市规划,2015,(1):63-69.

[6]姜莎莎.综合性公园使用状况评价(POE)研究[D].北京林业大学, 2013.

作者单位:

华南理工大学

基于大数据的数据处理方法研究 篇4

关键词:大数据,预处理,历史查询

1 概述

随着无纸化电脑办公的不断普及,越来越多的数据被个人、企业和机器所产生,以TB或PB级别保存于存储中,数据量直线上升。传统的数据处理主要是对数据库的直接操作,随着数据量的急剧增加,处理效率将急剧下降。与此同时,有效的数据,正确的数据结果已成为企业竞争的核心因素之一。因此,所有这些对大数据的处理能力和效率提出了更高的要求。

为了更好的处理这些大数据,许多机构与公司开发了相应的新技术和新架构,主流思想是基于并行编程框架,以并行处理来提高数据处理效率,如Map Reduce[1]通过机器线性扩张线性增加并行计算能力,Map Reduce-Merge在Map Reduce基础上增加数据合并,YARN解决并行共享槽瓶颈。此外也产生了其他的编程模型,如提高迭代计算能力的Twister[3]和Haloop[2],提高对图计算的Pregel,但这些编程模型也是基于对Map Reduce的改进,基础依然是并行处理。

虽然针对大数据的并行处理,但处理TB级的大数据,如统计分析,依然需要花费很长时间,消耗很大的机器性能,这对企业交互式数据操作,依旧很难满足即时需求。针对这种情况,该文设计了一种基于大数据的数据处理方法,通过历史处理结果和预处理结果为中间结果集,减少数据重复处理,提高数据处理效率,为大数据的即时处理提供一种新思路和方法。

2 基于大数据的数据处理框架

图1是基于大数据的数据处理框架。该框架主要依据用户的查询请求,依据查询条件首先在历史查询集中匹配是否有相同或部分相同的查询,若有,确认历史查询集中的数据处理集是否都来自结果集,若是,直接返回结果,通过减少对数据的重复处理,从而减少时间消耗。

其中,历史查询集是对历史上用户某段时间数据查询时数据预处理结果,其结果包含两份分别存于预结果集和结果集。预结果集和结果集时间单位里的数据预处理结果,不过,预结果集表示有可能存在更新的最小时间单位数据预处理集合,而结果集表示不再变更的数据预处理集合,预处理结果粒度大小不一。工作流程如下所示:

1)用户提交新的查询请求S;

2)对查询请求条件与历史查询集进行匹配,匹配结果有三种:

1匹配,历史曾经有相同的查询,直接返回数据预处理结果集合;

2包含匹配,调用历史结果集中的数据预处理结果集合,对超出的部分从预结果集和结果集中进行重新匹配;

3不匹配,直接在结果集和预结果集中进行匹配查询,若是依然没有匹配的结果,执行新的查询操作,结果放入预结果集或结果集。

3)若数据处理集有来自预结果集,对来自预结果集的数据处理进行更新,若预处理的结果变为不再变更,转入结果集中。

4)对数据处理集合并处理,形成结果R,依据具体请求进行相关处理,将结果返回给用户。

5)若是结果R不是完全匹配得出的结果,将结果R更新到历史查询集中。

3 基于大数据的数据处理框架关键技术

基于大数据的数据处理框架的关键技术有查询请求与历史查询匹配方法、预结果集更新、转入结果集方法。

3.1 查询请求与历史查询匹配方法

数据预处理结果主要要素有时间、数据源,是基于时间单位的粒度式数据处理结果,如图2所示,它为企业的数据统计分析奠定快速反应的基础。

因此查询请求与历史查询匹配以两者为匹配要点。匹配算法为:

输入:查询请求Requst={Ts,Ds},历史查询集

输出:预处理结果集合Result

算法基本思想:

1)找到与查询请求数据源相同的数据库表集合T,T=Ts;

2)查找该表集合T下包含处理时间或是相同时间的历史查询记录,D={D=Ds or Ds∈D};

3)若是Ds不包含D,跳转结果集R匹配算法;

4)若是,从结果集和预结果集中得到相应的预处理结果,,结束算法;

5)若是Ds∈D,重复步骤4);

6)同时,D=Ds-D,重复步骤3)。

3.2 预结果集更新、转入结果集方法

数据预处理主要分为两大类,一是不再变更,客观存在的数据预处理,如几年前的销售数据,其保存在结果集中,二是存在变更的数据预处理,如近期的销售数据,可能会存在更新等情况,此类数据预处理以最小时间单位形式放入预结果集中,但在一定的规则下,如时间限制、产品停用等可转变为不可变更的数据预处理,转入结果集。

假设是对当月的淘宝销售数据预统计,因为当月的数据将会因为退货、货源不足等原因影响销售数据,故对当月的销售数据预处理结果将会存于预结果集中,但淘宝的当月订单状态结束状态时,更新包含该订单销售数据预处理集合,那么在对当月数据预处理后,其处理结果是不在变更的,将其转入到结果集中,减少不必要的数据处理,并在一定程度上保证数据的准确性。

4 仿真实验

4.1 实验环境

以Windows Server 2003为实验环境,Oracle 11g为数据库,以现有营销系统的销售数据为数据源,采用本文提出的方法对销售数据按最小周期(5天)、月、季度、年的方式进行预处理。以月为预结果集转入结果集的规则。

4.2对比方法

本实验将用现有的营销系统和新的统计系统对比统计销售数据所花费的时间和数据的准确性。具体设计以下比较方法。

1)最近一个周期某产品的销售量统计对比。在一周期内每日进行数据查询,对比每次花费的时间和数据的准确性。

2)时间段某产品销售量统计对比。进行多个时间段(周期,月,季度)数据查询,对比每次花费的时间和数据的准确性。

4.3实验结果分析

1) 最近一个周期某产品的销售量统计对比

图3和图4表明两个系统查询消耗时间差不多,新系统只是略少于原系统,但准确率一样,都为100%。这是因为查询的数据源是查询当天产生的数据,前几天的数据进行预处理,结果存于预结果集中,每次都查询都会进行前几天的数据更新,消耗大部分查询时间.但是因为数据实时更新,故两个系统数据准确率是相同的。

2)时间段某产品销售量统计对比

图5和图6表明两系统在时间段产品销售量查询时间新系统远小于原系统,但在准确率上有一定的降低.这是因为新系统对一个月以前的数据进行了预处理,并保存在结果集中。查询月以上周期的销售量时,不用重新到数据库中查询,故时间大幅度减少.但因为现有数据库操作是更新操作,若是订单的更新是超过一个月后更新的话,变更数据会被忽略,属异常个别情况。若采用销售数据变更采用云数据库等追加方式,则准确率上可得到解决。

5 总结

大数据分析方法 篇5

考虑行波效应的大跨度桥梁抗震分析方法

对大跨结构的地震分析方法做了简要的介绍和评述.大跨结构与普通结构相比,在地震作用下要考虑地震地面变化的.空间变化效应(即:行波效应、部分相干效应和局部场地效应等).基于这一考虑,重点介绍了多点非一致激励反应谱分析方法、非平稳随机响应的虚拟激励法和时程分析方法,最后给出一些建议.

作 者:刘承刚 LIU Cheng-gang 作者单位:河北邯郸市交通局,河北,邯郸,056002刊 名:工程建设与设计英文刊名:CONSTRUCTION & DESIGN FOR PROJECT年,卷(期):“”(1)分类号:U411 U442.5+5关键词:地震 反应谱 非一致激励 虚拟激励法 行波效应

大数据分析方法 篇6

关键词:高层体系结构;数据采集;过滤方法

1引言

随着分布式仿真(Distributed Interactive Simulation,DIS)技术框架的广泛应用,其仿真系统对延展性的要求逐步提高。对于规模较小的数学仿真,由于运算量和记录数据较少,可以在单台微机上运行;对于大规模的作战仿真。其运算量非常大,事后分析所需记录的数据量也非常大”数据采集是仿真的一项重要内容,只有通过数据采集和对有效数据的过滤,才可以实现回放、分析、评估等目的。

与DIS相比。高层体系结构(High LevelArohitecture HLA)通过采取联邦对象模型(Federation objecet Model,FOM)部分更新交换数据、系统延展、数据定购、时间与所有权管理等一系列措施,提高了仿真系统问的互操作性和仿真模型的可重用性。同时。这些措施也造成了仿真系统中的数据复杂化,增加了HLA仿真数据采集与过滤的难度。目前,数据采集与过滤方法集中在网络节点负载、数据计算和存储负载的扩缩矛盾之上,并且数据处理需要通过RTI来进行具体实现,但是RTI只能交换邦员之间必要的公用数据。因此通过RTI的数据不能满足数据采集与过滤的要求。

2HLA的结构与基本原理

HLA主要由规则、对象模型模板、接口规范三部分组成。HLA的规则是指联邦执行过程中实现联邦成员问的交互所必须遵守的原则和协定;对象模型模板规定了联邦开发人员开发产生的数据可采用的接口;接口规范是联邦成员和运行时间支撑系统(Run Time Jnfrastructure,RTI)间的接口规范。HLA联邦构成的逻辑表示如图1所示。

HLA中数据的管理提供基于类和基于值两种数据过滤方法,它们分别是通过声明管理和数据分发管理服务来实现的。

3利用动态编译实现数据采集过滤

利用动态编译数据采集工具的主要功能是采集联邦运行中产生的数据,以一定的格式保存下来,为事后分析和回放提供数据源。

数据采集工具实现的原理是其执行程序本身是独立于具体联邦的,但是它针对每一个仿真应用都可以生成相应代码来适应具体的需要。其过程为:首先通过配置向导来选择配置信息,培植信息的内容包括数据类型和联邦运行信息。其次,配置完成后,根据配置信息动态生成一系列代码,将代码形成动态编译,形成成员。此成员就是针对于具体联邦动态生成的数据采集成员。最后,用户可以在形成的对象类树表中选择需要定购的信息。在仿真运行过程中,就可以得到用户所关心的数据内容。图2给出了数据采集过滤成员主要组成和运行过程。

4分层对象数据采集过滤方法

借鉴HLA的设计思想,将实现数据收集的操作分为可公用部分和不可公用部分,对不可公用部分(与仿真数据定义有关的部分)与可公用部分(与仿真数据定义无关的部分)分别实现,通过公用部分的重用来最大限度地实现嵌入代码的重用。

按照数据收集过滤进行的过程,数据收集可以分成四层共五个部分,如图3所示。

应用层:这一层是仿真系统的应用部分,包括进行仿真、回放和分析等,这些都是仿真系统在实际应用中的具体功能。

控制层:选择数据收集过滤策略,包括需要收集的数据、数据收集进行的条件。

实现层:包括收集和获取两个部分。收集部分的功能是将各仿真数据转换为规定格式的数据;获取部分则将收集的数据通过过滤转换为仿真数据,提供给相关的分析使用。

数据层:包括操作和数据两部分,操作部分实现对数据的读写等操作。是数据部分与外界的接口;数据部分专用于数据的存储。操作部分将仿真数据存储方式的具体实现与仿真系统隔离,可以根据仿真的需要选择不同的数据存储方式。

5结束语

大断面公路隧道开挖方法数值分析 篇7

隧道的开挖过程是极其复杂的系统工程, 开挖方法的选择应根据隧道的埋置深度、所处地质情况及支护条件等因素综合考虑。本文依托大连某桥隧建设工程, 分别采用导洞法、单侧壁导坑法和双侧壁导坑法, 详细的分析隧道开挖支护后围岩的位移场和应力场, 以期确定该类地质条件下合理的开挖方法, 预测隧道施工中的险情。

1 工程概况

本工程以大连某桥隧建设工程为背景, 该公路隧道为分离式汽车专用一级公路隧道, 设计行车速度60 km/h。隧道建筑限界宽13.75 m, 高5 m。拟建东西线隧道间距19.30 m~151 m。隧道最大埋深为164.00 m。隧道洞身拟采用复合式衬砌混凝土结构。根据地质测绘、钻探、槽探资料, 该隧址区第四系由全新统素填土及晚更新统坡积的含碎石粉质粘土组成, 基岩为震旦系细河群桥头组 (Zxhq) 石英岩夹板岩, 部分地段为板岩夹石英岩。地层基岩产状:走向190°~283°, 倾向100°~193°, 倾角25°~58°。

2 隧道开挖的数值仿真模拟

2.1 计算模型及参数设置

由于该工程规模较大, 本文仅选取东线隧道典型断面EK1+660进行模拟, 该断面所处的围岩级别为Ⅳ级, 其物理力学参数根据工程地质勘察报告和参照文献[7], 其具体取值见表1。根据圣维南原理, 本工程确定计算边界在3倍开挖宽度范围内, 模型长120 m, 宽80 m, 高120 m。计算模型的前后左右施加法向约束, 底部施加竖向约束, 上表面为自由面。

围岩材料模型采用Mohr-Coulomb理想弹塑性模型。初期支护采用30 cm厚的C30喷射混凝土加双层钢筋网 (6.5, 20 cm×20 cm) , 采用实体单元进行模拟;锚杆力学及几何参数为:E=210 GPa, μ=0.3, 外径为25 mm, 长度为4.5 m, 抗拉强度为0.31 MPa, 采用Cable单元进行模拟。二次衬砌作为安全储备, 不予考虑。三种开挖方案工序见图1。

2.2 数值模拟结果分析

2.2.1 位移场分析

水平收敛和拱顶下沉是隧道围岩应力变化最直观的表现形式。隧道开挖后, 出现临空面, 岩体有了变形的空间。由于地应力的局部释放, 岩体因卸荷作用而发生位移变化。表2为隧道采用三种开挖方法时的周边位移计算值。隧道开挖支护后, 围岩水平位移整体变化不大, 右边墙水平位移略大于左边墙位移, 两侧边墙向内发生挤压。

考虑到施工过程相互影响的作用, 当左导洞开挖完毕后, 已经发生一定的位移变化, 在右导洞开挖的过程中, 因为施工对左导洞继续产生影响, 会使左导洞产生的应变持续增加。双侧壁导坑法由于每次开挖范围相对较小, 对周边位移影响较小, 因此位移变化量最小。

mm

2.2.2 应力场分析

从三种工法的最大主应力云图可以看出, 采用双侧壁导坑法时所受围岩压力不是很大, 边墙受力较均匀。导洞法和单侧壁导坑法在隧道开挖支护后最大主应力分布趋势略有不同, 但总体的分布趋势为拱顶出现拉应力, 仰拱中间也出现一定的拉应力区, 两侧边墙部分从拱腰至拱脚出现压应力, 拱脚处有不同程度的应力集中现象出现。

由以上分析可知, 拱顶、底板和拱脚易出现应力集中现象, 是隧道施工中的薄弱部分, 应及时采取措施, 防止围岩失稳。

3 结语

通过研究大断面公路隧道的三种开挖方法在施工中的影响, 得出如下结论:

1) 综合三种开挖方法, 隧道周边位移场均表现为:拱顶下沉, 仰拱隆起, 边墙向洞内挤入。拱顶、拱脚、仰拱是应力集中的主要部位, 有必要采取局部措施, 同时加强对隧道关键部位和薄弱部位的监测。

2) 分析比较三种开挖方法围岩的位移和应力变化可知, 双侧壁导坑法开挖每次开挖的范围最小, 受力更加均匀, 因此有助于维持围岩的稳定性。结合本工程的地质条件和施工特点, 作者认为双侧壁导坑法在控制围岩变形, 减小支护结构受力等方面有良好的经济适用性, 因此是该工程的首选。

摘要:依托大连某桥隧建设工程, 分别采用导洞法、单侧壁导坑法和双侧壁导坑法模拟大断面公路隧道的开挖过程, 详细分析了隧道开挖支护后围岩的位移场与应力场的变化, 通过对比研究, 得出双侧壁导坑法开挖过程位移变化最小, 受力均匀, 更有利于维持围岩稳定性的结论。

关键词:大断面,开挖方法,数值模拟,双侧壁导坑法

参考文献

[1]Gunter Swoboda, Ahmed Moussa.Numerical modeling of shotcrete and concrete tunnel linings[A].Tunneling and Groun Conditions[C].Netherlands:AbdelSalam, 1994:427-436.

[2]刘长祥, 吕常新.三车道大断面高速公路隧道稳定性数值模拟[J].地下空间与工程学报, 2007, 3 (4) :688-693.

[3]蒋树屏, 胡学兵.云南扁平状间与工程大断面公路隧道施工力学响应数值模拟[J].岩土工程学报, 2004, 26 (2) :178-182.

[4]段慧玲, 张林.大跨度公路隧道合理开挖方法对比研究[J].土木工程学报, 2009, 42 (9) :114-118.

[5]邹成路, 申玉生.软弱破碎围岩大断面隧道台阶法施工几何参数优化分析[J].公路工程, 2013, 38 (2) :27-31.

[6]童建军, 王明年.公路隧道围岩亚级开挖及支护设计参数研究[J].岩土力学, 2011, 32 (1) :515-519.

大数据分析方法 篇8

一、云模型的介绍

云模型主要是定性和定量转换的模型。在模糊数学和随机数学的基础上采用云模型来统一描画出语言值中存在的大量随机性、模糊性和二者间的关联性。用云模型来表示自然语言中的基元即语言值, 用云的数字特征即期望、熵以及超熵来表示语言值的数学性质。它既体现了代表定性概念值的样本中的随机性, 又体现了隶属程度的不确定性, 从而展示了随机性和模糊性之间的关联。目前, 云模型被广泛的应用到信任评估、图像分割和时间序列挖掘等领域上。

二、大数据典型相关分析的现状

人们在工程实践项目和科研工作中收集到的大量数据大部分都具备大数据的特性, 但是把大数据作为一个独立的科学来研究是比较新鲜的。其主要相关的研究领域有:生物信息领域, 一部分学者研究了生理电大数据的压缩和存储等方面问题, 将生物学研究中的搜集到的数据可以看做大数据;数据挖掘领域, 一些科学家研究了大数据挖掘中存在的在线特征的选择问题;大数据程序开发以及存储方面, 一些科学家研究了大数据和云计算现状等。在现阶段, 大数据研究过程中, 还存在诸多不成熟的地方, 需要对其进行进一步的完善。虽然一些学者探讨了在云计算平台下的大数据存储方法, 但是并没有对大数据典型相关分析进行研究, 也没有提出云模型下的大数据典型相关分析方法, 使得这一类的研究比较缺乏, 因此, 就需要加强对大数据典型相关分析的研究, 提出切实可行的方法, 从而完善大数据典型相关分析, 来满足大数据研究的需求。

三、基于云模型下的大数据典型相关分析方法

1、执行大数据典型相关分析的流程。大数据典型相关分析的流程包括:首先, 在各个云端上依据当前云端中的数据, 运用逆向云发生器形成云数字特征;其次, 把各个端点云传送到中心云端, 采用多维云进行合并, 最终在中心云端中生成中心云;再者, 依据中心云, 采取正向云发生器生成中心云滴;最后, 在中心云滴上实行典型相关分析。2、端点云的生成方法。利用逆向云发生器, 在云端中的数据中生成云, 就是端点云的生成过程。本文主要采用的是多维的逆向正态云发生器。为了提高在大数据中多维逆向正态云发生器生成云的效率, 可以在随机采样的方法下, 采取启发式的策略生成云。3、多维云的合并方法。在进行多维云合并时, 每次只能进行一对云的加法计算。当采用反复调用方式使, 每合并一次云, 其新生云需要加入合并的操作中, 使云的总体数量只能减少一个, 大大降低了合并的效率。在大数据的背景下, 由于受到数据存储或者收集方法的影响, 就会使不同云端产生的数据也不尽相同, 因此, 在合并各个云端传递到中心云端的云时, 要充分地考虑各云端数据的差异。

四、影响大数据典型相关分析方法的因素

1、中心云滴群的大小。随着云滴群的规模不断的扩大, 典型相关分析的系数误差也逐渐下降, 当达到一定程度时, 其下降的速度趋向平缓的状态。这就显示出适当的增大云滴群的规模, 可以有效地降低典型相关系数误差, 通过少量的云滴可以体现了大数据中包含的相关性。2、云端数量。不同云端数量对典型相关系数的误差有着不同的差异性, 当云端数量不断增多时, 其运行的速度也相对提高。3、数据容量。随着数据容量的不断增大, 其对应的典型相关系数的误差也随之上升。在大数据环境下, 典型相关分析系数的误差有一定的波动性, 同时期上升的幅度比较小。

五、总结

基于云模型的大数据典型相关分析方法主要是在小容量的中心云滴群中进行典型相关分析操作, 从而提高在大数据环境下执行典型相关分析的效率。为了能够快速生成中心云滴, 改进了多为逆向正态发生器, 进而提高了大数据下云的生成效率。同时也总结了多维云合并计算的方法, 提升了云合并的速度和质量。为之后类型的研究工作提供了可靠的理论依据, 进一步完善了云模型的大数据典型相关方法。

参考文献

[1]杨静, 李文平, 张健沛.大数据典型相关分析的云模型方法[J].通信学报, 2013, 34 (10) :122-133.

[2]顾鑫, 徐正全, 刘进.基于云理论的可信研究及展望[J].通信学报, 2011, 32 (7) :176-181.

大数据时代下的可视化方法分析 篇9

大数据概念引起了学术界、商业界、政治界的热切关注。继物联网、云计算、移动互联网之后, 大数据已经成为现代信息产业最受关注的概念之一, 它被誉为信息时代的新“石油”。大数据这一术语最早出现在IEEE第八届国际可视化学术会议上, 它于1997年被NASA研究员Michael Cox和David Ellsworth提出。然而这一概念的提出并未立刻引起关注, 但随着互联网技术的发展, 数据规模爆炸式增长, 超大规模的数据已经远远超出现代数据处理技术所能处理的范畴。正是这一原因使得大数据的概念获得了各界的关注。就学术界而已, 2008年《Nature》出版了“Big Data”专刊。2011年《Science》也在2011年推出数据处理“Dealing with Data”专刊。虽然这些文章主要围绕科学研究中的大数据问题进行讨论, 但这也说明“大数据时代”已经来临。对于大数据时代的到来, 国内外知名IT企业都相继推出了各自的大数据产品, 推动经济的发展。各国政府机构也开始研究大数据技术, 美国于2012年3月29日启动了名为“Big Data Research and Development Initiative”计划。我国对于大数据的研究也提出了指导性方针, 并被《国家中长期科技发展规划纲要2006-2020》、《“十二五”国家战略性新兴产业发展规划》和973计划确定为重点研究方向。目前为止, 大数据已在网络通信、医疗卫生、金融等方面得到应用, 为经济与国家做出了巨大的贡献。

对于大数据的定义有很多不同的提法。Michael Cox和David Ellsworth指出:数据规模超出内存、本地磁盘以及远程磁盘都不能处理的数据被称为大数据。麦肯锡全球研究院对大数据的定义为:无法在一定时间内使用传统数据库软件工具对其内容进行获取、管理和处理的数据集合。维基百科认为大数据是一个复杂而庞大的数据集, 难以用现有的数据库管理系统和其他数据处理技术来采集、存储、查找、共享、传送、分析和可视化。而目前被众多专家学者所接纳的是4V定义:大数据是具有4V特征的数据集, 其中4V特征为价值性 (Value) 、高速性 (Velocity) 、多样性 (Variety) 、规模性 (Volume) 。

在大数据背景下, 数据只有经过采集、解读与表达之后才能体现它的价值, 而可视化是让数据为大众所理解接受的最有效方式。因此, 大数据的可视化研究具有非常重大的意义。大数据时代给数据可视化带来了巨大的挑战, 以往的可视化技术不能被直接应用于大数据中, 需要对现有可视化技术进行改进或研发针对大数据的可视化技术。本文首先对可视化进行分析, 其次介绍现有的大数据可视化技术和一些大数据可视化的应用, 并指出目前大数据可视化所面临的挑战, 最后结合实例对大数据可视化的可行性进行分析。

2. 可视化分析

数据可视化是在20世纪50年代出现的, 典型的例子就是计算机创造出了图形图表。1987出现了科学可视化, 20世纪90年代初期出现了信息可视化。现如今, 数据可视化、科学可视化和信息可视化都被归入大数据可视化中。

2.1 数据可视化

数据可视化主要针对大型数据库中的数据, 这些数据具有严谨的数据格式。对于这些数据, 计算机能够很快处理并呈现在大众面前, 并清晰的展现数据之间的结构关系。数据可视化的主要步骤为获取数据、分析数据、过滤数据、挖掘数据、展示数据、数据总结和人际交互, 具有交互性、多维性、可视性等特点, 其主要技术包括几何技术、面向像素技术、图标技术、分布式技术等。

2.2 科学可视化

科学可视化又被称为科学计算可视化。科学可视化利用计算机图形学、图像处理技术来展示数据, 以往的可视化算法包括颜色映射方法、网格序列法、网格无序法、光线投射算法、线积分卷积法和点图标法等。而这些传统的科学可视化算法不能直接用于大数据中, 需要对科学可视化算法进行深入研究并改进。目前运用较为广泛的是分布式并行可视化算法, 这一方法具备一定的可扩展性, 随着数据规模的增大能够适应激增的计算节点。具体方法有分布式绘制以及基于GPU的快速绘制算法等。

2.3 信息可视化

信息可视化是通过人类的视觉能力理解抽象信息, 加强人类的认知活动。这要针对计算机与人之间信息交互的信息传递技术。信息可视化处理的数据都具有一定的数据结构, 并且都是抽象数据, 如语音信息、视频信息、图像信息、文字信息等。处理这些数据时, 先对数据进行描述, 再用可视化方法对其进行呈现, 最后用特征提取、优化等技术对其进行信息处理。

3. 大数据可视化分析方法

大数据时代的数据具有规模庞大与复杂度高的特点, 数据包含结构化数据、半结构化数据和非结构化数据, 这些特征给数据搜索、分析和理解带来了巨大的挑战。对于用户而言, 他们更关心数据处理结果的展示。可视化技术能够快速且有效地提炼数据, 帮助用户筛选数据, 使用户能够快速获取有用信息, 因此发展可视化分析方法对于大数据而言是一项刻不容缓的任务。

大数据可视化分析方法包括原位交互分析技术、数据存储技术、可视化分析算法、不确定性的量化、并行计算、领域资源库及其框架工具和用户界面与交互设计。原位交互分析技术能够大量地减少I/O开销, 实现数据使用效率最大化;数据存储技术主要指在公有云端存储数据, 这些存储数据的规模能够达到EB等级;可视化分析算法需把用户需求与机器学习相结合, 以创新的视觉表现方法向用户展示结果;不确定性的量化目的是减少数据不确定性带来的风险, 帮助用户做出正确的选择;并行计算可以有效地减少运行时间, 做到数据与用户的实时交互;领域资源库及其框架工具需要改进, 在最低能耗的基础上, 将用户所需的信息展示出来;用户界面与交互设计不同以往, 大数据时代需要考虑其可扩展性, 随着数据量不断激增, 用户的需求也将增大, 交互设计的可扩展性将是一项重要指标。目前为止, 大数据可视化分析方法已经应用于所有涉及计算机的领域, 包括医学、气象、建筑、航天、政务、金融等。并且结合不同领域, 各类大数据可视化分析编程工具应运而生。对于艺术家而言, 比较典型的可视化工具是Processing.js, 这是一款专为为艺术家创造的编程语言, 能够有效地让创作数据可视化;对于统计学而言, R语言能够兼顾数据处理和图形处理, 是一款有效地数据处理工具;D3.js是一款基于Javascript的互联网数据可视化工具, 既能进行数据处理, 又能兼顾展示效果。除了这些工具, Tableau、Visual.ly、Gephi和Impure等也是有效且应用较为广泛的可视化工具。

4. 可视化面临的挑战

在大数据时代背景下, 传统可视化方法捉襟见肘, 无法有效地处理数据。对大数据可视化的前提是能够有效地对数据进行分析处理, 然后对其进行可视化。现如今所面临的挑战主要有:

1) 数据规模庞大, 来源复杂, 且数据价值密度低, 处理数据花费的计算资源与时间过大, 导致人机交互时间减少, 容易造成工作流中断。

2) 进行可视化之前需要经过数据挖掘分析的步骤, 而如今数据分析算法效率无法满足大数据的要求, 导致无法保证数据处理的实时性, 因此可视化滞后。

3) 目前为止, 大数据规模远远超出人类认知和心理能够接受的范围, 只有不断提高认知科学的水平, 将数据以符合大众认知的标准呈现出来, 使得大众能够接受大数据, 并有效地应用大数据可视化成果。

5. 总结

大数据时代已经到来, 为了让大众能够享受大数据的成果, 大数据可视化技术发展刻不容缓, 现有的技术已经取得一定的成效。但随之数据规模的不断增加, 我们需要继续研究大数据可视化技术, 让所有人都能享受大数据可视化之美。

摘要:随着大数据时代的到来, 大数据可视化研究已经刻不容缓。基于对现有的可视化方法分析, 指出现如今大数据可视化发展面临的挑战, 为大数据可视化发展提供研究方向。

关键词:大数据,可视化方法,可视化挑战

参考文献

[1]Manyika, M.Chui, J.Brown, et al.Big Data:The Next Frontier for Innovation, Competition and Productivity[R].Mckinsey Global Institute, 2011:11.

[2]大数据可视化分析[J].计算机教育, 2015, 5:94-97.

[3]代双凤, 董继阳, 薛健.科学计算中大数据可视化分析与应用[J].工程研究—跨学科视野中的工程, 2014, 6 (3) :275-281.

[4]郑玉, 徐江.大数据:概念、技术及应用研究综述[J].南京信息工程大学学报, 2014, 6 (5) :405-419.

大数据分析方法 篇10

1财税数据分析现状

财税信息化建设,自上世纪80年代初起步,经历了单机应用、分布式应用、大集中应用和以数据管理为核心的大规模集成化应用四个阶段。各地财税部门通过应用系统采集各项业务数据,并推进与外部门的信息共享,不断扩大财税部门掌控的经济信息总量,夯实财税管理基础。各地财税部门在加强数据管理、深化数据分析应用、探索信息化支持决策与管理模式等方面,做了很多有益的探索,取得了一定成效。但是,如何有效地进行财税数据分析应用,提高税收管理的整体水平,一直是财税管理部门非常重视并急需解决的课题。

2财税数据分析问题

2.1基础工作需夯实

外部数据没有长期有效的获取机制进行保障;没有一套统一的采集工具或方式面向社会公众采集信息;部分急需掌握的外部数据无法获取,或者数据更新频度较低;内部应用系统各部门分别建设,互相间数据的定义规则、标准不一致,系统间公用信息无法交互;指标体系设计缺乏全局性,各相关业务指标的数据契合度不高。

2.2应用水平待提高

各部门对数据的资产价值认识水平不同,深入分析挖掘获取数据潜在价值的意识参差不齐,各单位对数据查询分析工具应用水平不同;分析系统所需数据的维护时效性不高,制约数据连贯性成长;分析工作在横向部门间、纵向单位间关注点不同、要求不一致,各级部门在执行力度上存在差异性;面向业务分析多,面向决策、内控、行政管理少;直接分析多,预测分析少。

2.3统计分析需整合

各部门之间统计工作自成体系,各自为政,相互之间的资料交换和信息共享程度不高;对已有数据,缺乏进一步的加工整理,数据综合分析还有所欠缺;财税业务数据关联分析不足,存在数据孤岛,未形成一体的财税数据分析体系;财政数据对税收业务决策的指导作用未能发挥,税收数据对财政业务的监管效能也未能体现。

3提升数据分析思路

提升数据分析应用水平,应以数据应用为核心、以数据分析为导向,以业务与数据相结合为驱动,形成财税数据治理机制。数据分析应用着眼于引领财税科学发展;数据分析应用着眼于服务经济发展大局;数据分析应用着眼于研判政策执行效应;数据分析应用着眼于提升业务决策能力。应用先进的技术搭建财税数据云平台,基于平台构建财税统一报表体系和财税收入运行形势的数据分析模型,为决策层、管理层、操作层提供全方位、多层次的数据支持,有效反映财政资金和国地税收运行结果,进一步提升财税管理和决策水平。

4财税数据分析方法

4.1搭建财税数据云平台

建立绿色高效、简单快速、成本节约的财税数据云平台。云计算是一种能够方便、按需从网络访问共享的可配置计算资源池的模型,虚拟化和集群技术是云计算的核心。因此,短期目标可以是建立基于虚拟化技术的财税私有云平台,远期目标则是引入集群技术和第三方云服务,建立包含私有云和公有云的财税混合云平台。

4.2建立有效工作机制

提升数据分析水平,需建立七个机制。一是,建立纵向分层管理机制,明确省局和基层两级工作重点;二是,建立横向分工协作机制,明确牵头、配合部门;三是,建立信息交流共享机制,将外部信息交互通过联席会、协议等方式确定下来;四是,建立督导反馈机制,对数据分析等方面的工作情况进行督导和反馈;五是,建立绩效考核机制,将数据治理工作情况量化为考核指标;六是,建立分析成果交流机制,将各方在数据治理中取得的经验进行交流和共享;七是,建立人才储备机制,培养锻炼一批理论素养高、实践能力强的复合型人才。

4.3完善数据质量管理体系

引入元数据管理理念,规范业务数据标准,建立数据采集标准和清洗,形成财税系统基础业务数据规范,严把数据采集关、录入关和审核关。制定贯穿信息采集、存储、查询、应用等全过程的信息管理规范,建立信息标准体系,统一财税信息的数据标准、口径,采取有效措施切实加强数据质量管理,保证信息的准确采集和规范使用。建立全面完善的异常数据检测、监控,不断完善数据审计规则,将数据质量管理工作转为常态化日常工作。

4.4完善财税分析报表体系

统一数据口径,实现云集报表查询、定制查询、领导查询和自由查询为一体的数据利用云平台。为财税各部门、各单位及一线工作人员提供切实可行的数据分析结果,为领导决策提供更为科学有效的支持。依照业务规则形成逻辑统一的数据主题树,并依据此主题树,利用报表、图表、多维分析、即席查询等多种工具,为用户提供实时、周期性、一次性的报表、图表及数据查询等内容。

4.5完善财税分析指标体系

通过业务流程贯通,整合各系统间共享数据及业务相关数据,用数据揭示经济发展、产业结构,行业税收征管状况的内在联系。挖掘各类财税数据间的潜在价值,挖掘主要业务之间、主要业务和边界业务之间的关联关系,发现数据在业务之间的桥梁纽带作用,以点带面,点面结合,全面推进数据利用工作。对业务进行相互关联分析,深入挖掘业务数据之间的关联关系可以充分提高数据利用深度,带动发现边界数据问题,提高数据的利用效能。

5总结

大数据分析方法 篇11

关键词:大数据方法;新闻传播创新;理论定义;操作路线

中图分类号:G210 文献标志码:A 文章编号:1001-862X(2014)04-0005-003

一、大数据方法与新闻传播创新

1.何谓大数据

提到大数据的大,一般人认为指的是它数据规模的海量——随着人类在数据记录、获取及传输方面的技术革命,造成了数据获得的便捷与低成本,这便使原有的以高成本方式获得的描述人类态度或行为的、数据有限的小数据已然变成了一个巨大的、海量规模的数据包。这其实是一种不得要领、似是而非的认识。其实,前大数据时代也有海量的数据集,但由于其维度的单一,以及和人或社会有机活动状态的剥离,而使其分析和认识真相的价值极为有限。大数据的真正价值不在于它的大,而在于它的全——空间维度上的多角度、多层次信息的交叉复现,时间维度上的与人或社会有机体的活动相关联的信息的持续呈现。

以数据的交叉复现对于还原真相的价值为例:一个家住北京的男人借去杭州出差的机会到上海与情人幽会,回到北京后怕被老婆发现,把相关的短信、微信、通话记录统统都删除掉;但他老婆如果掌握了大数据分析方法的话,便很容易获得真相:查询酒店的开房记录、刷卡消费的记录、甚至他在上海期间一不留神转发的一条微博都可能透露出他的位置信息。正如《大数据时代》中所引述的,一个孕妇的口味及消费模式等是有一定规律的,单一一条信息并不足以判定她的状态,但关于她的不同来源的数据集合一旦与孕妇特型(如果我们掌握了这个分析模型的话)高度相关,人们便很容易对她的真实状态进行一种准确的判断而不管她自己承认或者不承认。

因此,大数据分析的价值和意义就在于,透过多维度、多层次的数据,以及历时态的关联数据,找到问题的症结,直抵事实的真相。

2.何谓大数据方法

大数据的数据与过去传统的结构性的数据有很多不同。过去结构性的数据比较单一,成本、时间耗费比较多,而且从它的数据量以及解释的单一化的层面上来说,其实都存在着缺陷,但是传统数据的优势在于结构性好、功能性强。大数据来自于生活的自然流露,包括在生活中的购物行为、搜索行为、表达行为等等,这些都反映着人的真实生活状态。因此大数据的数据来源本身随着数字化记录、存储和传输技术的日臻完善而变得非常丰富,而且其数据的采集几乎可以与信息的发生同步,获得数据信息的成本又很低,等等。至于大数据分析,现实的情况是,说的人很多,鼓吹其神奇价值的喧嚣声浪很高,却鲜见其实际运用得法的模式和方法。造成这种窘境的原因无外乎有二:一是对于大数据分析的价值逻辑尚缺乏足够深刻的洞察,其次便是大数据分析中的某些重大要件或技术还不成熟。

3.何谓大数据新闻传播

大数据新闻传播不同于传统新闻报道那样的简单数字交代,而是展示了一种从宏观与中观的层面对与社会某一方面的趋势、动态和结构性的把握。作为大数据方法在新闻传播时间中的初级应用是借助类似百度指数等各类数据采集和分析工具去挖掘散落在社会文本“碎片”中的具有新闻价值的资讯描述和意义表达。传统的新闻采集数据的方式更多的是通过线人、采访这种形态,大数据方法为媒体工作者提供了一个全新的专业工具,去帮助大家挖掘新闻。

大数据方法视野下的新闻传播创新包含这样两个层次的内涵:首先,它是新闻形态的一种创新,包括可视化信息、人性化的嵌入。其次,它是一种全新意义上的内容创新,及通过碎片化的数据及文本的挖掘技术,实现了新形态上的“减少和消除不确定性”的新闻内容。

二、大数据在新闻传播领域的实际应用

目前利用大数据资源的实际社会成效、有实际影响力的产品依然屈指可数。数据源的代表性和价值、良好的供给与需求的合作以及有广泛影响力的平台,是大数据应用获得成功的两条重要因素。

大数据可以实现一种在兴味盎然的“新闻游戏化”的参与中完成的传播读解和消费的过程。例如《华盛顿邮报》关于奥巴马就职典礼的报道在其网站中贴出了千兆像素的巨幅图片展示奥巴马宣誓就职场景,它可以清晰地放大每一个局部,让每个参与者“找到”自己和自己的熟人。还有获得2013年美国新闻奖的雪崩报道,以及阿拉伯之春立体四维报道西亚北非17国的情形,都是运用最新大数据的技术手段改革新闻报道的典型案例。

近期较为成功的大数据报道的案例,就是央视《新闻联播》在2014年春节期间播出的11集“据说”春运和春节。数据说春运和春节的成功有几大因素,其中包括新闻形式上的可视化的突破、内容上的数据化新闻和故事化的画面表达,呈现出“大数据小故事”。

大数据已经是一种客观存在。只不过,相当长一段时间人们缺少有效整合这些数据的技术和手段,并且使用起来成本很高。互联网的OTT突破了原来的局限,解决了信息不对称的问题。其中的关键是大数据拥有方的合作与开放。本次作为“据说春运”节目的合作方的百度公司,百度作为最大的中文搜索平台,每天要处理60亿次相关的搜索请求,其海量的数据能够相当翔实地反映中国网民具体的需求、兴趣点,搜索者本人的个人特点,等等。实际上,百度已经可以被视为是中国最大的内容提供者。

三、现阶段大数据方法在新闻传播创新中的难点与关键

大数据方法在新闻传播创新中的难点与关键,现阶段主要集中在大数据方法与新闻传播价值逻辑之间的矛盾,以及大数据的数据源的开放等问题。

1.大数据与新闻的价值逻辑之间的矛盾

大数据与新闻报道之间存在着几对矛盾。首先,实际上的相关关系在新闻传播中进行因果关系的解读所构成的矛盾。大数据的核心特色是强调伴随性指标的相关关系,大数据方法甚至于公开拒绝因果关系的认识逻辑。但新闻的传统解读却是具有强烈的因果逻辑的。如果在新闻报道的呈现中不把因果关系考虑进去,不但与人们的认识逻辑相悖,而且也容易滋长解读上的随意性和偶然性,这样便使数据对于新闻报道来说失去了核心意义。其次,大数据的内在逻辑与新闻表达的逻辑在某种程度上是相悖的。因为大数据强调的是信息结构化,抛开故事中心,“去故事化”,这就和传统报道中的故事化诉求有矛盾。如何将结构化的数据表现出人类生活的温度和质感是大数据在应用于新闻传播过程中的一项极为重要的课题。另外,大数据方法与新闻传播所要求的精确性之间也是存在矛盾的,新闻是要讲究精确性,而大数据方法却是以模糊性的呈现和把握为特点的。endprint

2.数据源的开放问题

在人人都在说大数据的时代,数据源的开放便非常重要了。互联网本身是由开放精神组成的。如果我们无从得到权威的数据源的话,大数据方法就是一句空话。因此,大数据时代,Google也好,百度也好,必须有开放的心态。因为数据一旦不公开,就像很多媒体在前两年打造自己的微博,看起来是一个交流的平台,但是完全忽略了一个核心东西——只有开放和实现彼此连接,才是具有真正交流价值的平台。就现实而言,有质量的大数据源常常是掌握在政府及大公司手中,如何开放这种大数据源的使用,事关社会的发展和人民生活的福祉,必须从制度和机制上给予保障。在这方面,美国政府的数据开放政策不但为政府开放数据源起到了一种很好的参照作用,对于大公司所掌握的数据源的开放也有着重要的借鉴意义。如果掌握着数据的公司或政府将数据源封闭在自己的圈子里,数据的巨大社会价值和商业价值就无法实现。实践表明,对于掌握着数据源的大公司和政府而言,数据放开使政府和公司得到的会比贡献出去的更多。

大数据方法在未来发展中的“行动路线图”是怎样的呢?首先,大数据分析在方法论上需要解决的问题在于:如何透过多层次、多维度的数据集实现对于某一个人、某一件事或某一种社会状态的现实态势的聚焦,即真相再现;其中的难点就在于,我们需要洞察哪些维度是描述一个人、一件事以及一种社会形态存在状态的最为关键性的维度,并且这些维度之间的关联方式是怎样的,等等。如何在时间序列上离散的、貌似各不相关的数据集合中,找到一种或多种与人的活动、事件的发展以及社会的运作有机联系的连续性数据的分析逻辑。其中的难点就在于,我们对于离散的、貌似各不相关的数据如何进行属性标签化的分类。概言之,不同类属的数据集的功能聚合模型(用于特定的分析对象)以及数据的标签化技术,是大数据分析的技术关键。

其次,从表现角度来说,嵌入是关键词。我认为,大数据呈现的结果和结论,与人的需求、人的行为、人的认识逻辑需要有一种相适应的嵌入。尤其是在大数据刚刚进入到社会生活领域的时候,一定要顺势而为,跟人的需求相关,跟人的认识行为逻辑相关,这样人们就比较容易去解读它,然后去把握它,去消费它,去使用它。比如,与新闻媒介相结合的时候,新闻媒介自身的传播逻辑、传播规则、传播样式,新闻媒介在传播过程的需求点上,可嵌入哪些以大数据的服务、大数据的呈现,这要有更多的数据专家去解读。

最后,与现有的可视化技术发展相联系。日常生活中一些重大的新闻如果能够运用大数据来报道,其深度会大大强化,也能够给人以更强的动感和说服力,并且帮助人们比较准确地把握未来。在这个意义上,大数据与新闻的结合,将是新闻竞争的巨大技术驱动力。

大跨度桥梁工程施工控制方法分析 篇12

1.1 大跨度桥梁的施工控制的发展历史

大约是在19世纪中期以前的时候, 绝大部分的桥梁都是采用的支架施工的方法。在整个工程施工的过程中主桥梁一直都是处于在一个无应力的状态下。随着交通事业的不断发展, 随着现在桥梁的跨度的不断增大, 特别是需要跨越大江大河, 支架式施工变的相对比较困难, 不太可能, 也不太实现了。在这中情况下, 出现了悬臂桁梁的的施工方法, 在悬臂桁梁的施工中的应力与实际施工中的应力一致。悬索桥成为了19世纪20年代中期采用的最多的大跨度桥型。20世纪70年代的时候, 随着预应力混凝土的发展逐渐趋于成熟, 挂篮悬臂浇筑混凝土的无支架施工方法随即诞生, 随着这种施工控制方法的广泛使用, 促进了大跨度桥梁的建设的发展。

1.2 大跨度桥梁的施工控制的发展趋势

目前, 国外很多的发达国家已经将桥梁的施工控制工作纳入了施工管理工作了。控制方法从以前的人工测量, 分析和预报发展到现在的自动监测, 分析和预报的计算机控制系统, 趋向自动化的发展。现在许多的发达国家除了重视施工中的控制以外还比较重视桥梁服役状态的控制工作。智能控制即将是大跨度桥梁的施工控制的发必然展趋势。

2 大度桥梁的施工控制的重要性

自架设体系施工方法是将桥梁分结构的进行施工。这种施工的方法的使用使桥梁的结构在整个施工中都处于较为复杂的内力与移动的变化状态, 为了保证施工的质量和桥梁的安全, 为了安全可靠的建好每一座桥梁, 施工控制是必不可少的。施工控制的目标就是使桥梁的线性和受力状态符合设计要求, 同样, 这也是衡量一座桥梁的质量的一个标准。施工系统不仅是建设桥梁的安全系统, 更是桥梁在运营中安全性和耐久性的一个综合监测系统。

桥梁施工控制是桥梁建设的过程中能够确保的一种安全保证, 由于桥梁的设计的落著点是桥梁的整体, 所以就难以详细到施工过程中各构件的受力状态, 这样就得对施工过程的每个阶段进行预先分析和跟踪, 及时发现问题, 及时调整解决。

3 施工前的准备工作

测量定位:对桥梁中心线开工之前, 应首先进行施工放样, 并报监理工程师检查批准, 在施工工程中对所有检测数据进行记录, 尽量把误差的值降低到最小, 测量完成后, 测量记录及成果资料提交给监理工程师, 待审查合格后, 作为原始记录保存。在开工前对所需要的材料送到中心试验室中进行复试, 并把结果上交给监理工程师, 等待监理工程师的审判结果, 再进行施工。

4 大跨度桥梁施工控制的3种方法

目前, 施工控制中世界上主要使用的大跨度桥梁的施工方法:1) 采用纠偏终点控制的方法, 就是指在建筑施工中对主桥梁的线形偏差的因素进行跟踪控制, 随时进行纠偏, 最终达到设计试图的理想效果。这种方法是采用kalman滤波法和灰色理论等等。这种施工的方法工作量大, 控制效果还不一定理想;2) 应用现代控制理论中的自我适应控制法, 就是对施工过程中的标高和内力实测值和预测值进行对比, 对桥梁结构的基本主要参数进行识别, 找出产生偏差的原因, 从而对参数进行修正, 进而达到控制参数的目的。使实测值和预测值达到设计的理想状态;3) 方法就是在设计是给主梁标高和内力的宽容度一个最大值, 从而减少了控制的难度。

5 大跨度桥梁的施工控制结构计算方法

5.1 桥梁结构的理论计算

大跨度桥梁一般都是采用分阶段逐步进行施工的方法进行施工的。在施工过程中的每一个阶段的变形计算和进行受力分析是桥梁结构施工中最基本的内容。为了达到施工控制的目的, 必须对桥梁施工中的每个阶段的变形和受力情况进行预测和监控。必须通过合理的运算和理论分析来确定施工中的每个阶段的变形和受力情况的理想状态。以便控制施工过程中每个阶段的结构行为, 使其最终的成桥线形和受力状态满足最原始的设计要求。

5.2 施工控制的结构计算的主要方法

1) 正装分析法

目前世界桥梁施工控制结构的基本计算方法主要包括以下三种:正装分析法、倒装分析法还有无应力状态计算法。在进行正装分析前必须制定详细的施工方案, 正装分析计算法是按照施工方案中确定的施工加载顺序来进行结构变形和受力分析的, 优点是能较好地模拟桥梁结构的实际施工历程, 得到桥梁结构在各个施工阶段的位移和受力状态。这不仅可以用来指导桥梁的设计和施工还对给施工控制提供了可靠的依据。能较好的考虑一些与桥梁结构形成历程有关的影响因素。为完成桥梁结构施工控制奠定了基础, 对各种样式的大跨度桥梁都得先使用正装分析法。

2) 倒装分析法

施工预拱度应按照桥梁结构实际施工加载顺序的逆过程来进行结构行为计算和予以确定。其目的就是获得桥梁结构在各个施工阶段的理想安装位置, 只有按照倒装计算出的桥梁结构各阶段中间状态去指导施工, 才能使桥梁的成桥状态符合设计要求。一般现在大跨度桥梁施工控制结构都采用倒装分析法, 倒装分析法的基本思想是先假定结构的成桥线型满足设计的最初要求, 在次状态下, 按照施工的逆过程对结构进行倒拆。由此得出来的位移和内力状态是施工结构中理想状态。

3) 无应力状态法

无应力状态法是以桥梁结构中各个构件的无应力, 长度和曲率不变为基础, 将桥梁结构的成桥状态和施工中各个阶段的中间状态联系起来。这种计算方法适用于大跨度拱桥和悬索桥的是施工中。在大跨度桥梁的施工控制中, 由于桥梁结构的非线性问题和混泥土的收缩问题, 徐变问题等各种问题, 使无论是倒装分析法还是无应力状态法分析出来的结果都不会和正装分析法分析出来的数据完全吻合。所有在真正的施工控制中会用倒装分析法或无应力状态法与正装分析法交替使用, 直至计算的结果都相互吻合为止。

6 施工监测

对几何形态的监测, 主要内容包括:标高, 跨长, 线形, 结构变形还有位移等内容。结构截面的应力或应变的监测。结构截面的应力或应变的监测是施工监测中的一个最为主要的监测任务, 它是施工过程中的安全预警系统。合理的选择结构截面, 对其应力进行相应的跟踪观测是施工过程中的安全保证。索力监测, 对于悬索桥和斜拉桥来说, 其主缆索以及其索力是施工监测的主要参数之一。

7 参数误差分析和识别

在实际施工中, 桥梁结果的实际状态与理想的状态总是存在误差的。这主要是有设计参数误差, 施工误差, 测量误差, 结构分析模型误差等综合干扰因素所致。误差分析是施工监控的一个难点, 也是施工监测中比较不成熟的一个部分, 主要原因是测量的数据比较少而影响的因素比较多的矛盾引起的。所以, 为了更准确的分析, 必须增加测量点, 增加测试工况, 曾加测试内容。通过不断的试验首先应先找出引起桥梁结构偏差的主要设计参数, 然后就是运用各种理论和方法来识别这些设计参数, 最后得到设计参数的正确估算值。通过修正设计参数的误差, 使桥梁结构的实际状态和理想状态相一致。

8 结论

大跨度桥梁在施工控制之前, 必须建立一个完善的控制管理系统和阻止机构。施工控制是一个难度较高担不是一个孤立的施工技术问题, 它涉及设计, 施工监理等单位的工作。从多方面着手对桥梁的施工进行控制, 以确保桥梁施工的质量问题。桥梁施工控制是桥梁建设的一种安全保证, 为了保证施工的质量和桥梁的安全, 施工控制是必不可少的。

参考文献

[1]向中富.桥梁施工控制技术[M].北京:人民交通出版社, 2001.

[2]于长官.现代控制理论[M].黑龙江:哈尔滨工业大学出版社, 1998.

上一篇:经济管理模式下一篇:情感霸权