数据策略(精选12篇)
数据策略 篇1
所谓数据是指学生在科学探究活动中通过观察,实验等得到的相关实验数据。对于学生来说,数据是他们在科学探究过程中最真实的记录,是他们通过观察、测量、实验、记录等方式获得的,是科学探究的依据。对于科学教师来说,不懂得数据在科学教学中的重要性,就不能充分理解科学的本质是“严谨和证据”,就不能引领学生理解什么是证据,怎样获得可靠的证据去解释世界,就不可能在课堂上引领孩子们真正上好科学课。
良好的数据意识,能使学生努力通过实验寻求有利的数据来证明自己的观点,自觉运用数据来解释相关的问题或现象。教师数据意识的高低直接影响着学生数据意识和科学素养的培养。
可是,在小学科学教学中,由于种种原因,数据经常会被教师所忽视,有时还会被学生一些不真实的数据所迷惑,蒙骗过关,这对培养学生尊重事实、尊重证据的科学态度是极其不利的。教师如果细心留意或核对那一张张学生实验数据记录单,也许就会发现许多值得深思和研究的问题。
笔者经过近两年的实践研究,采取了一些教学策略,收到了良好的教学效果。
一、针对无效数据,组织讨论,重视证据意识
在小学科学教学过程中,很多问题的解决都要依赖于数据,我们要合理有效利用学生在观察、实验探究过程中得到的数据,让学生自觉运用数据来解释相关的科学问题,不断利用数据证明自己的观点,培养实事求是、用事实说话的科学精神和态度,提高科学探究的效率。但小学生由于年龄小,他们的头脑中还不太有证据意识,也不太清楚只有真实、有效的数据才能得出科学结论的道理。他们往往喜欢随大流,人云亦云,缺乏主见性,随意性很大,有的甚至在实验中更改数据。这些无效的数据影响了科学探究的真实性,也不利于学生形成实事求是的科学态度。科学课中,我们经常让学生通过收集数据、整理数据来得出科学结论。这里的数据必须是真实的,我们一定要让学生在完成实验的基础上,把最真实的数据拿出来进行分析。
【课例1】《磁铁的两极》(教科版三下)教学片段:
笔者要求学生做“磁铁什么地方的磁力大”的分组实验,发现有一个小组,在挂回形针时,两极挂的个数都是6个,而两极内侧的点也分别挂了6个。在小组汇报交流时,他们发现其他小组都是两极挂的回形针最多,这时小组中有同学提出“我们可能做错了,两极挂的回形针应该最多,怎么办?”他们经过讨论,最后改了记录表中的数据,把两极挂的个数由6个改为7个。
【课例2】《100毫升水能溶解多少克食盐》(教科版四上)教学片段:
在确定研究主题、制定好研究方案之后,学生以小组为单位进行了探究活动。12分钟后,看到大部分小组都完成了差不多了,就让学生停止实验,汇报实验结果。全班12组同学都进行了汇报交流,根据同学们汇报的数据分析得出100毫升的水大约能溶解食盐36克,实验结果出来后,自我感觉一阵轻松,觉得学生的实验很成功。但后来我发现还有两个小组还在往杯中加盐,究其原因方知刚才的实验还没做完,所报的数据当然就不可能是最后的实验数据。
作为一名科学教师,在学生开展科学探究活动的过程中,一方面,要让学生明白真实数据是科学探究活动的首要条件,尊重数据是科学探究活动必须遵循的准则。让学生明白科学是讲究证据的,必须实事就是,尊重科学事实。科学的结论是经得起证实,也经得起证伪的。强调要“像科学家一样去探究”,同时,渗透一些科学家尊重事实、尊重证据的事例,促进学生实事求是科学态度的形成。
另一方面,教师要时刻关注学生实验数据的收集过程,不能光看学生实验的结果是否正确,急于下结论,忽略了学生得出结论的依据。教师要明察秋毫,不要被学生一些虚假的或无效的数据蒙骗过关。如果一旦发现问题,教师要不惜时间,把问题放大,组织学生讨论,使他们认识到科学探究学习讲究“证据”,科学实验就是让我们收集证据,对数据进行整理分析、得出结论;在实验中应该尊重事实,实事求是,如实记录、汇报实验数据,绝对不能更改、捏造实验数据,要保证实验数据的真实性、有效性,只有这样,才能得到科学的结论。
二、借用不同数据,提出问题,激发探究动机
问题是科学探究的前提,是开启任何一门科学的钥匙。没有问题就不会有解释问题的思想方法和知识。可见,发现问题并提出问题对小学科学教学具有重要的意义。我们可以设置一个真实的任务情景,来激发学生的思维,驱动学生提出问题和做出假设。在数据收集型科学探究中,可以从学生实验得出的不同数据出发,启发学生提出探究的问题,激发学习科学的动机和思维的活跃性,从而主动投入到科学探究中。
【课例3】《电磁铁》(教科版六上)教学片段:
笔者首先让学生自己做一个电磁铁,再数出电磁铁吸住大头针个数,然后将各小组的实验数据进行了整理汇总,如下表:
我看了一下同学们汇总的这些实验数据,发现各小组的实验数据差距较大,如第七组是3个,而第八组是6个,竟相差一半!笔者觉得这些数据的背后有文章可做,于是因势利导,与学生进行了下面的对话:
师:看到这些数据,你们有什么想法吗?
生:为什么每个组的电磁铁吸住大头针的个数不一样?
生:电磁铁的磁力大小和什么因素有关?
师:想知道原因吗?好,让我们继续来探究吧!
笔者针对学生实验得出的不同数据,及时引导学生提出问题,引发学生思考,点燃了学生思维的火花,激发了学生探究的动机,从而使学生产生持续探究的欲望,提高了探究活动的质量。提出问题是探究活动的首要环节,也是保护孩子们的好奇心和激发求知欲的关键环节。
三、利用正确数据,分析整理,形成科学概念
在小学科学教学中,对于学生提出的各种假设,无论多么幼稚,教师都不要轻易作出否定或肯定性的结论,而要让学生通过多种途径收集证据来验证。可以让学生收集实验数据,运用分析、比较、判断、推理等认识方法,对事物现象或结果作出合理的解释。
数据收集的过程是学生实践的过程,也是他们最喜欢的环节,但学生在科学探究活动中收集的数据就像一颗颗珍珠,只有整理成一串才能成项链,也才能发挥其应有的作用。数据整理成证据,才能支撑结论,才能形成科学概念。
【课例4】《磁铁的磁性》(教科版六上)教学片段:
笔者要求学生在条形磁铁上取A、B、C、D、E五个点(两个点之间的距离相等),在各点上首尾相连挂回形针,根据所挂回形针的数量来判断磁铁各部分磁性的强弱。学生实验后,将实验数据统计如下:
师:发现了什么规律?
生:中间磁性最弱。
师:你是怎么知道的?
生:每个组中间都是0。
师:你还有什么发现?
生:磁铁两边磁性最强。
师:说说你的理由。
生:每组的实验都是两边挂的回形针最多。
师:通过刚才对实验数据的分析整理,我们知道条形磁铁两边磁性最强,中间磁性最弱。磁铁磁性最强的地方叫磁极,条形磁铁有两个磁极。
数据分析是一个思维发展的过程,老师在引导学生分析数据时不能只为了得到正确结论而匆匆进行。应该遵循学生的思维发展,真实客观分析数据,得出正确的科学概念。在这里,每一个单一的数据只能证明事物在一个点上变化的结果,不能代表其它;每一组数据只能证明事物在一个变化周期里的结果,不能代表普遍现象;多组重复实验的数据能证明事物在一定条件下,具有的相同的变化结果,具有普遍性。在科学探究活动中利用各种方法得到的大量数据,需要通过整理和分析,才能发现彼此之间的联系和规律。教师重视数据收集、整理、分析及方法的正确指导,才可以帮助学生形成正确的科学概念。
四、正视异常数据,反复验证,培养反思精神
学生在科学探究过程中,由于操作和测量等不同因素,有时取得的数据会不一致,会出现一些异常数据。如果数据本身有问题,那我们依靠数据得出的结论也会不正确。这些异常数据处理不当会导致学生错误的解释,影响学生形成正确的科学概念。所以要分析数据前先要让学生思考“我们得出来的数据都能使用吗?”,而能够从容面对异常数据的同学比较少。教师要引导学生明白在探究过程中出现异常数据是很正常的。要排除异常数据,必须认真分析,并反复验证。学生在排除异常数据的同时也培养了反思精神。
【课例5】《100毫升水能溶解多少克食盐》(教科版四上)教学片段:
笔者让学生做100毫升水能溶解多少食盐的实验后,将学生的研究结果汇总写在黑板上。
师:你从上面发现了什么?
生:我们发现溶解了食盐34、36克的组最多。
师:在十组数据中哪些数据是可以供我们做下一步分析的?哪些数据是要剔出不做考虑的?
生:第1组和第9组要剔出不做考虑的。
师:第1组和第9组的数据跟其他几组相比,是异常数据,你能分析一下原因吗?
生:可能第一组放的每一勺比较多,而第9组放的每一勺比较少的缘故。
师:出现异常数据后,我们怎么办?
生:他们两组重做一遍。
师:我们请第1组和第9组同学上讲台重做实验,其他同学认真观察,仔细查找原因,随时帮他们指正。
我们要重视学生取得的每一个数据,更应该关注异常数据,对异常数据不能视而不见或一棒打死。教师要亲身介入学生的探究活动,关注每一小组的情况。特别是那些数据和现象有异常的小组,教师要走过去和他们一起探究。在交流时,让学生充分地发表不同看法。如果那些数据和现象有异常的小组同学不敢拿出自己的真实数据,教师应耐心地启发他们放下胆怯和顾虑,愉快地展示真实的数据,说出自己的想法。只有营造了这种民主、和谐的课堂环境,学生们才敢于把自己在探究过程中发现的“不一样”告诉同学们、告诉老师,让大家来讨论。面对异常数据,要引导学生寻找原因,梳理自己的探究过程,检查实验的设计有没有问题、实验材料有没有异样、探究过程中实验的变量控制是否到位。如果找到症结所在,就应该及时调整失误之处,再进行重复实验,检查实验的结果有否变化。
五、关注缺失数据,及时弥补,面向全体学生
数据是证据,是解释客观现象或规律的必要凭证,对事物的描述、现象的解释、规律的发现有其独到的作用,教师应适时引导,巧加点拨,增强学生对数据的敏感性,从被动记录数据到主动分析数据,能自觉运用数据来解决问题,提高科学探究效率和科学素养。但学生的证据意识不是与生俱来的,在科学探究中,我们要关注每一个数据,每一个孩子的发展,我们要有面向全体学生的教学理念,给每一个孩子提供公平学习科学的机会。
【课例6】执教《豌豆夹里的碗豆》(旧教科版)教学片段(略)。
在累加参与人数统计时,发现全班52个同学只有50个数据后,笔者要求重新统计。于是,不仅是重新统计的这次,而且直至下课的每一次,全班同学都参与了。如果忽略缺失的两个数据而不进行重新统计,可能会产生许多不良的教学效果。未参与统计的学生可能会认为“活动于我无关,我可以继续做自己想做的事情”,那么他们就会缺失许多求知、探索的机会,缺失科学探究的兴趣。如果未参与统计的学生是几个学习不认真者或是学习后进者,他可能会认为“反正我是差生,老师也不会来管我。”
正是对缺失的几个数据的高度关注,正是这次重新统计,会留给学生“老师关注每一个数据,关注每一个学生”的影响,会激发每一个学生进行科学探究的欲望。我们在科学教学中,要关注每一个数据,要关注每一个孩子的发展,要关注每一个细节,这样会给孩子带来心灵上的震动。
数据策略 篇2
卷影副本(Shadow Copies)是一个新的概念。通俗点说就是文件的上一版本。用户只要启了系统还原 功能,或为某文件建立了备份,该文件的上一版本就已存储在系统还原点或备份文件中。如果文件被修改 或删除,就可以利用这些旧版本将其还原。但需要注意的是:卷影副本与系统还原仍有区别:它不能还原 Windows正常运行的文件。
首先以系统管理员身份登入系统,然后开启文件所在分区的系统还原功能。打开“用户帐户控制”对 话框中,打开“系统还原”窗口,进入到“系统保护”链接,在“自动还原点”列表选中开启系统还原的 磁盘。
我们知道,传统的系统备份属于通用型备份,也就是不管文件形式统统收集起来,而卷影副本可以自 行选择要备份的文件类型,灵活性更大。接下来进入“备份和还原中心”,单击“备份文件”。选择保存 备份的设备,单击“下一步”。
特别需要提醒大家的是:保存备份的硬盘分区,不能与要备份的源文件在同一分区,例如:你要备份F 分区中的文件,保存备份的分区只能选择在除F以外的其它分区。
选择要备份的文件所在的磁盘,单击“下一步”。选中待备份的文件类型,然后设置系统自动备份的 日期、时间,以便让系统能及时地更新这些文件。以后你就能很方便地使用“卷影副本”功能对这些文件 进行恢复了。要注意的是,Vista只能备份NTFS文件格式分区中的文件和文件夹,而且所备份的文件不包 括系统文件、可执行文件和临时文件。
假设现在笔者位于“F:办公文档”中的几个重要的文件被同事误删(回收站已清空),而且文件夹里 的几篇稿件也被篡改的面目全非。以前这些问题看起来很棘手,但现在笔者借助于卷影副本的神威,不到 半分钟就搞定了。
由于找回文件和恢复被修改文件的操作方法基本相同,此处我们仅以找回被删除的文件为例,说说操 作过程,
打开F盘,右击“办公文档”文件夹,在弹出的菜单中,选择“还原以前的版本”命令。在“帐户记录 属性”窗口中,选择日期最近的备份文件,查看里面是否有被删除的文件或文件夹,如果有,将这些文件 或文件夹选中并右击,选择“复制”命令,将其保存到硬盘中的任意目录下即可。如果没有,继续双击其 他日期的备份文件,直到找到被删除的文件为止。
在“帐户记录属性”窗口中,我们可以对被删除文件或文件所在的上级目录,直接进行还原操作,方 法是在列表中选择备份文件,然后单击“还原”。不过,用这种方法进行还原,文件夹在备份后所做的更 改将全部消失,其中也包括一些有用的更改,所以应谨慎使用。
默认情况下,系统指定卷影副本所占用的磁盘空间,为该分区总容量的15%。如果该空间被占满,系统 还原将自动删除旧的还原点,为新还原点腾出空间。按照现今的分区标准,卷影副本占用空间还是比较大 的。
我们可以稍加设置为卷影副本瘦身。进入“磁盘清理”,打开“磁盘清理选项”窗口,单击“此计算 机上所有用户的文件”项。在“磁盘清理:驱动器选择”对话框中选择相应的分区。接着切换到“其他选 项”选项卡,单击“系统还原和卷影复制”项中的“清理”按钮。这样,Vista即会删除除最近的还原点 之外的系统还原点,及文件卷影副本等,释放所占用的硬盘空间。
除此之外,我们还可以用为卷影副本指定固定大小存储空间的方法,来限制它对硬盘的过量占用。比 如要在E分区,为卷影副本指定一个2GB的存储空间。
首先以管理员身份运行“命令提示符”,然后执行“vssadmin resize shadowstorage /on=E: /for=E: /maxsize=2GB”命令。注意这里的“E:”为相应分区的盘符,“2GB”是为卷影副本可以占用的 硬盘空间上限,这个数值可以自行设定。重启系统,设置即可生效。
张忠:大数据时代的定价策略 篇3
Q:能否总结—下您的代表作《让顾客自己定价》一书中的定价策略?
A:在这本书中,我想要指出的是以定价作为商业模式探讨的切入口,传达出定价绝不是市场或产品的简单依附者,而代表着产品的用户指向,是价格歧视的终极工具,是调整购买能力与购买意愿的重要杠杆。
这包括顾客导向和差异化定价两点,前者作为差异化定价的一个条件,通过细分顾客群,充分了解潜在顾客,并以不同的促销/营销方案来锁定顾客,甚至在价格制定的互动过程中,创造出价值激励的方式,如绩效定价;后者则采用了更广泛的价格歧视视角,在产品的不同生命周期,面对处在不同消费阶段的顾客,采取更灵活的定价,为每个需求层面上找到最佳的供应方。
此外,价格的让利常常会存在平衡物,可以是用户增加产生的规模效应,也可以是多方交易中利益的置换。定价策略其实是商业模式的探索,将机械的供求关系在新价格机制的促进下更为动态和有效地寻找彼此,使低效市场产生价值。
Q:那么在如今的大数据时代,这套方法是否同样对企业适用?
A:现在的阶段是企业所面临的客户都是属于全方位、全渠道的,客户实I琢上是飘摇不定的。要抓住这样的客户,需要分析他的行为规律性,并目要快速总结规律性,及时进行反应,在这样的基础上影响他的行为。这正是大数据的用武之地,帮助企业建立这样的技术平台,收集这类数据,并进行数据挖掘。
除此之外,客户还具有明显的个性化的追求,这就使得整个精准目标定价变得非常重要。由于客户变得相对复杂,因此这一切都需要基于数据的支撑与分析。类似航空公司、金融、餐饮服务等行业中,都有不同定价的需求。
Q:能否请您举例说明企业应用定价策略?
A:美孚石油公司是一个较好的案例。美国的加油站定价按照区域进行,有些地区靠近口岸运输费用低一些,价格也会相应低一些。这就意味着可以对每个加油站进行需求分析,从加油站的地理位置以及街区中的居民人口统计学情况和加油数量、频度进分析,从而产生差异化的价格。
这样的方法如今也在国内一些快捷酒店中得以应用,比较典型的是速八酒店采用百分点的数据分析技术,针对不同时段、不同区域进行了价格定位。
浅析数据的备份策略 篇4
数据备份简单理解就是把计算机上的所有数据拷贝一份而已, 但这是备份的方式之一, 良好的备份策略并不是每次都拷贝数据, 如果数据备份后并没有发生变化, 就没有必要再拷贝。例如, 您在星期一晚上做了一次备份, 星期二没有修改计算机上的任何数据, 那么星期二晚上做的备份, 与星期一晚上做的, 是完全一样的, 这样你在星期二晚上做的备份是多余, 浪费了时间和空间, 您实在没有必要这样做。
为了更有效备份和还原数据, 在备份前应该选择一份良好的备份策略。要选择好的备份策略, 我们得先知道备份的种类。Windows使用的备份类型主要有三种:完全备份, 增量备份, 差异备份。
1 备份标记
如前所述, 备份并不是简单的拷贝, 为了提高效率和节省时间, 已经备份过并没有修改过的文件, 可以不再重复备份。那么如何来判断文件曾经被备份过呢?答案是给已备份过的文件加备份标记, 通过备份标记就可在下次备份时加以区分, 只有经过改变的文件才会备份, 没有改变的文件将不再重复备份。
备份标记也称为文档属性, 系统是通过文档属性来给备份文件做标记的。新建的文件或没有备份的文件都有一个归档属性。一个文件一旦被备份, 就会清除归档属性, 表示该文件已备份过, 如果文件没有修改过, 下次再备份时由于做了备份标记就不会被重复备份。
当然, 并不是所有的备份类型都会加备份标记, 以上所说的备份标记只是针对完全备份和增量备份, 对差异备份并不适合。差异备份由于在备份时不会清除“归档”属性, 所以在下次备份的时文件还会进行重香备份。
2 完全备份 (Full Backup)
完全备份, 指的是对所有选择的文件和文件夹都进行备份, 不管数据有没有修改, 都会进行备份。在备份过程中, 通过清除文档的存档属性来给文件加上备份标记, 使得每个未修改的备份文件都标记为已备份。虽然完全备份会加上备份标记, 但是完全备份并不会检查备份标记, 它只是机械性地备份全部选中的文件及文件夹, 并不依靠备份标记来确定备份哪些文件。
采用完全备份优点是:可以加快恢复数据的速度。因为每次的备份文件都是最新的最完整的, 所以恢复数据时只要用最后一次备份的文件就可以恢复所有的数据。
完全备份的缺点是:每次备份都要把所有文件备份下来, 即使没有修改的文件也要备份, 这样会产生大量重复的数据。而这些重复的数据对用户来说没有多大的意义, 反而增加了用户的成本。由于每次都要备份所有数据, 所以备份的时间也很长。
3 增量备份 (Incremental Backup)
增量备份指的是只备份上一次增加和修改过的数据。因为在进行增量备份时, 会给备份过的文件加上备份标记, 所以增量备份在做备份前会先根据备份标记判断是否要备份。如果对同一文件, 连续进行了两次增量备份, 并且文件在这这间又没有任何变化, 则在第二次备份时将不会备份这个文件。
使用增量备份优点是:由于增量备份在做备份前会自动判断备份时间点的文件是否已作改动, 没有改动的文件是不会重复备份, 这样可以不但可以节省空间还可缩短备份时间, 提高备份效率。
增量备份的缺点上是:数据还原的时间较长, 效率低。在还原数据时, 你必须把找到所有的增量备份, 然后再恢复一个又一个的增量备份, 直到全部复原为止。如果某一个增量备份丢失了, 将无法保证数据可以完整还原, 所以这种备份可靠性差。
要避免复原一个又一个的递增数据, 提升数据的复原的效率, 可以选择差异备份。
4 差异备份 (Differential Backup)
差异备份是在完全备份后进行的, 它只备份完全备份后更动过的数据。只有标记过的文件才会做差异备份。在备份过程中它不清除文档的存档属性, 使得备份后的文件不标记为已备份。如果对同一个文件连续进行了两次差异备份, 这个文件会备份2次, 直到下一次完全备份后它才停止重复备份。
差异备份是一个累积的过程, 备份所需时间和空间会随着时间过去而不断增加。但恢复起较简单, 您只要先复原完全备份, 再复原最后一次的差异备份即可。总之以备份空间与速度来说, 差异备份介于增量备份与完全备份之间;恢复的速度通常比完全备份、增量备份快 (因为要搜寻/复原的磁盘数目比较少) 。
5 不同备份类型组合应用示例
理解了三种备份类型后, 我们就可以根据需要选择合适的备份策略。每种备份都有优点和缺点, 如要节省备份时间和空间就得牺牲恢复的速度, 如要获取恢复的速度就得牺牲备份资源。所以在实际中很少单独使用一种备份类型, 良好的备份策略应该是将不同备份类型组合起来一起使用。在日常的备份实践中, 经常使用以下两种组合的备份策略。
5.1 完全备份+差异备份
假设你在星期一进行了一次系统完全备份, 你系统中所有选定的文件和文件夹都备份到一块磁盘上。接下来如果从星期二到星期五你都采用差异备份。如果在星期二你的系统里面增加了一张学生表, 你只需要将学生表表备份下来;星期三增加了一张课程表, 你在星期三需要备份的数据是星期二的学生表+星期三的课程表;星期四增加了教师表, 你在星期四需要备份的数据是星期二的学生表+星期三的课程表+星期四的教师表;星期五增加了成绩表, 你在星期五需要备份的数据是星期二的学生表+星期三的课程表+星期四的教师表+星期五的成绩表。
如果在星期五数据全部丢失了, 你可以找到星期一备份好的完全备份磁盘来还原星期一以前的数据, 然后再找到星期五的差异备份磁盘来恢复星期一到星期五这一周的数据。因为自数据丢失时, 差异备份是完全备份以后所有修改过的数据都在备份盘上。采用这种备份策略, 还原数据简单方便, 耗时少, 但是备份时所使用的时间和空间较多。
5.2 完全备份与增量备份
同样在星期一你做了一次完全备份, 把系统中所有选定的文件和文件夹都备份到一块磁盘上。接下来如果从星期二到星期五你都采用增量备份。如果星期二你的系统里面增加了一张学生表, 你只要将学生表表备份下来;星期三增加了一张课程表, 只要将课程表备份下来;星期四增加了一张教师表, 只要备份教师表;星期五增加了一张成绩表, 只要将成绩表备份下来。
同样在星期五数据全部丢失了, 你用星期一做的完全备份来还原星期一之前的数据, 用星期二到星期五的增量备份来还原星期二到星期五的数据, 直到所有的数据被全部还原完为止。假设你星期四的增量盘丢失了, 那么你的数据就不能完整还原。
采用这种备份策略, 可以节省备份时间和空间, 但还原数据比较麻烦, 而且数据可靠性得不到完全保障。
参考文献
[1]刘惠敏.数据备份策略分析[J].福建电脑, 2007 (08) .
[2]谢东.基于Oracle的数据库安全策略[J].现代情报, 2006 (01) .
[3]周士伟, 杨文丽.数据备份策略及方法[J].东北电力技术, 2003 (02) .
[4]刘高.一种轻量级快速网络备份系统的设计与实现[D].华中科技大学, 2009.
E靶点耐药后策略总结及数据 篇5
文摘:在个性化医疗时代,表皮生长因子受体(EGFR)抑制酪氨酸激酶抑制剂(TKI)一直是主要的治疗方法非小细胞肺癌(NSCLC)患者的表皮生长因子受体突变。获得性耐药,尤其是蛋氨酸的替代苏氨酸在790位置(T790M)已占超过一半的情况下,以前接受EGFR-TKI的患者出现耐药不可避免。目前,对EGFR-TKI耐药患者没有标准治疗,现已有研究或建议策略治疗这类病人。本文aimsto 重新回顾了TKI再治疗策略策略和不同代的TKI在耐药之前的的功效。关键词:表皮生长因子受体(EGFR)酪氨酸激酶抑制剂(TKI);非小细胞肺癌(NSCLC)1·介绍
肺癌是全球癌症死亡的主要原因。患者大多数诊断为非小细胞肺癌(NSCLC),通常有一个不良的预后[
1、2]Iressa-Pan-Asia研究,该研究首次证明患者特点,女, 不吸烟,腺癌,比传统铂吉双重化疗在反应率(RR),无进展生存(PFS)和生活质量有更好的反应[315)。获得性耐药EGFR-TKI,蛋氨酸的替代苏氨酸在790位置(T790M)点突变[16]。目前还没有标准的治疗患者EGFR-TKI。在本文中,我们回顾NSCLC患者激活EGRF突变EGFR-TKI的再治疗。
2。获得EGFR-TKIs耐药
EGRF突变的患者易瑞沙或特罗凯治疗最终有了耐药性PFS大约8个月, [5、12、15、19、20)。杰克曼和同事[21]为了提供一个更统一的方法在进一步的研究调查建议了使用EGFR-TKI获得性耐药之前基本定义。各种机制后来证实,关键是要弄清楚,研究一个策略来克服耐药。EGFR外显子点突变20 T790M 是第一,也是最频繁的报道的机制(17,22272)是一种口服,不可逆转的EGFR 和HER2抑制剂[52]。在临床前研究中,neratinib抑制的增长NCI-H1975支气管肺泡癌细胞携带替换的亮氨酸的精氨酸在858位置(L858R)和T790M细胞系携带HER2基因突变[51]。一个1期晚期实体肿瘤的研究显示的最大neratinib耐受剂量(MTD)320毫克每天一次[53]。一个开放标签,单盲,2期研究显示EGFR突变的患者曾接受吉或埃罗替尼治疗只有3%的RR超过12周。在这个子集的患者PFS中值为15.3周[54]。值得注意的是,四分之三患者(75%)在719的位置突变甘氨酸氨基酸的替换物(G719X)在 EGFR 获得部分反应。这四个患者中位PFS为52.7周。由于腹泻(在3/4级46%)和其他不良事件(在3/4级58%)令人难以接受,在这项研究中的剂量是每天下降到240毫克,这可能达不到治疗水平[54]。由于令人失望的结果,来那替尼neratinib目前没有被研发用于非小细胞肺癌。
Dacomitinib(pf-4.40),另一个组1.1个月组(95% CI,0.95-0.48;p < 0.0001)。亚组分析更支持afatinib用于EGFR 突变阳性患者,HR为0.51(95% CI,0.31-1.35)。腹泻(87%)和皮疹/粉刺(78%)是最常报告的不良事件。像吉非替尼,Afatinib进一步评估与化疗相结合,多中心,III期随机研究(LUX-lung 5)。LUX-lung 5(NCT01085136)会比较afatinib加紫杉醇化疗与调查员的选择仅在非小细胞肺癌患者之前有吉非替尼或埃罗替尼治疗失败患者,随后afatinib单药治疗后化疗比对。初步结果将2014年ASCO年会上报道。一线Afatinib也与标准化疗比对(65、66)。第三, afatinib和西妥昔单抗的结合有最新进展。异种移植物模型的小鼠, 与吉加西妥昔单抗相比,西妥昔单抗和afatinib会导致埃罗替尼肿瘤耐药基因T790M显著减少[67]。二期的一项研究支持上面的临床前数据,然后进行使用西妥昔单抗和afatinib在非小细胞肺癌患者第一代EGFR-TKIs获得性耐药临床(68、69)。有确认部分反应的报道,22位患者中8位(36%,95%置信区间:0.17--0.59),包括4/13的患者(29%)T790M突变阳性。中位数PFS是4.7个月。
5·第三代EGFR-TKIs 第二代EGFR-TKIs,比如dacomitinib afatinib,在临床前模型取得了可喜的效果,由于其毒性,在之前有EGFR-TKIs而获得性耐药患者,限制了其的使用。一种针对T790M新的TKIs正在研发之中。其中,co1686 I / II期研究EGRF突变患者疾病进展之前EGFR-TKI。总共62名患者入组,剂量范围从150 mg到900 mg 每天自由基础配方和500 mg 到 1000 mg 每天氢溴酸盐(HBr)盐配方。约百分之七十五的人都是TKI TKI耐药直接进展。CO-1686是耐受性良好,只有一个病人由于副反应中断。20%以上的患者发现治疗相关的不良事件。三级高血糖(19%)被报道,但通常无症状。QTc延长三级5%的病例观察到,大部分剂量减少后解决。其他副作用,如恶心、腹泻、食欲下降和疲劳,> 10%的患者被发现,但主要是在1级。剂量相关性野生型腹泻和皮疹还没有见过。基于有希望的结果,一些临床试验计划今年评估不同临床设置CO-1686的功效。
《数据结构》课程学习策略研究 篇6
关键词:数据结构,前导课;算法
《数据结构》不仅是程序设计的基础,而且是设计和实现编译程序、操作系统、数据库系统等系统程序和其它大型应用程序的重要课程之一。为学生今后从事理论研究、应用开发、技术管理工作提供了坚实的理论基础,是专升本、考研和等级水平考试的必考科目,也是学生学习中感到比较吃力的一门课。
《数据结构》课程教学目标要求学生学会分析数据对象特征,掌握数据组织方法和计算机的表示方法,以便为应用所涉及数据选择适当的逻辑结构、存储结构及相应算法,初步掌握算法时间空间分析的技巧,培养良好的程序设计技能。本文对如何学习、掌握《数据结构》课程内容进行了探讨,提出了切实可行的有效学习方法。
一、注意前导课知识的熟练掌握
《数据结构》的前导课包括一门计算机语言(PASCAL、C或C++,本文以C++为例)和高等数学。要想轻松学习《数据结构》,必须先打好这两门课的基础。学生学习感到吃力主要是这两门课掌握不牢,用起来生疏,算法思路有,但却无从下手,不能熟练地用C++语句描述出来。所以,从c++语言入手,加强程序设计基本素质的培养,是学好数据结构的重中之重。
C++知识点主要有:(1)包含文件语句:#include<头文件名>。例如,#include
计算机解决实际应用问题及算法分析,涉及到很多数学知识。例如:集合、阶乘函数、排列、组合、对数、级数求和、递归,反证法、数学归纳法等数学证明方法,要对这些基本知识加以熟悉。
二、数据结构课程体系的归纳
数据结构讨论的范畴:数据成员以及它们相互之间的逻辑关系,也称为数据的逻辑结构,简称为数据结构;数据成员极其关系在计算机存储器内的存储表示,也称为数据的物理结构,简称为存储结构;施加于该数据结构上的操作,ADT抽象数据类型描述。
教材的主体可以总结为:基本概念、三类数据结构,两种存储结构、两种算法。三类数据结构有:线性(线性表、栈和队列、串、数组和广义表)、树(树和二叉树)、图等。两种存储结构有:顺序结构和链接结构。两种算法为:查找、排序。抽象数据类型(Abstract Data Type,缩写为ADT)是整个教材的核心。
抽象数据类型(Abstract Data Type,缩写为ADT)包括数据结构的定义、表示、操作实现三部分。定义如下:
ADT<抽象数据类型名) is
Data:
<數据描述>
Operation:
<操作声明>
end(<抽象数据类型名>)
数据结构常见的操作有:插入、删除、检索、遍历、排序等。每一种数据结构可有多种不同的存储方法。在不同的存储结构下,同一操作有不同的时间、空间复杂度。例如:线性表既可以用一维数组顺序存储,也可用指针结构链式存储。向线性表中插入、删除一个数据元素,顺序存储下,需平均移动表中一半元素,而链式存储下,仅需修改指针而不需移动元素。所以,要根据实际应用问题的操作,选用合适的存储结构,以提高执行效率。
三、总结章节特点,指导数据结构的学习
针对每章不同特点,总结学习方法及重点。如对线性表、树、图三种数据结构均按照“逻辑结构定义、特点、ADT描述;线性存储结构及ADT实现、算法复杂度分析;链式存储结构及ADT实现、算法复杂度分析;典型应用案例分析”模式进行讲解,也就是说,只要按此主线掌握了数据结构的内容,就达到了学习目的。
对查找方法从概念、算法思想、查找过程、算法实现等方面去掌握,从查找速度、占用存储空间多少、算法本身复杂程度、平均查找长度ASL(Average Search Length)等方面去评价分析各种方法,总结各自的适用条件。
对排序方法从概念、算法思想、排序过程、算法实现等方面去掌握,从排序所花费的全部比较次数、移动记录次数、占内存辅助空间的大小等分析时空复杂度,最后要考虑算法的稳定性,总结各自的优缺点及适用范围。
四、算法的学习
算法设计技能是学好数据结构的关键,根据学生学习的认知特点,主要从以下几个方面进行强化训练:
1吃透课本例子。每学完一次新课,让学生对课本例子先分析任务、再自己编写算法与课本对照,找出不足,然后改进。如此反复练习,不仅能够培养学生动脑思考的习惯,而且还会养成遇事三思、认真、周密的作风。
2精选上机题目,要求调试通过。每章找出一个综合性的应用题目,如怎样设计旅游线路,使得费用最少或路程最短;课程计划的编排等,要求用C++语言编写可执行的源程序,上机调试。这样不仅能够锻炼学生解决实际问题的能力,更重要的是能够激发学生学习课程的兴趣,抽象变具体,理论变实践,对这门课有更深的认识。
3阅读填空法。找一些经典算法,配上必要的说明,适当去掉语句或表达式,让学生通过阅读填补空白,训练学生的程序设计能力。
4准备一个经验本,记下自己出错的解决方法及老师讲解的其他同学出现的常见错误,抽空常翻看,逐步积累经验,使以后避免。
5强化和本课程密切相关的结构体、指针和函数等知识点的再学习及上机训练。
6加强算法阅读训练,模拟执行过程。通过大量的阅读分析和模仿,吸取算法精华,提高编程能力。如对教材中的类C语言算法改写程序,上机通过,掌握基本技能,巩固课堂教学的内容,加深了对算法的理解。
7掌握算法设计的步骤。①明确算法要解决的问题目标。②选择合适的数据结构,确定在所选的数据结构上必须有的操作,写出抽象的算法,然后存储结构。③分解每个操作的实现步骤,用c++语言对应地写出实现程序。
有些学生经过学习之后,虽然能看懂教材上的算法,但当自己动手设计算法解决实际问题时仍感到无从下手。解决这一问题除了掌握必要的方法之外,必须通过多练习多动手,培养自己的程序设计经验和素质来解决。因此,要求学生必须认真对待算法设计型的习题,通过多做这类习题来理解、消化和巩固所学的知识,提高分析问题、解决问题的能力以及编程能力。
五、充分利用优秀的网络资源
数据策略 篇7
在我国, 关系型数据库理论已广泛应用于零售超市营销数据管理。但是, 与沃尔玛、家乐福、麦德龙等国际零售巨头的先进的管理模式相比, 关系型数据库管理模式明显表现出对市场的预测和决策能力的欠缺。
企业管理决策的迫切需要, 使数据仓库理论应运而生。数据仓库技术是当前用于企业决策支持的、先进的有效方法。在国外大型超市的决策管理中, 已取得不菲的经济效益。
将“数据仓库”理论运用于我国大型连锁超市的决策管理, 是学习运用国内外先进的管理模式提高行业竞争能力的必然选择。
元数据是数据仓库的灵魂。元数据支撑了数据仓库开发应用的全过程, 成为连接数据仓库各部分的纽带。元数据管理是数据仓库项目成败的关键。
随着数据仓库技术的迅速发展, 对元数据的研究也步步深入。本文提出利用关系型数据库建立一个以CWM标准为基础的集中式的元数据库管理模式。使所建元数据库既保持CWM面向对象的基础, 又能充分利用SQL的成熟技术对数据仓库元数据进行有效管理。
二、CWM元模型
CWM公共仓库元模型是国际对象管理集团OMG推出的数据仓库元数据管理规范。CWM提出了一种共享公共元模型的思想交换元数据。它采用UML作为模型描述标准, 使用MOF作为元建模和元数据存储标准, 使用XMI作为元数据交换标准。CWM的主要目的是在分布异构环境下, 使数据仓库工具、工作平台和元数据存储库之间易于进行数据仓库元数据的交换。
基于CWM模型的三个标准, CWM为数据仓库工具之间共享元数据, 制定了一整套关于模式、语法和语义的规范。
CWM使用包机制来组织元模型, 每个包代表CWM的一个元模型。图1描述了CWM元模型的构成。所有的包按功能和抽象层次组织成5层, 每层都涉及一个独立的领域, 有自己独立的功能, 然而彼此之间又紧密联系。
1. 对象模型层:定义了基本元模型的概念、关系和约束。
2. 基础层:包含了所有包共享的概念、结构和通用服务。
3.资源层:资源层上的数据包描述了基于CWM的元数据交换中的各种数据资源的元模型。用来创建那些定义关系数据库、面向记录数据库、多维服务器和基于XML文档的数据资源的元数据。
4.分析层:业务分析概念, 是数据仓库和信息供应链的核心和目标。
5.管理层:主要描述了支持数据仓库日常操作和管理的通用服务。
UML、MOF、XMI、CWM等一系列标准提供了一个能够全面描述数据仓库元数据的框架。CWM已成为了业界统一开放的元数据集成标准。为数据仓库元数据的规范管理平了道路。
三、建立基于关系型数据库的元数据库
CWM元模型是一系列面向对象的UML类图;关系数据库管理系统是当前成熟的主流数据库。建立基于关系型数据库的CWM元数据库, 关键问题是实现CWM对象元模型到关系模型的映射。
CWM中共有204个类, 154个关联, 三种数据类型属性。只要能将CWM元模型中所有的类、关联和数据类型属性的逻辑结构完全映射转化成关系型数据库可用的存储结构, 就可以利用关系数据库的一切方法和技巧对元数据进行管理。
首先, 用T-SQL语言建立一个关系型数据库。用以存储经过映射转换的CWM元模型。
1. CWM类的映射
CWM类的映射是构建元数据库的核心。实现CWM类的映射的基本方法是:
为CWM元模型的204个类分别在关系型数据库中建立一个映射关系表, 这个表称为每个类的固定表。为便于对固定表的识别和调用, 需要统一各个固定表的各组成部分的命名规则。每个固定表的表名由被映射的类所属的包名-类名构成。每个固定表中都有一个整数型的字段, 字段名为“IDn”, 作为固定表的主键, 标识不同的对象。“ID”后加的“n”是一个任意的不重复的整数, 其作用是在建立两个固定表的关联时, 便于区别不同固定表的ID。类的每一个属性映射到该类所对应的固定表的一个列。其属性名作为固定表的列名。列的数据类型同类的属性的数据类型保持一致。表中的每一行存放对应于映射到固定表上的该类的一个实例, 即该类的一个元数据。行中的列值记录的是实例的单值属性的当前值, 如图2所示。
至此, 对于单值属性的类得到了完全映射。以此为基础, 可以实现非单值属性类的映射。
CWM非单值属性类包括多值属性、枚举属性和基于类的继承属性, 如果将这些信息全部映射到一个表中, 会带来大量的存储冗余, 也不方便管理。针对这些情况, 可通过增加另外的独立表——附加表, 将每个多值属性映射到一个附加表中, 这些表使用外键的标识值连接到类的固定表上。同固定表一起组成表集来表示CWM类。
在CWM中大量使用了UML的继承特性, 为保证类的继承结构映射到元数据库不变, 将层次结构中的每个类映射到独立的表上, 通过一个共享标识值“IDn”与它的超类和子类相互链接。从而静态地反映类之间的继承关系。
2. CWM关联映射
CWM元模型中共有154个关联, 其中包括5个“一对一”关联, 101个“一对多”关联, 48个“多对多”关联。通过映射已经建立了CWM元模型204个类的固定表, CWM元模型中类的关联就体现在元数据库中已建立的固定表的关联。关系数据库中表的关联依赖于表中匹配的主键和外键。
一对一的关联映射:可通过直接向关联的类的固定表中增加一个列, 该列存放关联表的主键, 且列名和数据类型不变, 并设为关联表的侯选主键, 同一实例在相互关联的基本表中的ID值相同。如图3所示。
一对多关联是关系数据库中最普遍的关系。建立一对多关联映射, 需要在“多”方固定表中增加一个字段, 把“一”方固定表的主键添加到“多”方的固定表中, 作为“多”方固定表的外键, 并建立普通索引。“一”方对应的“多”方重复的记录, 具有同一外键值。通过对外键的普通索引, 实现两表一对多关联。如图4所示。如果关联的多端有序, 则在多端的固定表中增加一列用于存储多端实例次序的顺序值。
对于多对多关联, 解决办法是:在多对多关系表之间创建第三个表, 称为“中间表”。将两个相关联的固定表的主键都添加到中间表中。其作用效果是把一个“多对多”关系分解成为两个“一对多”关系。通过中间表实现“多对多”关联。如图5所示。而对于有序的关联则增加一列用来存储实例的顺序值。
3. CWM数据类型映射
CWM共有三种数据类型:简单数据类型、枚举类型和对象类型。这三种数据类型需要用不同的方法映射到关系数据库中。在处理好了CWM类的映射和关联映射的基础上, CWM数据类型映射就容易实现了。
简单数据类型映射:CWM中的8个CWM简单数据类型, 可直接与关系数据库的对应的数据类型建立映射。
枚举数据类型映射:为每种枚举类型建立一张附表, 该表仅有一列, 用来记录该枚举类型所有可能的取值。
对象数据类型:使用外键约束, 将基础列与基于类的类型实例相关联。
固定表、中间表、附表和关联表共同组成元数据库的主体部分。为管理方便, 可再建一个汇总表。
汇总表列出CWM元模型全部类所映射生成的固定表的清单。该表的主要字段有:ID、固定表表名、关联、属性及实例等。通过简单查询就可以得到每个固定表所对应的CWM元模型的包、类、关联、属性及实例等相关信息。
四、建立基于CWM的数据仓库元数据转换模式
存储在元数据库中的元数据, 应当是符合CWM规范的元数据。因此, 入库前, 所在元数据都需要通过规范的转换。
根据CWM提供的数据仓库元数据管理规范和工作机制, 建立基于CWM的数据仓库元数据转换模式, 如图6所示。在建立该模式之前, 我们已经通过映射, 建立了关系型的元数据库。从图中可以看出该模式的工作原理:
通过支持CWM规范的元数据采集工具, 在数据仓库开发应用的全过程中, 实时地扫描采集各类元数据。这些元数据包括:从数据仓库的数据模型获取的元数据;从数据仓库的结构获取的元数据;从多种数据源中获取的元数据;通过数据仓库ETL过程获取的元数据;从多种业务指标中获取的元数据;通过数据仓库中的数据流及其处理过程获取的元数据;从数据仓库的端展现工具、CASE工具和数据挖掘工具等工具中获取的元数据, 以及为用户的访问权限设计产生的元数据。把获取的各个层次的异构的元数据, 经过CWM元模型的分类、映射和转换, 通过CWM XML、CWM DTD、CWM IDL三个规范, 转化为XML文档, 成为CWM元模型中类的实例。
这里特别要强调的是, CWM元模型分析层中的转换包在本模式中的重要作用。
转换包是CWM分析层中最重要的元模型。是整个CWM元模型的中心。从各个方面获取的元数据, 经过转换包的处理, 它定义的建模元素指定了源和目标元数据的映射及转换。这个转换通过资源层和管理层共同实现。
资源层定义了描述各种不同类型的数据资源元数据的模型, 这些元模型的实例描述了转换源数据存储格式和目标数据存储格式的元数据;管理层定义了数据转换的调度和执行方面的元数据模型。包括用来描述数据转换工具的元数据的类和关联。
从各个方面获取的元数据, 作为CWM元模型类的实例, 存储在该类所映射的固定表中, 完成了元数据库的基本建设。至此, 我们就能利用SQL的一切功能来对元数据库进行有效管理。在本模式中, 利用了SQL Server中的一个重要组件DTS (Data Transformation Services) 作为元数据库接口。DTS是SQL Server中导入导出数据的核心, 它除有具有SQL和命令行工具bcp相应的功能外, SQL Server为DTS提供了图形用户接口。使DTS成为用户使用多种方式访问和利用元数据库的通道。
五、结论
数据仓库元数据管理, 是一项重要而复杂的工作。本文以业界认同的CWM元模型为基础, 通过映射, 把对象型的数据模型转换为关系型数据模型来处理。以便利用关系型数据库的方法和工具对数据仓库元数据进行管理、调用、交换和访问。这种模式, 实用性强, 作为数据仓库元数据管理的一种方法, 具有进一步研究、完善的价值。
参考文献
[1]刘中蔚陈红:用基于元数据库的工作流调度数据仓库的更新[J].计算机应用研究, 2006, 23 (3) :178-180
[2]雷启明周利平:连锁超市数据集市的数据模型设计研究[J].商场现代化, 2008.7.30-31
数据策略 篇8
1 电视台为什么要进行数据处理
首先,科技的不断发展使电视行业进入到数字化时代。对电视台的数据进行收集、检索、统计,并根据观众的点播率数据来调整播放节目,可以提高电视台节目的收视率。。数字电视逐步取代了传统的有线电视,使电视台发生了转型,现在更多的地区,数字电视增设了视频点播以及开展了电子商务活动,这样可以满足不同客户的需求,电视的功能不再单一。同时,电视台对数据进行处理,可以提高电视台的综合竞争力。因为数字电视可以和互联网有效结合,使互联网可以监控用户的具体操作,甚至可以具体到用户的收视场景,以及用户播放的节目记录,这样就可以更好地服务观众,赢得观众的喜爱,从而有助于电视台的发展,让电视台在媒体的竞争中更有优势,更有竞争力和影响力。
2 电视台系统数据处理策略
电视台数据处理主要可以从以下几个方面实施,利用数据使电视台更好地服务观众,提高观众的关注度和收视率。
2.1 建立全台网架构下的内部信息生产架构
一个电视台的节目播出,主要经过了信息采集、信息处理及信息播放过程。在信息收集时,首先必须确定题材,进行场景的拍摄,然后再撰写稿件,最后将这些信息记录下来,变成一个新的节目,列入到电视台的播放库中。再经过专业人员对前阶段收集的节目进行剪辑,并将剪辑好的节目进行编码排列,对节目进行简单的备注说明。并把节目的数据资料输入到电视台系统内部的运行管理数据中。系统内部通过对数据进行匹配,产生与节目相关联的新数据[1],这就是信息在内部处理的过程。最后就是播放环节,播放环节也是信息的对外公布,对外播放节目,并统计播放的次数,收集播放的反馈信息的过程,这样就可以实现对数据的处理。
现代技术的发展使电子信息采集到的画面质量比以前大大提升,使用高科技的制作技术,可以满足未来电视台系统之间交流日益密切的要求。同时,让电视台的收视率和业务量走向直线上升的发展道路。
2.2 系统架构层面处理
电视台实施全台网架构下的内部信息生产架构时,会增加跨系统在统一资源调配工作上的难度。但是,跨系统之间的数据交换,数据的交流方式主要有两种:一是内部融合交流,二是内部分开交流。业务系统中收集到了实际的市场需求指标,在这些数据处理时都是采用单独分开处理的方式,使系统间的数据无法进行交流。
“云计算”技术是一项新的技术,它可以实现电视台内系统中数据信息的统一交流。“云计算”可以对数据资料进行统一管理、存储和计算[2]。这样不仅实现了系统间数据的自由交流,还可以为电视台的内部处理提供参考价值。
2.3 元数据信息的处理策略
电视台进入“大数据”时代,要求电视台加强对元数据的检索以及对内部进行探索的管理,使检索不再受媒体资源和资源管理的限制,从而使检索发生重大改变。同时检索中可能涵盖编目信息和文稿信息。检索走向了一个广泛的平台。它可以让各个独立的系统高度的集合起来,但是在以往的技术将子系统进行集合会导致数据库发生膨胀,使得数据库的内容不够密集。但是互联网可以将数据库实现“泛检索”[3]。
跨专业的检索在总检索中占有的储存量不大,但是它可以通过内容的不同,分析内容。同时,在检索时可以快速找到与之对应的内容。在以前,画面是不能进行检索的,但是如今,电视台在对画面进行检索时可以运用水印来给画面做标志。这样在画面检索时,可以通过所做的标志进行检索,以此来达到对画面进行检索的目的。
3 结语
电视台在对大数据进行处理时,会根据数据调整节目编排,从而提高收视率,促进电视台的发展,大数据时代也是电视台发展的必经之路。大数据处理策略中运用云计算系统层面构架,以及元数据处理技术,可以使大数据在电视台中运用得更加如鱼得水,使大数据在电视台的发展也会更加繁荣昌盛。同时,使电视台的事业步入一个全新的时代,更好地服务人们的生活。
摘要:大数据是一种规模很大,在获取、存储、管理和分析数据方面,远远超过陈旧数据库软件处理能力范围的数据的集合。数据量大、数据间交换速度快以及数据类型众多是大数据的主要特点。数据处理质量的好坏决定着企业市场的占据比例。所以,数据处理在电视运营商的经营管理工作中占据重要位置。本文主要通过对电视台的数据检索,提出有价值的策略,使电视台在数据处理上更加得心应手。
关键词:大数据,未来电视台,数据处理
参考文献
[1]王元卓,靳小龙,程学旗网络大数据:现状与展望[J].计算机学报,2013(6).
[2]计可.寻找“大数据”——浅析未来电视台数据处理策略[J].现代电视技术,2013(8).
数据策略 篇9
企业数据中心是企业信息集成的基础,它可以有效的解决应用系统的整合和数据共享,解决企业普遍存在的“信息孤岛”等问题。随着数据中心的建立,原来企业一些应用系统积累的大量数据需要向数据中心迁移。这就要求必须制定合理的迁移策略使历史数据和新产生的数据实时的迁移到数据中心。目前数据迁移主要两种方式,一种是采用商用迁移工具,另一种就是编写专门的迁移软件。两种方式在实现大型数据库数据迁移中仍然存在一些不足,例如只能完成数据模型结构相同的数据迁移,但对于数据模型结构不相同的数据进行迁移时,就需要编写大量的辅助程序;传统迁移策略主要包括一次性迁移、分次迁移、先迁后补[1]等几等种方式,通过研究发现,这些方式都不能满足对于产生的历史数据和实时数据的迁移,同时也缺乏灵活性和重用性。
对于这种情况,通过对元数据驱动技术[2]以及数据抽取、转换和加载体系结构(ETL)的研究,本文提出一个基于元数据驱动技术的多策略通用数据迁移模型,该模型中定义了三种策略,即历史数据迁移、实时数据迁移和定时数据迁移。框架的技术核心是使用元数据描述各种映射模式,其中包括转换算法逻辑,ETL模型通过对映射规则的解析来实现从数据源抽取数据并实现转换功能,达到灵活的数据迁多的目的。
1 数据迁移策略框架体系模型设计
1.1 多策略数据迁移系统框架结构
图1定义了多策略数据迁移框架模型:在迁移策略上,首先对历史数据进行历史数据迁移;对于实时数据通过定时数据迁移和即时数据迁移进行数据迁移。对于实时数据迁移,当数据源有新数据产生时,系统通过实时迁移策略触发即时迁移模块或者定时模块,通过对源数据到目标数据的映射模式中存储的映射规则以及转换逻辑元数据来实现从源端的数据抽取、转换,最后通过加载模块将数据迁移到目标库中。
1.2 数据模型映射及数据抽取转换
多种迁移策略的实现是靠数据模型映射来实现的。所谓数据模型映射是根据一组规则(称为映射规则),建立一个源模型和一个目标模型之间的对应关系。映射之前,源模型和目标模型的描述均已存在。模型映射有时也称数据映射。
数据模型映射关系的语法描述:
1)下面给出数据映射关系的一些基本概念。
(1)映射实体、映射属性和映射表。映射实体是用户可见的较高视图[3,4],反映了源系统与目标系统在概念模型上的对应关系。映射属性是映射关系的最底层,也是迁移规则处理的最小单位。映射实体(ME)分为源映射实体(SME)和目标映射实体(TME);映射表分为源映射表(ST)和目标映射表(ST);映射属性分为源映射属性(SATTR)和目标映射属性(TATTR)。
(2)映射关系。映射关系是源映射实体和目标映射实体属性之间的映射关系。映射关系由映射模式[4](MM)和有向线段构成。映射关联的起始节点即为映射的源映射实体的映射属性,映射关联的目标节点即为映射的目标实体的映射属性。
映射模式又分为三种类型:算数映射模式(ARITH_MM),数据映射模式(DATA_MM)和语义映射模式(SEMA_MM)。
2)数据映射关系的语法描述。映射关系是一个三元组,M<STM,R>。这里M是映射关系名称,R是映射关联集合,MO是映射算子集合。下面采用BNF范式对映射关系语法进行形式化定义,其符号定义为:”...”:表示术语符号;<>:内包含的内容为必填选项;::=表示定义为;[]:内包含的内容为可选选项;{}:内包含的内容为可以重复0次到无数次;|:表示为左右两边的内容可以任意选择;(...):分组;斜体字:表示参数,在其他地方有解释。映射关系的语法描述如下:
3)映射模式元模型构建。元模型[5]设计分为2个层次:基础元模型设计与驱动元模型设计。基础元模型用于存储基础映射模式元数据定制的元数据;驱动元模型位于基础元模型下一层,用于存储映射模式元数据。
基础元模型包括存储源库与目标库结构信息的数据字典元模型、存储映射模式、转换函数及函数参数类型信息的元模型、ETL功能模块及其接口描述信息元模型。
驱动元模型以实体间映射模式为描述单位,其中映射库、映射表、映射字段表存储数据迁移对应数据库位置及对应数据表、对应字段信息等信息。字段映射模式、转换函数、参数位置表存储对应字段数据转换过程中调用的映射函数位置、名称及具体参数值等信息。流程信息、ETL模块信息表存储不同抽取及加载方式所调用ETL模块的函数接口信息。迁移任务异常信息表存储执行一次任务过程中产生的异常数据文件、日志文件、模块调用异常等信息。
2 应用案例
本系统在“大庆油田公司井下作业分公司数据中心迁移项目”中得到了很好的应用。数据中心数据模型构建好之后,需要将A2施工总结中的数据迁移到数据中心中。通过本系统实现了将A2施工总结的历史数据和应用系统产生的实时数据通过本系统迁移到数据中心中、实现日志的查看功能、迁移之后的正确性检查。完成了40多张表,5000多万条历史数据的迁移任务。实践表明本系统具有较高的实用价值。具体应用见图2的即时迁移主界面。
3 结束语
本文提出了迁移框架模型,并在其中定义了历史数据迁移、实时数据迁移和即时数据迁移策略;构建了元数据模型,实现了对种映射模式的存储。该框架模型具有(1)实用性强,框架基于数据字典定制元数据,能够实现不同专业数据库到数据中心数据库的数据迁移,使系统具有一定的通用性;(2)良好扩展性,框架使用转换函数元模型,当遇到两种不同数据模型的数据迁移时,就会出现很多的映射模式,如果出现一种新的映射模式时只要编写单独的转换函数,就可以使用新的映射模式完成数据的转换,不需要修改源代码;(3)易维护,使用元数据驱动的方式实现ETL功能,维护工作大部分为修改元数据,使维护简化。
参考文献
[1]刘朝斌,王洪雨.云计算中动态数据迁移的关键技术研究[D].大连海事大学,2010,7.
[2]苗立志,张书亮,闾国年.通用映射模式下GML关系数据库存储研究[J].计算机应用研究,2009,11.
[3]Zhao X F,Huang Z Q.A formal framework for reasoning of Meta-data based on CWM[C].The25th International Conference on Con-cep-tual Modeling,2006:371-384.
[4]袁满,陈星童.基于元数据驱动的异构数据模型映射算法研究[J].东北林业大学,2011,11:128-131.
电信运营商大数据发展策略 篇10
1 电信运营商大数据的适用性分析
电信运营商的最主要任务就是为用户与用户、用户与设备、设备与设备之间提供必要的通信信道。总的来说, 电信运营商掌握着三大类数据:第一大类是用于维持网络正常运营的相关数据, 这类数据与用户是不会产生任何交集的, 是单纯的信道数据而以, 但是它是网络优化扩容中的重要组成部分之一;第二类是直接与用户实现对接的相关数据, 这一部分数据又可以分为两小部分, 第一部分是可以用来体现用户身份的账号数据 (我们通常称之为静态数据) , 这一部分数据在开通用户业务的同时就会产生了, 第二部分是实时数据 (包括各种类型的用于用户通话的信令以及用户行为数据等) , 这种数据非常的具体而有很大的参考性意义, 同时也是对经营情况进行分析的关键组成部分;第三类属于增值服务类数据, 比方说网页数据、视频监控数据等。经过以往大量的实践结果表明, 第一类数据通常是以结构化的形式出现在我们的眼前, 主要是处理一些逻辑相对来说没有那么复杂的问题。但是这种类型的数据局限性也是很强的, 据以往的研究结果表明, 它只能使用于单独的区域网络, 并且数据量不多的前提才能顺利的完成任务。但随着时代的进步和社会的迅猛发展, 传统技术已无法实现长时段、全网级的统计分析, 已经淡出了人们的视线。第二类数据一个家喻户晓的的特点就是4V特征, 换言之就是规模大、价值高、类型比较复杂。具体地说, 目前国内运营商的主流用户数已经破亿, 由于互联网已经走进了各大小企业以及千家万户, 用户用于记录网络行为的日志数据量是极其庞大的, 从这一点而言可以与顶级互联网公司相媲美, 而且数据的传输和更新速度也是越来越快。在类型方面具有多种多样。这体现在多个方面, 首当其冲的就是在数据来源方面。众所周知, 我们通常所看到的各类数据来源也是可有不同:宽带网络、无线网络等;然后是体现在结构方面, 非但包含具有明显结构特征的用户账号数据, 与此同时还包含半结构化的用户访问日志。还有就是体现在价值方面。事实表明, 不管是对电信企业或者是对外部互联网企业, 都具有重大的价值。但我们在进行数据处理的过程中往往需要对事务性、可靠性以及实时性都有相当高的要求, 就目前的大数据解决方案还无法从根本上满足这些要求。鉴于这种情况, 我们目前最好是定位于分析处理 (补充性的) , 比方说用于日常查询的用户话单、访问日志等方面。而第三类数据与第一类和第二类数据相比较而言最大的特性在于具有较为显著的非结构化特性, 据以往的应用结果表明, 这种类型的数据非常适合应用于大数据技术的相关处理。比方说流媒体和数据的视频 (进程或者远程都可以) 监控, 因此我们可以使用分布式文件系统将传统的存储系统给完全替代掉, 最好的办法就是使用实时流计算平台来编解码:另外, 我们还可以在互联网增值应用过程中用来分析、抓取和索引需要的网页数据。
2 应用电信运营商的大数据的有效策略
从以往的经验表明, 为了更好的让电信运营商的大数据为我们所用, 可以通过以下几种方式加以努力。
2.1 培养相关的综合性人才
事实表明, 不管是在哪个行业, 大数据的应用不仅仅需要对行业知识了如指掌, 同时还需要精通大数据分析以及综合应用大数据技术到实际的综合性人才。如果我们从业界观点看的话, 大数据已经从过去一直所推崇的“样本分析”转变为“全量分析”。当前那些具有现代化意义的企业需要的数据人才主要包括以下三大类:产品和市场分析人才、安全和风险分析人才以及商业智能人才。这部分人群不仅仅精通数据分析和研发, 与此同时还能够根据实际需要建立合理的电信运营商数据架构。而且还应对电信自身的业务了然于胸, 换言之就是电信行业的数据专家。因此电信运营商应当想方设法 (可以通过外聘或者内部挖掘等多种方式) 来储备一批大数据的专业性人才。
2.2 加快平台建设的进度
众所周知, 电信企业的每一套运营系统绝大多数都需要大数据的相关支持才能顺利实施。这些都需要专业人士进行操作方可达到理想的效果, 而且就算构建成功在很多时候也只是一种资源的巨大浪费。大数据在基础设施层面要最大限度的实现共享, 这样做就是为了更好的凸显出大数据规模集群的优势。就具体地说, 可建设国家级或者省级大数据中心, 其中国家级大数据中心应当定位于满足全国性的大数据需求。省级大数据中心定位于满足该省大数据的需求。
2.3 进一步加强技术研发
一般地说, 大数据研发工作大体包括两个方面:平台型研发与应用型研发。但是就当前的状况来看的话, 电信运营商同时兼顾基础设施与应用, 但要以应用型研发为主。也就是首先能够有效使用大数据, 然后进行适度的平台型研发, 事实表明这样做可以更好的支撑大数据应用。在积累到一定经验程度后 (具体是什么程度应当根据实际情况而定) , 逐步加大平台型研发的资金投入, 从而通过这种方式一步一步的从对内服务朝着对外运营进行转变。虽然说大数据的应用极其广泛, 但想要对其进行完整部署尚且需要很长的一段路要走, 在这种情况下最好的办法就是应用切入的方式, 这样做可以同时兼顾近期运营与长远规划。
3 结束语
综上所述, 随着互联网时代的到来, 电信运营商需要顺应发展的潮流对大数据加以有效的处理。而且我们有充足的理由相信, 云计算服务模式必然会成为未来的趋势, 因为在这种模式下可以大大的拉近企业、网络运营商与用户之间的距离。从以往的经验上来看, 大数据的不断推广可以让三者形成彼此依赖的关系。这样一来就会为电信运营商提供给客户更为优质的服务创造重大机遇。
参考文献
计算机数据安全策略分析和构建 篇11
关键词:计算机 数据安全 策略 分析
伴随着经济的发展,计算机的应用范围逐渐扩大,无论是家庭生活还是工作办公都少不了计算机的辅助。计算机技术发展的同时各种影响计算机安全使用的病毒越来越多,计算机病毒一旦侵入电脑将会产生严重的损失。因此,加强计算机数据安全分析和构建是现阶段计算机设计人员必须解决的首要问题。笔者结合多年工作经验,从计算机数据安全分析及构建的意义着手,对计算机数据安全分析及构建的策略做了简单介绍。
1 计算机数据安全分析与构建的意义
随着计算机的普及,计算机病毒越来越多,计算机受到非法攻击和入侵的情况也逐渐增加。由于计算机病毒的入侵导致企业甚至政府机关很多重要的情报资料和发展信息被不法分子窃取,更有甚者导致整个计算机系统瘫痪,从而阻碍国民经济的发展。计算机数据安全策略分析和构建是关系国计民生的大事,企业必须采取有效措施解决计算机安全问题,为我国社会安全打下坚实的基础。计算机的数据安全分析涵盖内容十分广泛,主要有计算机信息的输入、输出、加工和存储等,其中任何环节都有可能产生影响计算机数据安全的因素,让不法分子有机可乘。计算机数据信息泄露危害的主要表现形式有技术密码、个人隐私以及重要文件等泄露和更改,如果不及时采取有效的应对措施,必将侵害用户的切身利益。
2 计算机数据安全分析
目前,计算机数据安全问题主要有以下内容:第一,传递数据的路径。众所周知,计算机数据和信息处理以电缆、电话线以及光波等为依据,在实际传输过程中很容易被不法分子截取,导致计算机数据安全事故。第二,辐射信号。计算机运行和数据处理过程比较复杂,在实际运行过程中,计算机内部信号会随着系统运行向外辐射运行信号,不法分子可以在信号传递的过程中截取信息从而满足自身的目的。第三,不法分子还可以通过自身扎实的网络技术和良好的网络环境盗取用户的信息;第四,计算机数据分析和系统维护过程中也会产生计算机数据安全问题。
3 计算机数据安全分析和构建的策略
3.1 防止他人非法使用个人计算机 计算机数据安全性的提高要求计算机用户高度重视计算机数据安全性处理的重要性。用户可以利用CMOS口令的功能对计算机进行管理,使每台计算机通过指令后才能开启。用户在进入计算机系统后,还可以对屏幕保护程序进行加密,防止他人非法使用个人计算机,进而提高计算机数据的安全性。
3.2 保护数据安全的措施 第一,数据加密。用户必须对计算机内部各种关键的信息进行加密处理,减少不法分子的入侵。第二,数据集中存储。计算机用户应该减少数据分散存储,尽量将重要信息存储在统一系统内。各部门可以采用办公系统子网统一处理管理软件,将所有的办公信息存储在服务器上,访问人员经过许可后才能进入主页。第三,双硬盘。为了提高计算机数据的安全性,用户应该同时使用两个硬盘,减少单个硬盘安全性偏低导致的数据泄露问题。第四,定期进行病毒检查。用户应该在预定的时间内对计算机系统继续零病毒处理,减少必须要的损失。第五,数据备份。用户还应该将所有重要的信息进行备份处理,减少因数据消失引发的损失。
3.3 采用防火墙技术 防火墙及技术使用能在很大程度上减少不法分子的入侵,为计算机数据安全提供技术保障。防火墙是计算机数据安全性防范措施的总称,结构较简单的防火墙防范措施仅凭借路由器既可以实现防范目的,结构较复杂的要综合使用子网和主机网关等才能达到防范的目的。防火墙防范措施可以将不安全的服务和非法用户隔离在系统之外;利用防火墙后,没有经过授权的用户不能访问已经被保护的网络;防火墙还能控制某些关键站点的访问;防火墙在保护部分主机安全性的同时,还能保护其他网站不受外界的干扰,是现代计算机数据安全防范措施的首选。防火墙最基本的构件有屏蔽路由器、双穴主机网关、被屏蔽主机网关以及被屏蔽子网,在选择各构件的过程中应该认真检查构件的出厂证明和质量合格证书,严格采用统一标准的构件,减少因构件安全性偏低引发的实际问题。
3.4 提高操作人员的综合素质 为提高计算机数据的安全性,还必须提高计算机操作人员的综合素质。如果计算机操作人员具有扎实的计算机操作技能和较高的数据安全意识,在实际操作过程中便可以轻易地解决一些简单的计算机故障,同时减少不法分子入侵的机会。因此,在提高计算机操作人员准入门槛的前提下,还应该要求计算机操作人员具有基本的文件操作、磁盘操作以及软件安装的能力,在了解各软件使用程度的前提下,还应该善于分辨各种类型的计算机故障,从根本上实现计算机数据的安全。
4 结束语
总之,计算机数据安全分析和构建是提高计算机用户私人信息安全的重要保障。相关部门应该在了解计算机数据安全分析意义的前提下,对计算机数据安全进行准确分析,从防止他人非法使用个人计算机、保护数据安全的措施以及提高操作人员的综合素质等角度出发,不断提高数据的安全性。
参考文献:
[1]杨晓红.关于计算机的数据安全策略分析[J].物联网技术,2013(05).
[2]夏璐蓉.关于计算机数据安全的一些策略分析[J].电脑知识与技术,2014(03).
[3]王宁.基于云存储的数据安全策略分析与研究[J].物联网技术,2014(05).
人数据时代的品牌公关策略 篇12
今天,我们正处于万千事物被网络化和数据化的大数据时代,这些原本纷繁无序的数字变得规律而有意义,数据不仅仅是对客观的记录,更是携带着无数隐含信息的数字信号。我们可以根据对数据的整合、分析来解释各种现象背后的原因,并能预测事物的发展趋势,推断出其发展规律。这为企业的品牌传播、产品的迭代、公关策略的调整等提供了依据。
庞大的数据会彻底改变人们的生活,如何从众多的数据中抽取出自己想要的信息,并解读好数据背后的消费行为和品牌关联,我们需要从以往单向度的内容研究转向“内容+关系”的多维度研究,这对品牌公关策略的设定决策性影响重大。我们可以通过“京东数聚汇”的呈现来看看大数据所带来的无穷魅力,2012年京东将8000多万网购消费者的购物习惯和生活喜好数据进行了的全景呈现:发现了一些有趣的消费行为,例如:江苏的男性喜爱眼部护理,上海男人则倾向清新干爽的面颊,北京男士最爱香水和防脱洗发水,而狂野性感的豹纹装则最受辽宁姑娘欢迎,来自辽宁女性消费者人均购买了4件豹纹商品。相信通过这一组组趣味十足的数据结论分析,为品牌公关策略带来更多的启发,女性裙装在辽宁地区做品牌促销时,考虑一下搭配豹纹商品应该是个不错的组合。
在大数据时代,基于交互性以及智能数据库的管理,消费者的形象被勾勒得更加清晰。品牌公关策略可据此分析消费者的兴趣与需求,这样就提升了品牌形象推广的精准性,而不会以大量无关,甚至是骚扰信息来挑战用户的忍耐度。大数据时代,媒体环境越发碎片化,面对微信、微博、电视、户外等媒介载体和图片、文字、新闻视频、音频等众多媒介形式,整合媒体传播绝非是道“满汉全席”,媒介经营者将更加注重细分市场,把那“被浪费的50%广告费”损失减到更低,让媒介传播更有的放矢。卡夫食品与百度的传播合作,更让我们了解到大数据对目标消费人群媒体接触习惯研究的启发,根据百度营销研究院显示:在搜索过趣多多和奥利奥品牌之后,百度图片和百度贴吧是消费者最活跃且粘性最高的平台,其次是百度视频和百度知道,相信这样的价值分析对媒介总监的媒介策略无疑是具有变革性的影响。
大数据改变的是思维方式,让我们从因果关系的串联思维转变为相关关系的并联思维,也让品牌传播思路与路径的发生了转变,甚至是商业机遇。利用大数据进行品牌营销可以分为两类:一类是基于运营体系或平台的数据,如京东数聚汇、卓越网图书消费者行为分析报告;另一类是基于媒体信息分析与运用,如受众的接触媒体习惯。《纸牌屋》的参股方Netflix在拿下剧集首播权之前,他们不但通过大数据看到了喜爱观看1990年《纸牌屋》的用户,同时也喜欢导演大卫·芬奇和奥斯卡影帝凯文·史派西,以及《纸牌屋》后期的传播将大数据的效应充分发挥。对于Netflix来说,在线播出的便利可以使其通过强大的数据库监测系统,分析在观众的收视情况,乃至他们在何处按下了暂停键,这系列的用户体验数据收集与分析,可以提供有价值的参考。