知识负载

2024-08-29

知识负载(共7篇)

知识负载 篇1

项目教学作为职业学校专业课程改革的主要内容, 有效地突破了原先的知识本位和线性灌输, 创造了学生主动参与、探索创新的新型教学模式。项目教学能否取得实效, 前提是项目设计;项目设计是否科学、合理, 核心是知识负载。

一、知识梳理——计算机项目设计的预备动作

教师拿什么教?教什么?对于计算机专业教师来说, 这一问题迫切需要回答。不能奉教材为经典, 不能简单地教教材, 这是初步的回答。在当前知识体系课程向工作流程课程转变的关键期, 项目教材严重缺乏, 即便是所谓的项目教材, 也往往项目的实用性、针对性不强, 严重限制了项目教学功效的发挥。这就要求教师变通用教材为项目教材, 变项目教材为校本教材, 变校本教材为师本教材, 实现教材的项目化、师本化。师本教材当然应由教师自己开发, 它是教师通过对统编教材进行合理的“整容”和“外科手术”, 打乱原有知识布局, 打破旧有知识架构, 实现知识的非线性、模块化。教师上课的知识点来自教材, 但教师上课的素材却不一定来自教材, 这就要求教师不仅要熟悉教材, 更要全面把握教材, 全面梳理教材中的知识点。例如, 办公软件Word部分, 可以把知识点分为文件操作、编辑操作、格式设置、工具选用、表格处理、窗口操作、使用帮助等八大类, 每类中又包括若干知识点, 在这些知识点中, 进一步分清哪些是知识目标, 哪些是技能目标, 有哪些情感、态度、价值观目标, 还应渗透哪些目标。

实现知识点的意义建构后, 我们没必要事无巨细, 更没有必要“充分挖潜”。先对这些知识点进行必要的分析, 分清哪些是常用知识点, 哪些是核心知识点, 哪些是串联知识点;哪些是学生必须掌握的核心技能, 哪些是通用技能, 哪些是辅助技能, 并客观分析这些知识与技能之间的关联度。如Word的编辑操作中, 剪贴板的操作、查找、替换等应为核心知识点, 而选择、重复、撤消等应为常用知识点, 选择同时也是串联知识点;剪贴板的操作、查找替换操作应为学生必须掌握的核心技能, 选择、重复、撤消等操作应为通用技能, 汉字重选、链接等应为辅助技能。在这些技能中, 剪切、复制关联度较高, 查找、替换、定位关联度也较高。

这种对知识点的梳理和分析是初步的, 是计算机项目设计的预备动作。这一预备动作是项目设计的必要前提, 它对教师提出了高要求, 因为这是对原教材和教学方式的根本性革命。教师仅仅熟悉教材是不够的, 仅仅会操作是不够的, 仅仅会上课也是不够的, 教师更要能分析教材、处理教材、开发教材, 用自己开发的教材进行教学, 使教材真正量身定做、适体合身。

二、知识负载———计算机项目设计的核心动作

通过一个项目使学生学会哪些知识、掌握哪些技能、升华哪些情感是项目设计的重要因素。项目中包含的知识与技能、过程与方法、情感、态度和价值观不是随意设计的, 不是拼凑的, 也不是杂乱无章的, 它是源于项目设计者的匠心独具、“巧点鸳鸯”。项目中知识点的分布首先必须基于学生的认知规律, 有一个从少到多、从低到高的过程, 这就需要合理设计项目的梯度。

“高纯度项目” (简单项目) , 这是项目设计的主体。高纯度项目较为“纯洁”, 包含的核心知识点较少, 项目相对偏小, 通过“高纯度项目”的设计可以保证核心知识点的全覆盖。例如, 在Word项目设计时, 设计《制作个人简历》项目, 其包含的核心知识点有设置文本格式、段落的合并与拆分、设置分栏等。设计《打印寓言故事》项目, 其包含的核心知识点有打印预览、文档打印、设置首字下沉等。而这些项目中除了核心知识点外, 其实还包括了很多常用知识点和串联知识点, 如文档创建、保存、关闭、文本录入与删除等, 而这些常用知识点和串联知识点是隐性存在的。教师在教学时可以“轻视”或“忽略”这些知识点, 实现“趋重避轻”。

“中等纯度项目” (简单综合项目) , 这是项目设计的重要一环。一方面便于实施分层次教学, 另一方面也是核心知识点的中小规模融合。这既是对“高纯度项目”实施后的阶段检验, 也是对部分核心知识点的必要重复与提升, 以帮助学生最大限度地构建稳定的知识层次结构。这种项目内容上的螺旋上升, 是基于中职生的学习生态, 也是基于中职校的课堂生态。所以, 在项目设计时, 除了一些知识、技能或能力目标在若干项目中隐性重复外, 核心知识点、重要技能必须要有显性的重复和提升, “中等纯度项目”的合理设计既必要又迫切。

“低纯度项目” (复杂综合项目) , 一般每门学科设置1~2个, 这种项目要尽可能地穷尽学科的重要知识点, 可以说是一个大杂烩, 是一种综合应用。如Word项目《编排毕业论文》, 这里面就包含了文件操作、文本信息组织、格式设置、图文混排等众多知识点, 通过这一项目的实施, 可基本判断学生Word部分学习的成效。

这三种梯度的项目知识负载, 既有层次感又有交叉性, 难易程度不同, 规模大小不同, 实施顺序不同, 有一定的独立性, 但并不完全独立, 体现了平铺与递进、分类与融合, 是基于中职生实际的较为可行的形式。

三、知识管理——计算机项目设计的后续动作

项目设计完成并非就大功告成, 还需要对项目的知识负载进行科学监测, 并根据监测效果施行动态的知识管理。教师凭已有的知识和经验, 根据主观判断完成项目的知识负载设计, 这些项目是否行之有效, 还得依赖于教学实施。项目的实施效果是判断项目知识负载是否合理的主要尺度。

“皮之不存, 毛将焉附。”知识点是依附于项目的, 项目本身能否有效地吸引学生, 这是知识负载有效性的前提。这取决于项目的题材是否贴近中职生的实际, 我们显然不能为了几个知识点而生拉硬凑生成一个项目, 而应充分挖掘学生身边的资源, 将知识点融入资源中以形成项目, 这就是知识嵌入的管理。知识点融入项目中, 融入是否得体, 直接影响项目成效。因此, 在设计项目时, 可让学生参与进来, 建立项目设计的“协商制”, 在项目修改时, 应更多地参考学生的意见, 以保证项目的效度。如Word项目“制作行政公函”, 学生对行政公函的制作不感兴趣, 认为今后反正用不上, 那嵌入其中知识点的教学功效自然不大。

项目实施的效果与项目中知识点的搭配有密切关系。一个项目中既有核心知识点, 又有常用知识点和串联知识点;既有通用技能, 又有核心技能和辅助技能, 他们之间搭配是否科学、合理, 是否符合学生的认知规律, 显然有待项目实施的检验。如“录入和编排个人简历”项目, 将文字的录入、文本格式、段落格式的设定, 甚至是表格的制作及设定等内容统统纳入, 而在实际实施时, 由于学生的录入速度、简历构思等耗时不一, 这样就给项目的有序推进增添了难度, 这时就需要调整项目中知识点的搭配。

项目是动态的, 项目中的知识点配置也应是动态的, 这个动态显然依学生的已有经验、认知水平而定。如Word项目“制作录取通知书”, 核心知识点是邮件合并, 可选用的数据源包括Access文件、Excel文件、Word文档、其他数据库文件等, 项目设计时没必要逐一列出, 而应选择学生比较熟悉的Word文档作为数据源, 如果已学过Access, 则可选择Access作数据源, 不可一概而论。

作为计算机项目设计的后续动作, 知识管理应伴随项目设计的始终, 它不局限于项目设计的“修修补补”, 而是经实践后的项目再设计、知识重负载。项目的知识负载只有在反复实践的基础上才能达到“生态平衡”。

唯有科学、合理地确定项目的知识负载, 才能保证项目教学的顺利推进和有效实施。

参考文献

[1]潘永杰等.浅析基于价值链的造价信息网运作模式[J].广西大学学报 (哲学社会科学版) , 2009 (9) .

[2]刘腾红, 胡爱钰.略论知识管理[J].中南财经政法大学学报, 2002 (11) .

[3]冯艳妮.以项目为中心的职业教育课程设计新探索[J].武汉职业技术学院学报, 2009 (4) .

[4]于凌云.项目教学法在数据库教学中的实践与探索[J].职业教育研究, 2008 (2) .

知识负载 篇2

负载均衡器可以根据实际的响应时间制定优先级交付决策,从而实现高性能、智能化流量管理,达到最佳的服务器群性能。采用第七层应用控制还可以减少通信高峰期的错误讯息,因为差错控制和流量管理技术可以侦测到一些错误信息,并透明地将会话重定向到另一个服务器,使用户顺利地进行使用。例如,服务器A不可用或者数据库出现错误,错误信息将会返回到负载均衡器上,然后会将客户的访问指向服务器B或者将消息重放到其他数据库中去,整个过程对用户是透明的。

目前,许多厂商推出了专用于平衡服务器负载的负载均衡器。目前负载均衡器生产商有:Intel、Alteon Web、Arrow Point(已被思科并购)、Coyote Point、F5 Networks、Foundry Networks、HydraWeb以及 RADWare等。

负载均衡器的形式多种多样,作为启动器,它以各种形式和大小出现。一些厂商,如Alteon、ArrowPoint,将负载均衡器集成到交换设备中,置于服务器与Inte.net链接之间;而另外一些厂商,如Coyote Point、F5 Networks 以及HydraWeb,则运用两块网络适配器将这一功能集成到PC中,其中一块连接到前端止于Web服务器的Hub上,另一块通过路由器或其他设备连接到Internet上。一旦负载均衡设备检测到所管理的每台服务器承载的负荷量,它会按照一定的算法来分配通信。Arrow Point公司的CS-100、F5的 Big/ip、以及Coyote Point公司的均衡器都支持循环均衡功能。其处理方法是,均衡器同时向所有可用服务器以命令序列方式发送相同数量的请求。Alteon的AceSwitch 180、Coyote Point的均衡器、F5 Networks的Big/ip以及RADWare的Web服务定向器支持这样一种均衡方法:它能以最小的TCP链接将请求发送到服务器。Arrow Point的CS-100还支持静态负荷均衡选项,这就是说,为服务器分配请求是建立在事先已指定负荷量的基础之上的。

举个简单例子,使用Pentium300的机器应比Pentium200承载更多的请求,

由于采用了负载均衡技术,自动故障恢复得以实现,服务的时间可以延长,24×7可靠性和持续运行成为可能。另外,负载均衡器一般也支持路径外返回模式,即绕过流量分配器,为那些焦急等待大量数据文件请求响应的客户提供更快的响应时间。

总之,如果负载均衡需求简单,也就是说,只是接近于通过所有服务器的“共享”级水平,并且网络环境也只是由低速LAN组成,则不需要太高级的均衡产品。同样的,若是静态内容传输,则只要具备循环分配功能的负载均衡器也就可以了。

在最新的负载均衡产品中,智能化越来越明显。一些智能化的负载均衡器能够侦测到像数据库错误、服务器不可用等信息,从而采取措施使会话恢复和重定向服务器,使电子商务能够得以顺利进行。多址负载均衡器可以对客户发来的访问请求进行解析,计算出最佳地址,然后将该地址返回客户,使客户自动连接到对其请求来说最佳的数据中心。

典型产品:Intel网擎负载均衡器

负载均衡服务具体分为本地负载均衡服务和远程负载均衡服务。英特尔公司的网擎(Intel NetStructure)7170网络应用负载均衡器,可应用于本地负载均衡服务。该设备能够平衡服务器群中所有的服务器和应用之间的通信负载,根据实时响应时间进行判断,将任务交由负载最轻的服务器来处理,以实现真正的智能通信管理和优秀的服务器群性能。服务器故障切换和多重冗余特性可以让通信绕过故障点, 从而使用户站点始终保持运行和可访问性。并且,每次提供负载均衡服务后,7170网络应用负载均衡器都有记录,每天都会自动生成一个报告,客户通过这一报告还能了解流量的分布情况。

英特尔网擎系列中的7190多址负载均衡器可用于远程负载均衡服务。这一设备针对拥有多个网站地址的企业进行专门设计,能够根据单个URL地址将通信路由到方便可用的站点,从而实现广域网范围的负载平衡。为了提高响应速度,7190采用 “快速响应模式”,使所有的站点都能对同一用户的访问请求作出响应,响应最快的站点将接受并完成这一访问任务,而不是在发生用户请求时计算“最快”的路由因而产生额外的延迟时间。管理员可以采用这种模式确保很短的服务器响应时间,也可以选择对用户满意度产生更大影响的其他算法。系统在后台收集多站点状态信息,如服务器响应时间、通信量、本地系统状态,从而使7190能够立即确定每个数据中心的状态,并将访问导向最佳站点。

(责任编辑:铭铭 mingming_ky#126.com TEL:(010)-68476636)

原文转自:www.ltesting.net

知识负载 篇3

永磁同步电机( PMSM) 具有结构简单、运行可靠、功率密度大和效率高等优点,且易构成高性能的伺服系统,已被广泛应用于航空航天、军用、汽车和家用等产品[1]。电机在运行中会受到各种外扰力的影响,特别是在负载发生变化时,电磁转矩和负载转矩瞬间失衡,造成转速调节有一定的滞后,而高性能调速系统要求系统应保证稳态无静差,动态情况下响应速度快[2],并且,在一些负荷变化且不确定的条件下,应具有一定的抗扰性能。

负载扰动不仅对永磁同步电机稳态精度有影响,而且影响着整个控制系统的精度、动态性能和调速范围等性能指标[3,4]。因此,研究一种永磁同步电机抗负载扰动方案具有重要的实际意义。传统的转速控制器在设计时一般会假定负载转矩扰动为零或者为一个固定值,但对于负荷变化且不确定的条件下,这个控制器并不能很好地抑制负载扰动。如何使控制系统在负载扰动的情况下保证响应快且无超调是高性能调速系统的关键。

电机在实际运行中,由于负载时变且不可预测,仅采用PI调节器不能很好地抑制负载扰动带来的转速波动,需要对各个性能指标进行折中考虑。针对抗负载扰动的问题,引入负载转矩的前馈补偿,转换成两自由度控制系统是一个比较好的解决方案[5]。但是如果要对负载转矩直接测量,会使系统成本较高,并且仪器精度和响应速度都会影响负载转矩的测量[6,7],所以采用状态观测器对负载转矩进行观测是一个很好的选择。

目前,国内外学者对负载转矩的观测进行了不少研究。文献[8]采用一阶伪微分结构,设计了扰动转矩观测器,并对转矩电流进行了补偿,但是该方法中的微分运算容易将测量误差和计算误差放大,影响观测精度; 文献[9]将降阶负载转矩观测器应用到伪微分反馈控制系统中,实现了抗扰动伪微分反馈控制,但是只完成了仿真验证,并未给出实验结果; 文献[10-13]采用滑模观测器对负载转矩进行观测,而如何在提高滑模变结构控制系统抗扰性能的同时削弱抖振现象一直是其研究的热点问题; 文献[14]根据降阶负载转矩观测器收敛速度慢的缺点,提出了一种改进型的观测器,可以提高辨识的收敛性,但仅给出仿真分析,并未进行实验验证; 文献[15]在全阶滑模观测器的基础上,提出了一种新型转矩观测器,解决了积分初始值和积分漂移的问题。

本文在降阶观测器的基础上,提出一种改进型的负载转矩观测器。新型观测器根据电机的转速和转矩电流,将比例和积分引入负载转矩的观测中,可提高辨识收敛性和辨识收敛速度,将观测到的负载转矩值按比例前馈补偿给转矩电流调节器的输入。在系统负载突变时,利用该观测器对转矩电流进行前馈补偿能减小负载变化对电机转速的影响,从而提高永磁同步电机转速环的鲁棒性。

2 负载转矩观测器

在电气传动中,电机通过其传动轴向负载提供电磁转矩,通过对电机传动轴上电磁转矩的控制就可以完成对负载运动的控制。根据动力学原理,可得永磁同步电机的机械运动方程为:

式中,Te为电磁转矩; J为系统转动惯量; ωm为转子机械角速度; bm为摩擦系数; θm为机械角度; Tl为负载转矩,其包含由电机空载损耗产生的电机空载转矩。

当控制器采样周期很小、采样频率很高时,可近似认为在一个采样周期中负载转矩T1是一个恒定值,即:

将式( 1) ~ 式( 3) 写成状态方程的形式:

式中

2. 1 降阶负载转矩观测器

采用降阶思想构建负载转矩观测器:

式中

为状态变量的估计值。

将电机的运动方程应用到式( 5) ,可得:

式中,k1、k2为反馈系数。

观测器的特征方程可表示为:

式中,21= [1 0]; I为单位矩阵。

为满足逼近的速率要求,需要选择合适的反馈矩阵Ke来满足A - KeC合适的极点配置。根据期望极点 α、β,则期望的观测器表达式为:

则可得:

如忽略摩擦系数bm,则根据式( 6) 可得出:

根据式( 10) 可搭建降阶负载转矩观测器,如图1 所示。其中,Pn为电机极对数; ψf为永磁体磁链;iq为交轴电流。可以看出,降阶观测器是以积分形式对负载转矩进行观测,收敛速度较慢[11]。

2. 2 新型负载转矩观测器

为提高负载转矩观测的收敛速度,提出一种新型的负载转矩观测器,构建状态方程:

式中

构建负载转矩观测器:

式中,为状态变量的估计值; K1=[k1k2]T; K2= [k3k4]T为反馈矩阵。

由式( 11) 和式( 12) 可得:

式中,为观测误差,观测器的特征方程可表示为:

根据期望极点 α、β,以及期望的观测器表达式( 8) ,则可得

假设bm= 0,设计k1= k3= 0,则可得状态反馈系数的值:

根据式( 12) 可得出:

根据式( 17) 可构造负载转矩观测器,如图2 所示。由此可见,与传统的降阶负载转矩观测器相比,负载转矩的观测由原来的积分改进为积分+ 比例,可有效提高辨识收敛速度。

3 抗负载扰动控制

3. 1 PMSM矢量控制策略

采用id= 0 的转子磁场定向的矢量控制系统如图3 所示。

将电流环作为转速环控制对象的一部分,可得系统转速环传递函数结构图,如图4 所示。其中Kc为转矩常数。由于摩擦系数bm较小,可忽略不计。在该系统中,负载扰动作用在电流环之后,仅依靠转速调节器产生抗扰动作用有一定的滞后,可在转矩电流中加入扰动补偿,对转矩电流进行前馈补偿。

3. 2 转矩电流前馈补偿控制

将负载转矩观测器观测到的负载转矩按比例前馈补偿到转矩电流中,作为负载扰动的补偿信号,即可得转矩电流前馈补偿的永磁同步电机抗负载扰动控制系统,其控制框图如图5 所示。其中为观测的负载转矩,β 为补偿系数。

采用id*= 0 的解耦控制策略之后,可得电磁转矩方程为:

由式( 18) 中转矩与电流之间关系,可以得出补偿系数 β 应该取2 /( 3Pnψf) 。

4 仿真与实验

4. 1 仿真验证

电机控制系统仿真模型参照实际系统搭建,由以下部分构成: ①电源、逆变器、电机等功率部分; ②电流控制器、速度控制器等控制部分; ③检测和显示部分。电机仿真模型中参数参照实际电机参数,如表1 所示。仿真采用与实验对应的标幺值系统,转速基值取3000r/min,电流基值取18A,转矩基值取5N·m。

为验证观测器的观测性能,根据图1 和图2 搭建相应的仿真控制框图,仿真条件为电机空载启动,给定转速为1pu,在0. 2s时电机突加负载1pu,0. 4s时负载阶跃至0. 5pu,降阶观测器和改进型观测器的仿真结果如图6 所示。

可以看出,降阶观测器在负载突变瞬间需要0. 003s的时间恢复稳态,稳态误差约为0. 0006pu,而改进型观测器在负载突变瞬间,能很快跟踪实际负载转矩变化,准确度高,以上仿真验证了改进型观测器的可行性与有效性。因此,以下仿真及实验将对比未加入改进型观测器与引入改进型观测器时,系统的抗负载扰动特性,以验证本文提出的转矩电流前馈补偿的抗负载扰动控制策略的有效性。

根据图5 所示的系统框图,搭建抗负载扰动控制系统的仿真模型,对转矩电流前馈补偿前后的转速、电流及负载转矩观测值进行仿真,其仿真结果如图7 所示,自上至下波形依次为转速、负载转矩、q轴电流和a相电流。给定转速为1pu,0. 2s时突加5N·m负载,0. 3s时突卸5N·m负载,电机额定转矩为5N·m,额定电流为6A,根据T = Kci,可以计算出转矩常数Kc为5 /6,即为补偿系数 β。

由仿真结果可以看出,未引入转矩电流前馈补偿的情况下,0. 2s突加5N·m负载时,转速下降0. 01pu,动态调节时间约为0. 02s; 0. 3s突卸5N·m负载时,转速上升0. 01pu,动态调节时间约为0. 02s; 电流iq的调节存在一定延时,导致转速跌落幅度较大,一段时间之后才得以恢复。而加入转矩电流前馈补偿之后,转速波形下降和上升的幅度明显减小,约为0. 002pu,转速波动得到了快速抑制,但是转速波形在突加和突卸负载瞬间有一个很小的毛刺,转速波动没有完全抑制,这是因为负载转矩的观测存在一定延时,因此提高负载转矩观测器的实时性和快速性对系统抗负载扰动具有很好的促进作用。

4. 2 实验验证

为了进一步验证抗负载扰动控制策略的实用性和有效性,搭建基于TMS320F2812DSP芯片的抗负载扰动测试平台,其由负载模拟器、联轴节、转矩传感器、加载电机、加载驱动器、负载控制& 驱动器、控制器和计算机组成,实验系统如图8 所示。

在电机启动超调满足要求的前提下,给定转速为0. 4pu,突加突卸3N·m负载时矢量控制系统的实验波形如图9所示。由此可见,负载突变时,系统鲁棒性较差,电机转速易受影响。

为提高转速环的鲁棒性,首先对改进型观测器的负载转矩观测性能进行测试,实验结果如图10 所示。图10( a) 和图10( b) 分别为转速恒定为0. 4pu时突加3N·m和突卸3N·m负载时的实验波形。从实验结果来看,转矩观测值在恒定转速情况下可以在1s内达到稳态,具有一定的实时性,并且稳态观测值与实际转矩相同。

将图10 的负载转矩折算成电流前馈至电流给定,得到的引入负载转矩观测器前馈补偿时的实验波形,如图11 所示。系统转速为0. 4pu,负载转矩变化时,电机转速基本上不受影响。

由图9 和图11 可以看出,当负载转矩发生变化时,引入转矩电流的前馈补偿,转速波动幅值和动态调节时间均有所减小,相比于未加入转矩电流的前馈补偿,转速环的抗扰性能有所提高。

5 结论

本文在完成永磁同步电机矢量控制的基础上,为提高转速环的鲁棒性,对抗负载扰动控制策略进行了研究,搭建了基于Matlab /Simulink的仿真平台和基于TMS320F2812DSP芯片的实验平台,对本文提出的控制策略进行了验证,得到如下结论:

( 1) 采用改进型的降阶观测器对永磁同步电机负载转矩进行观测,响应速度快,观测精度高。

( 2) 选用合适的补偿系数将观测到的负载转矩作为转矩电流的前馈补偿,可以补偿负载转矩变化引起的转速波动。

四种负载均衡技术 篇4

负载均衡实现的几种方法有:

■基于DNS的负载均衡,它是通过DNS服务中的随机名字解析来实现的,但不能够按照Web服务器的处理能力分配负载,无法完全解决现在网络中面临的问题:如单点故障问题,服务器资源不够用问题等。

■如果是基于IIS,Windows 2003 Server本身就带了负载均衡服务,但这一服务也只是轮流分配,可能会造成额外的网络问题。

■软件方式,通过一台负载均衡服务器进行,上面安装软件。这种方式比较灵活,成本相对也较低。但是软件负载均衡解决方案缺点比较多,因为每台服务器上安装额外的软件运行会消耗系统不定量的资源,越是功能强大的模块,消耗得越多,所以当连接请求特别大的时候,软件本身会成为服务器工作成败的一个关键;软件可扩展性并不是很好,受到操作系统的限制。

■硬件方式,通过专门的负载均衡设备实现。直接在服务器和外部网络间安装负载均衡设备,这种设备我们通常称之为负载均衡器,对于流量的分配可以有多种策略,但基本上都是应用无关的,独立于操作系统。这种方式往往适合大流量、简单应用。

一般而言,硬件负载均衡在功能、性能上优于软件方式。因为它能有效地解决数据流量过大、网络负荷过重的问题。硬件方式更适用于大量设备、大访问量、简单应用。

由上图所示,通过应用负载均衡机,使应用服务超过了一台服务器只能为有限用户提供服务的限制,可以利用多台服务器同时为大量用户提供服务,

当某台服务器出现故障时,负载均衡服务器会自动进行检测并停止将服务请求分发至该服务器,而由其他工作正常的服务器继续提供服务,从而保证了服务的可靠性。由于专门的设备完成专门的任务,独立于操作系统,整体性能得到大量提高,加上多样化的负载均衡策略,智能化的流量管理,可达到最佳的负载均衡需求。

根据图中所示高并发连接数的要求,选用梭子鱼负载均衡机340型号的路由模式进行安装,并采用2台梭子鱼340型号的负载均衡机进行堆叠部署,两台梭子鱼负载均衡机互为备份,并采用“心跳”技术实时监控伙伴设备是否实时可用,以提供秒级的故障切换,从而在负载均衡的同时,最大程度地提高web服务系统的高可用性和可靠性。

梭子鱼负载均衡机结合快速稳定的4层负载均衡解决方案,配置千兆网口和内置IPS功能,提供:

- TCP / UDP服务负载均衡

- IP保持或者不间断服务

- 服务失败自动恢复服务器机制

- 所有负载均衡服务均加载负载入侵检测功能

- 通过web界面操作,无比方便

- 兼具速度、可信度和良好的支持

- 最低端的型号都能够支持100个后端服务器

- 不按照许可证点数收费

- 开放的API支持,对ISP特别有价值

除了强大的负载均衡功能之外,梭子鱼负载均衡机还内置入侵检测(IPS)系统。即使有人已经设法突破了现有的安全防护设施,梭子鱼内嵌IPS功能也可以防止客户的价值不菲的服务器遭受系统漏洞的攻击。梭子鱼负载均衡最好的性能是能够在短短几分钟内完成安装并运行,不需要花费昂贵的实施顾问费用。

★ 例题解析Web服务负载均衡WEB服务器

★ DNS负载均衡原理和设置实操讲解

★ 均衡造句参考

★ 均衡发展标语

★ 义务教育均衡发展检查材料

★ 均衡发展检查汇报材料

★ 教育均衡促发展发言稿

★ 义务教育均衡发展标语

★ 均衡饮食的英语

竹炭负载芳香面料 篇5

这种竹炭负载芳香面料, 利用由竹子加热得到的活性炭, 然后把竹炭加工到纳米级, 利用活性炭的疏松多孔性质, 可吸附含有香水的微胶囊负载于竹炭, 纳米竹炭与化纤聚酯进行共混, 纺丝得到芳香纤维, 通过机织可得到芳香面料。

竹炭的纳米直径在100~200nm, 含有香水的微胶囊直径在10~20nm, 纤维中竹炭的添加量在5~10‰, 化纤聚酯的用量在95~99%。

采用纳米竹炭负载芳香微胶囊技术生产的纺织面料具有持久的芳香性。

联系人:王耀清

地址:江苏省太仓市横泾镇

智能工作负载管理 篇6

在Novell公司我们非常多地谈及智能工作负载管理(IWM)。在此有必要解释一下工作负载到底意味着什么。一个工作负载是一个操作系统、中间件和实现某特定计算任务的应用的完整集合。在许多情况下,工作负载具有移动性和智能性是很有益的。

优化IT投资

首先,工作负载应针对性能进行优化。无常和忙乱的变化节奏令人几乎不可能对正确的计算资源做出充分的规划,不可避免地,企业在面对新出现的需求时可用资源就显得太少,或者计算资源闲置。如果工作负载本身是经过性能优化的,那情况又是怎样的呢?

这样的话,一旦达到能力极限,工作负载会自我识别,并自动找出另外的计算资源,以满足需求高峰。不需要人工干预,也不需要当服务器崩溃时在夜晚去召唤IT人员。

加固安全

不断加强的公共审查和监察法规要求企业对用户身份进行更严紧的控制。然而就像任何系统管理员会告诉你的那样,如果人工进行,管理这些身份是极为耗时的。此外,随着越来越多的企业用户独自消耗SaaS和云应用,对于IT来说要想了解到最新的资源使用情况已变得极其困难,更别说其中涉及多少身份了。

一个比较好的选择是使用策略驱动的工作负载,这样就知道谁以及如何在使用它们。从根本上来说,就是给工作负载一个身份。这样一来,工作负载就可在物理、虚拟和云环境间动态移动,按预先设定好的方针移动。例如,如果一个工作负载包含患者健康信息,那么这个负载将会自动识别到这一点,并阻止该负载被移动到公共云中。有了这样一个连贯一致的跨物理、虚拟和云环境管理身份和访问控制的框架,就可确保符合安全规范,不需IT干预。

展示合规

具有身份意识的工作负载也可包含实时的事件跟踪、监控和报警功能。这些数据在企业展示其安全控制能力未受到破坏、企业符合相关法规要求方面起着不可或缺的作用。

减少供应周期时间

工作负载是交付企业服务的基石。就像Legos拼装玩具,工作负载可以多种方式拼合,满足企业需要。可模块化拼装工作负载会加速应用的供应时间,为企业带来极大的行动敏捷性。

调优MapReduce工作负载 篇7

Map Reduce是处理大规模数据的一个相对年轻的框架, Map Reduce是一个编程模型、一个关联型运行时系统[1]。Hadoop是奠定在原始基础上的最流行的Map Reduce实现的开源框架之一[2], 并应用于大多数公司生产配置阶段的应用程序中。Iaa S云平台允许用户即时的配置集群, 用户仅仅需要为使用时间和所使用的资源付费, 这使得Hadoop工作负载运行更为容易。Hadoop有如下优点:较好的容错能力、本地数据调度、异质环境下的操作能力、错误环境下的执行能力、模块化、可制定的框架等。本文将证明配置参数设置对Map Reduce工作的性能影响。然后, 列举日常中出现的各种各样的优化和调整场景。

2 配置参数设置的影响

Hadoop由190多个配置参数, 而本文目前只考虑其中14种对工作性能的影响[3]。本文所使用的实验对象是Word Count (简称为WC) 、Tera Sort (简称为TS) 。WC处理由Hadoop’s Random Text Writer生成的30GB的数据, TSt处理由Hadoop’s Tera Gen生成的50GB的数据。图1 (a) 、图1 (b) 与图2 (a) 、图2 (a) 分别为测量WC与TS工作执行时间生成的反映面, 其中, 这些图中有3个参数产生了变化, 而其他的工作配置参数保持常量。

参数设置对Map Reduce工作性能的影响依赖于工作、数据、集群等特征:

2.1 工作特征对工作性能的影响:

图1 (a) 和图2 (a) 展示了mapred.reduce.tasks参数设置从不同程度影响了WC、TS。无论io.sort.record.percent怎样变, reduce任务数目的增加对Word Count的性能并没有影响, 却显著提高了TS的性能。WC工作由map控制, map中的计算包括数据文件的解析、组合函数的使用, 而reduce任务只简单合计了字数。

2.2 数据特征对工作性能的影响:

数据特征可以影响有着相同参数设置的、相同Map Reduce程序的工作运行时间。图2 (a) 包含了一个“谷 (valley) ”, 在该“谷”点, io.sort.record.percent设置为0.15。io.sort.record.percent表示map的顶峰规模的分值, 用于描述map输出的元数据存储。由map任务产生的每一个记录要求16字节的元数据及其系列化规模。对于io.sort.record.percent的任何值, 平均的map输出记录的规模将决定是否由于系列化缓存的耗尽或者元数据缓存的耗尽将数据溢出 (spill) 至硬盘。

2.3 集群特征对工作性能的影响:

当reduce任务T的总数量NT比reduce任务执行槽S的总数目NS低时, 所有的reduce任务都将并发运行。当NT≤NS, 改变reduce任务的数目将对工作性能有显著的影响, 假设reduce任务的执行时间与map任务的执行时间是可比的。当NT>NS时, reduce任务将在并行reduce波里运行。从图2 (a) 中可得, reduce任务数目增加, 性能也提升, 但是由于每个并行reduce波的有效并发程度的带宽的限制, 提升率却下降。

2.4 参数间的交互对工作性能的影响:

Hadoop中配置参数的子集显示了一个或多个参数间较强的性能交互。图1 (b) 显示了当io.sort.record.percent设置较低的值时, 改变io.sort.mb对工作性能并没有产生显著的影响;io.sort.record.percent设置较高的值时, 改变io.sort.mb对工作性能产生了很大的影响。图2 (b) 显示了io.sort.record.percent、io.sort.mb间的更强、更复杂的交互。io.sort.record.percent设置不同的值, io.sort.mb变化可能导致性能的变化形式也不同。

3 调整Map Reduce工作负载的用户案例

本文的调优问题是, 对于一个给定的分析工作量, 确定集群资源和Map Reduce工作级配置参数设置, 以满足其执行时间和成本上的要求。本节首先讨论一些出现调优问题的常见场景。

3.1 调整工作级配置参数设置

在Map Reduce框架中运行单个工作, 大量的配置参数必须由用户或系统管理员设置。Map Reduce工作或工作流的性能在反应时间或工作负载的完成时间上不能满足服务级要求。因此, 需要理解工作行为、诊断工作执行期间所用参数设置的瓶颈。

3.2 调整弹性工作负载的集群规模

假设Map Reduce工作在m1.large的10-EC2节点的Hadoop集群上花费了3个小时。控制集群的应用程序或用户可能想知道如果在集群上再增加5个m1.large节点, 工作执行时间将减少多少;用户也可能想知道在集群上再增加多少个m1.large节点运行时间能降至2小时。

3.3 工作负载从发展集群向生产集群过渡

与运行关键任务和时间敏感性工作负载的生产集群相比, 许多企业为程序开发维持了独立的 (可能多样的) 集群。弹性和现买现付特性简化了维持多样集群的任务。开发者首先会在开发集群上测试新的Map Reduce工作, 可能会使用生产集群中的数据中的少量有代表性的样本。在工作被调度至生产集群之前 (通常作为分析工作负载的一部分定期运行在新数据上) , 开发者需要识别Map Reduce工作级配置, 这个工作级配置将提供良好的工作性能。

3.4 多重目标下的集群配置

Iaa S云平台提供了一个集群中所使用节点类型的多种选择。随着这些节点上计算、存储、I/O资源的增加, 每个小时的使用费用也增加。图3 (a) 、图3 (b) 分别显示了运行在EC2上的Hadoop在不同集群配置下的Map Reduce工作负载执行时间、总费用。图3 (a) 和图3 (b) 中的集群使用EC2节点类型中的5种节点;每小时使用费用, 记为cost_ph。计算每个工作负载执行的相关总费用所使用的价格模型是:

这里, num_nodes是集群中的节点数目, exec_time是在大多数云计算平台上完成工作负载的执行时间 (向上舍入到最接近的小时) 。用户可能对工作负载有多种偏好和约束[4], 例如, 用户目标可能是最小化工作负载运行的成本费用, 以最大化忍耐工作负载执行时间为代价。从图3 (a) 、图3 (b) 可以看出, 用户想以执行时间小于45分钟为前提, 最小化成本。

3.5 及时调整工作负载以降低执行成本

公式1的成本模型被用于计算图3 (b) 的成本, 基于所使用的节点类型收取每小时的费用, 其中, 这些节点被称为EC2上的按需实例。Amazon EC2也提供了现场实例。现场实例的价格随时间变化, 通常依赖于云上资源的供求关系, 电价时空变化等其他因素也可以导致云资源使用成本的波动。

综上所述, 图4与图3 (a) 、图3 (b) 的工作负载是相同的, 图4描述了使用EC2现场实例类型的运行情况。在该案例中, 用于计算总成本的定价模式:

其中, cost_ph (i) 代表了每个集群中使用的节点类型第i个小时的费用。比较图3 (b) 和图4, 显而易见, 如果所使用的集群资源不同, 则相同负载的执行费用是不同的。

4 结束语

本文主要首先讲述了配置参数设置对Map Reduce工作性能的影响, 并对云上的Map Reduce做简要介绍, 最后以实际用户案例说明了调整Map Reduce工作负载的常见场景。下一步工作是构造合适的成本模型, 研究基于数据流系统的成本优化和自动调整技术, 期望解决基于成本的优化和自动调整间的差异。

摘要:大规模的数据密集型计算引起了研究界和工业界的广泛关注, Hadoop、MapReduce等的开源实现, 越来越多地应用于大数据分析。针对MapReduce工作负载的调优问题, 通过实验验证了参数配置对MapReduce工作性能的影响, 从5个方面介绍了调整MapReduce工作负载的常见调优场景。

关键词:大数据,MapReduce工作负载,参数配置,调优场景

参考文献

[1]DEAN J, GHEMAWAT S.MapReduce:A Flexible Data Processing Tool[J].Communications of the ACM, 2010, 53 (1) :72-77.

[2]YAO Y, TAI J Z, SHENG B, MI N F.Scheduling heterogeneous MapReduce jobs for efficiency improvement in enterprise cluster[C]//IFIP/IEEE International Symposium.Belgium:2013 IFIP/IEEE, 2013:872-875.

[3]HERODOTOU H, LIM H.Star sh:A Self-tuning System for Big Data Analytics[R].Durham:in Proc of the 5th Biennial Conf on Innovative Data Systems Research.2011.

上一篇:高职学生逆反心理下一篇:保温管线