WEB网站安全优化

2024-06-09

WEB网站安全优化(共5篇)

WEB网站安全优化 篇1

1 引言

Web使用挖掘是应用数据挖掘技术从Web数据中发现用户访问模式的过程[1], 从而可以为用户提供个性化服务, 改进系统, 优化站点。本文通过对网站服务器日志进行挖掘, 找出其中存在的频繁访问模式并提出网站改进意见。

2 Web使用挖掘日志预处理方法

2.1 数据源

Web使用挖掘主要的数据源有3种:Web服务器日志 (Web server log) 、代理服务器日志 (Proxy log) 和用户浏览网页所留下的Cookie文件。在这3种数据中, Web服务器日志是最常用也是最直接的数据源, 可以直接在Web服务器上生成;对于代理服务器日志文件来说, 由于用户分布很广泛, 网站用户可能通过大量的代理访问该网站的网页, 所以收集使用代理所留下的日志文件比较困难;而对于单个用户来说, 由于涉及隐私问题, 所以在用户机上收集信息也会存在问题。鉴于以上考虑, 一般的Web使用挖掘大多采用Web服务器日志, 所以Web使用挖掘通常也称为Web日志挖掘。

2.2 Web日志预处理过程

Web日志预处理是在Web日志挖掘前, 对Web日志数据进行清理、过滤以及重新组合的过程, 其目的是剔除日志中对挖掘过程无用的属性及数据, 并将Web日志数据转换为挖掘算法可识别的形式。通常, Web日志数据的预处理过程主要包括:数据清理、用户识别、会话识别、路径补充、事务识别5个过程[2]。预处理过程的输入数据有服务器日志、站点拓扑结构和其他可选择信息, 输出数据有用户会话文件和事务数据库。

数据清理指删除Web服务器日志中与挖掘算法无关的数据, 合并某些记录。Web日志记录中大部分是网页自动产生的图片记录, 用户访问网页的主要目的在于网页内容而非图片 (专门提供图片的网站除外) , 所以需要剔除这些记录。此外, 用户请求失败的记录和访问网站时自动生成的Java脚本记录也不是挖掘所需, 需要剔除。所以, 在数据清理中需要剔除图片记录、脚本记录和请求失败的记录以及其他需要剔除的记录。

用户识别就是区分不同的用户。由于防火墙和代理服务器的存在以及不同用户使用相同设备上网等原因, 可能造成用户的不一致, 一般采用基于启发式的规则[3]来识别用户:

(1) 不同的IP地址代表不同的用户;

(2) 当IP地址相同的时候, 以不同的浏览器或者操作系统来区分不同的用户;

(3) 在IP地址相同、用户使用的操作系统和浏览器也相同的情况下, 判断每一个请求访问的页面与访问过的页面之间是否有链接, 如果一个请求访问的页面与上一个已经访问过的所有页面之间并没有直接链接, 则假设在访问Web站点的机器上同时存在着多个用户。

会话识别的目的在于区分同一用户在不同的时间所进行的不同会话, 用户会话S是一个二元组, 其中Userid是用户标识, PS是用户在一段时间内请求的Web页面的集合。

PS包含用户请求页面的标识符Pid和请求时间, 则用户会话S可以表示为公式 (2.1) 所示的元组:

通常采用设定时间阈值的办法来确定不同的会话, 即当用户在某一会话中超过了设定的时间阈值, 就认定该用户进行了下一个会话。如设定整个会话的时间阈值为T, 则对于公式 (2.1) 中的会话必须满足公式 (2.2) 所示条件:

否则认为该用户进行了不少于一次的会话。一般的应用中将时间阈值设定为30分钟, 但是L.Catledge和J.Pikow[4]由经验数据得出时间阈值设为25.5分钟更好。本文中采用30分钟作为时间阈值。

由于本地缓存和代理服务器缓存的存在, 使得服务器日志会遗漏一些重要的页面请求。路径补充的任务就是将这些遗漏的请求补充到用户会话当中。如果两个页面之间没有直接的超链接关系, 则很可能用户采用了浏览器的“后退”功能, 而由于本地缓存的存在, 日志中没有记录相关的信息, 这时就需要进行路径补充。路径补充需要将日志记录与网页的拓扑结构相结合进行。

用户会话是Web使用挖掘中唯一具备自然事务特征的元素, 但是, 要想更好地进行有效的挖掘, 就必须将其分割为更小的事务, 这里只是借用了事务的“说法”, 也称作片段识别 (Episode Identification) 。常用的事务分割方法是最大向前引用路径 (Maximal Forward Reference Path) 方法[5], 该算法的主要思想是把一个最大向前引用路径看成一个片段:如果用户在浏览过程中再次浏览已经浏览过的页面 (即使用“后退”功能) , 则认为向前引用终止, 得到一个最大向前引用路径;如果用户浏览完成也得到一个最大向前引用路径。

2.3 数据采集及预处理

本文采用的数据是原版英语小说网[6]在2009年5月7日00:00~23:59的服务器日志, 日志以文本形式保存在TXT文件中, 共247M, 总记录条目约100万条。

为方便, 将Web日志导入My Sql数据库中, 采用前文所述的方法进行数据处理。首先将日志中不符合要求的记录清除, 清除的日志条目主要是以下几类:

(1) 图片记录, 即以jpg、jpeg、gif、JPG、GIF、JPEG、png等后缀名结尾的记录;

(2) 网站自动生成的Java脚本文件, 即以js、css等后缀名结尾的记录;

(3) 请求方法不是GET的记录;

(4) 响应值不等于200的不成功的请求记录;

(5) 广告条目记录, 即URL以/ad开头的记录。

使用Sql语句将数据中不需要的条目清除。在剩余的数据中, 有一部分是搜索网站的网络蜘蛛自动抓取时留下的记录, 这些记录对于研究用户浏览模式没有直接的联系, 可以将其删除, 整个数据清理过程结束之后得到430 865条记录。采用前文介绍的用户识别、会话识别方法进行识别, 总计得到5 693个独立用户, 6 298个独立会话, 最后进行事务识别, 得到7254条事务记录。

3 挖掘模型的建立

3.1 关联规则

关联规则是指大量数据中项集之间有趣的联系, Web日志挖掘的关联规则就是描述一个用户会话中用户的各浏览行为同时出现的规律, 其目的在于找出Web日志访问记录中隐含的联系。一般来讲, 关联规则的发现要经过以下4个步骤[7];

(1) 进行数据清理、集成、转换、聚集等数据准备。在Web使用挖掘中, 数据预处理工作完成了第一步——数据准备。

(2) 根据实际情况, 确定最小支持度和最小可信度。在Web使用挖掘中可以根据网站使用的实际情况, 如用户的点击量、点击率等确定。

(3) 利用数据挖掘工具提供的算法发现关联规则。

(4) 可视化显示、解释、评估关联规则, 即Web使用挖掘中的最后一步——模式分析。

在关联规则发现算法中, Apriori算法是一种最具有影响的挖掘布尔关联规则频繁项集的算法, 最早由Rakesh Agrawal等人[8]提出。

3.2 Web使用挖掘实验

实验采用的挖掘算法是关联规则中的Apriori算法, 使用的挖掘工具是马克威分析系统[9], 输入的数据是通过前文数据预处理之后的事务记录数据。首先, 将处理好的事务元组存入数据表中, 为了挖掘方便, 统一将浏览路径补全, 缺少项使用X代替, 得到事务文件。

数据输入后采用关联规则挖掘功能, 选择使用Apriori算法, 建立挖掘模型, 设置支持度、可信度等参数。考虑到浏览该网站固定用户较少, 且浏览内容分布广泛, 用户浏览的所有网页之间存在的关联性较小, 因此在设置参数时将最小支持度和最小置信度分别设为10%和15%。在实际应用中应该考虑具体的情况调整参数的设置, 进行总体挖掘。

在总体挖掘结束之后, 为了进一步了解网站各版块的具体情况, 基于网站的主要内容并结合网站管理员的意见, 根据网站主要版块的浏览情况进行再次挖掘。网站主要包括Article (文摘) 、fiction (小说) 和yingyu (英语学习) 3个版块。

在针对主要版块进行的再次挖掘中, 为了更好地挖掘出关联规则, 将挖掘参数中最小支持度调整为5%, 置信度不变, 仍旧为15%。

4 挖掘结果分析

4.1 总体挖掘结果分析

进行总体挖掘得到如表4.1所示的强关联规则。

从表中数据分析得知:

(1) 浏览了Article版块的用户中有12.81%的用户浏览了Psycology子版块, 置信度为24.75%。

(2) 浏览了fiction版块的用户中有23.80%的用户浏览了Fiction子版块, 置信度为95.83%。

在Psycology子版块中的主要内容是有关于健康、激励、成功等内容, 通过挖掘可以看出, 这部分内容比较受到读者的欢迎;而在Fiction子版块主要是在线小说和杂志, 包括《哈利·波特》、《时代》等内容, 通过挖掘发现在fiction板块中浏览在线小说的用户较多。

4.2 Article版块挖掘结果分析

Article版块的挖掘情况如表4.2所示。

结合网站内容和挖掘结果可知, 在Article这一板块中, 用户的主要兴趣点在Fashion、Employment、Motivation和Success 4个方面, 而编号为61210的内容页面在这一天的点击量最大。

4.3 Article版块挖掘结果分析

fiction版块的挖掘情况如表4.3所示。

总体而言, 在fiction版块, 用户的兴趣点集中在Fiction版块中的Erotic和romance两个子版块上, 编号为799、59037、59039和59064的内容页面点击量最大。

4.4 yingyu版块挖掘结果分析

yingyu版块的挖掘情况如表4.4所示。

从表4.4中数据可知:浏览了yingyu版块的用户中浏览category-catid-166.html页面的人为59.13%, 置信度为59.13%。通过查询网页, 页面category-catid-166.html为双语阅读的导航页, 由此可以看出, 用户主要对这一版块的双语阅读感兴趣。

4.5 主要版块挖掘结果综合分析

综合各版块挖掘结果可以看出, 在Article版块, 支持度最高的两个浏览模式是, 而置信度最高的两个浏览模式是。通过与网站管理员的沟通发现, Others版块并不是他们设计的主要内容, 但通过挖掘可知用户对该部分内容相对比较感兴趣, 访问量比其他版块高, 所以在今后的网站建设和维护过程中可以加强这部分内容的扩充, 同时可以将该部分的内容适当提前, 比如在主页可以适当增加这部分内容的链接;在fiction版块, 浏览模式的支持度和置信度远远高于其他种类, 该版块的主要内容中在线小说是用户主要的关注对象, 而在线小说中的romance分类相对受欢迎程度比较高;在yingyu板块, 导航页category-catid-166.html的点击量最大, 该页面是双语阅读的导航页, 点击此页之后可以浏览双语阅读的文章列表。通过与管理员的沟通了解到, 双语阅读是网站主要的特点之一, 这个版块主要为读者提供英汉对照的文章, 由于该部分内容丰富并且质量较高, 深受读者喜爱, 挖掘结果与实际情况符合。

5 结论

本文在研究Web使用挖掘的基础上, 采用关联规则挖掘中的Apriori算法对原版英语小说网的服务器日志进行使用挖掘, 对网站建设提出了改进建议。另外, 通过整个挖掘实验过程, 发现Web使用挖掘中的数据预处理是整个挖掘的重点, 而数据预处理中的会话识别和事务识别难度较大, 是决定整个挖掘成功与否的关键点。

参考文献

[1]Srivastava Jaideep, Cooley Robert, Deshpande Mukund, Tan Pang-Ning.Web Usage Mining:Discovery and Applications of Usage Patterns from WebData[J].SIGKDDExplorations, 2000, 1 (2) :12-23.

[2]Robert Cooley, Mobasher Bamshad, Srivastava Jaideep.Data Preparation for Mining World Wide Web Browsing Patterns[J].Knowledge and InformationSystems, 1999, 1 (1) :5-32.

[3]Pirolli Peter, Pitkow James, Rao Ramana.Silk from a Sow’s Ear:Extracting Usable Structures from the Web[C]//Proceedings of1996Conference on Human Factors in Computing Systems (CHI-96) , Vancouver, British Columbia, Canada, 1996:118-125.

[4]Catledge Lara, Pitkow James.Characterizing Browsing Behaviors on the World Wide Web[J].Computer Networks and ISDN Systems, 1995, 27 (6) :1065-1073.

[5]Chen Ming-Syan, Park Jong Soo, Yu Philip S.Data Mining for Path Traversal Patterns in a Web Environment[C]//Proceedings of the16th International Conference on Distributed Computing Systems, 1996:385-392.

[6]原版英语小说网.http://www.en8848.com.cn/, 2009.

[7]武森, 高学东, [德]Bastian M.数据仓库与数据挖掘[M].北京:冶金工业出版社, 2003.

[8]Agrawal Rakesh, Imielinski Tomasz, Swami Arun.Mining Association Rules between Sets of Items in Large Database[C]//Proceedings of1993ACM SIGMOD International Conference on Management of Data, 1993:207-216.

[9]上海天律信息技术有限公司.马克威分析系统[CP].http://www.tanly.com/web/index.html.2009.

WEB网站安全优化 篇2

简略答一下,

一般来说,很多安全专家都会告诉你没有绝对的安全,如果 一定要长期盯着你的公司有针对性的渗透,很少有可以幸免的。

这么说难免令人沮丧,尽管如此,我们仍然不能坐以待毙。就算所有公司都被 黑掉了,我们也希望自己能是最后被黑掉的那一个。同时,如果采取的措施恰当,是有可能将损失降至最低的。

对于创业团队来说,业务发展速度快,运维策略、研发过程可能都不太规范,这给安全工作会带来很多的问题。最常见的是:

1. 代码更新频繁且快速,增加安全检查是一种额外的负担

2. 测试环境、生产环境混乱,程序员、测试、运维可能都有服务器的权限

3. 缺乏必要的策略和流程,以至于产生SVN权限乱给、离职员工还能有权限、员工随意在服务器上开端口暴露出去等诸多问题

以上问题都给安全工作带来了很多困难,而且创业团队一般来说是没有全职的安全工程师岗位的。

根据我的经验,一般公司对安全的重视程度,与这家公司是否出过安全事件有着极大的关系。如果一家公司以前从没有遇到过安全问题,那么也不会有什么决心在安全方面有所投入;相对的是,如果一家公司遭遇过 攻击,并且造成了一定损失,那么对安全问题的态度就会来个一百八十度的转弯。

无论是教科书上,还是我的从业经验,都认定了一个事实:安全工作需要自顶向下展开。无数次教训告诉我们,自底向上展开安全工作,是注定要失败的。

所以如何有效的开展安全工作?最重要的前提,就是公司的管理层能够从战略上重视安全问题。如果最高管理层本身具有很强的安全意识,甚至懂很多攻击或防御的技术知识,那么安全工作往往会很有成效,而且能够省很多钱。

对于创业团队来说,如何开展安全工作我有如下建议:

1. 定期请第三方安全公司做安全评估

这样你可以减少人力成本的投入,同时让更专业的人做专业的事情,

2. 考虑使用开源或商业的WAF(Web应用防火墙),或者是IPS(入侵防御系统)

使用WAF的好处是可以尽量少的改动代码,同时为打补丁赢得时间。因为有时候改代码是很麻烦的一件事情,而有些第三方程序的代码改起来就更麻烦了。

3. 合理收紧各种权限

包括数据库、服务器、应用后台、SVN等权限,只把权限开放给需要使用的人。

4. 妥善保管好所有的日志

包括各种应用的日志、Web日志、服务器日志等。需要实时的远程收集起来,远程收集的原因是有的 入侵后的第一件事情就是篡改日志。

5. 给员工做一些安全培训

基本的安全意识还是要有的。经常有 会打客服电话或者发邮件过来搞搞诈骗。同时还要杜绝弱口令,很多管理后台都是因为弱口令被黑掉的。程序员也需要具备一些基本的素质,杜绝常见的不安全代码的写法。

6. 考虑找一套比较合理与靠谱的安全解决方案

解决方案一般考虑三个方面:代码安全如何实现、网络安全策略如何制定、操作系统如何加固。

如果想把整套安全体系跑起来的话,你还需要制定一个安全运营的策略,比如定期扫描网站、审计日志和代码,以及制定应急响应的流程。

大致就这些了,写着写着发现和一般公司做安全差不多了,安全想做好确实不容易,有条件的话还是招聘专业的人吧。

回到题主最开始的问题“低成本”上来。

以上几点都有不花钱的方式,定期的安全评估可以用定期的扫描替代,不过效果要差上一些。还有取巧的方式是向安全社区公开征集漏洞,并有奖答谢,成本也不会很高,但效果却出奇的好

WEB网站安全优化 篇3

关键词:Web日志挖掘,网站优化

1 We b日志挖掘技术及应用分析

Internet是信息社会的重要标志, 它的爆炸式的发展已经超出人们预期的想象, 为了更好的分析Web的使用和Web的结构, Web日志挖掘作为数据挖掘[1]的一个重要分支, 随着Web的发展而出现。1997年R.Cooley首先提出Web使用 (日志) 挖掘这个概念, 它通过挖掘Web站点的访问日志, 分析Web日志中存在的规律, 掌握用户访问站点的模式;从而帮助网站管理者识别潜在的客户、更好地开展电子商务、改善Internet的信息服务质量和提高Web服务器的系统性能。

Web日志挖掘[2]作为数据挖掘的一个重要分支, 已经成为国际上一个新兴的重要研究领域。其中最有代表性的是WEBKDD会议, 从1999年到现在, WEBKDD已经涌现了丰硕的成果。比较有代表性的研究成果有:Simon Fraser大学的Weblog Miner系统, 它将Web日志数据组织为数据立方体, 然后在其上进行联机分析处理和数据挖掘[3], 用于发现用户的访问模式。Minnesota大学的WEBMINER系统提出一种通用的Web日志挖掘的体系结构, 该系统能自动从Web日志中发现关联规则和序列模式等。

Web日志挖掘的研究主要应用于网站优化的以下几个领域。

1.1 频繁访问模式挖掘, 指的是从Web日志中找到频繁被访问的网页序列, 对被频繁访问的网页路径进行挖掘可以改进Web站点的结构设计, 也可以为网站经营者提供决策参考。

1.2 用户聚类, 指的是从Web日志中找到访问模式相似的网站用户群, 发现这些网站用户的共同特点。

1.3 用户访问预测的研究, 指的是根据用户当前的访问路径预测用户将来的访问页面。

1.4 优化客户访问体验和提高网站收益:通过对客户的访问模式进行挖掘, 可以发现潜在客户, 对于一个电子商务网站来说, 尽可能从众多的访问者中发现潜在客户群体, 就意味着交易可能性的大大增加;同时通过Web日志数据挖掘, 增加网站对客户的粘性, 延长客户在自己网站上的驻留时间, 就更容易掌握客户的浏览行为, 改进站点的设计, 提高电子商务的效益。

要在网站优化中具体应用Web日志挖掘技术, 有两个重点问题要解决, 一个是建立Web日志挖掘应用系统模型, 一个是采用适当的算法对海量数据进行精确分析。本文将对这两方面的问题做一个阐述。

2 面向电子商务的We b日志挖掘应用系统模型

面向电子商务的Web日志挖掘系统模型主要有三个部分:数据库、数据挖掘集成工具和图形用户界面 (GUI) 模块。整个系统的结构如图1所示。

在该模型下, 用相关的关系型数据源创建数据库, 并通过图形用户界面进行管理和维护, 在此基础之上支持各种数据挖掘任务、为数据挖掘提供数据平台。数据挖掘集成工具是一个挖掘驱动引擎, 它是一个规则集合, 能够集成多种数据挖掘算法, 到Web数据挖掘算法库中选择最有效的挖掘算法处理数据挖掘和决策推理工作, 完整的挖掘数据预处理过程包含:数据净化、用户识别、会话识别、路径补充、事务识别等几个步骤。图形用户界面 (GUI) 用于用户与系统的交互, 用户通过GUI建立和执行任务, 完成各项数据挖掘任务, 一般执行数据挖掘任务得到的结果往往是一些抽象的模型或者数据, 一般用户较难理解, GUI可以帮助用户直观明了地理解挖掘结果, 管理人员可以通过浏览器方式实现系统管理, 对数据挖掘发现的模式进行解释和评价, 过滤出有用的知识, 利用可视化技术将有意义的模式以图形或逻辑可视化的形式表示。

在该模型下进一步拓展, 可以建立相关的专家方法驱动系统。其主要功能是利用挖掘出来的高价值信息去进行相应的应用。其中, 页面访问情况可以用来指导网页的重构, 分析出的客户消费行为模式可以作为反馈信息, 以客户关系管理的方式对客户进行直接的点到点促销;根据客户的访问模式, 还可以给出客户的定制化页面, 针对不同的消费需求制定不同的促销模式等。

3 应用于电子商务网站优化的频繁路径挖掘算法

对Web站点的优化可从两个方面来考虑:一是通过对Web日志的挖掘, 发现用户访问页面的相关性, 从而在密切联系的页面之间增加链接, 方便用户使用;二是通过对Web日志的挖掘, 发现用户的期望位置, 如果在期望位置的访问频率高于实际位置的访问频率, 可考虑在期望位置和实际位置之间建立导航链接, 从而实现对Web站点的优化。无论是出于哪方面的, 都要通过Web日志挖掘, 分析用户访问路径来获取用户的浏览模式, 这部分工作主要依靠频繁路径的挖掘来完成。可以说, 对网站频繁路径的挖掘是网站优化工作的基础。本文重点对网站频繁路径的挖掘算法做一分析。

挖掘频繁访问路径的主要步骤可以概括如下:

3.1 从原始日志文件中获得MFP

3.2 从MFP中获得频繁引用序列

3.3 从所有频繁引用序列中获得最大引用序列

其中MFP指的是最大前向路径。由于用户会话在遍历路径时存在两个移动方向, 一个是前进, 即请求页面是此前用户会话中从未访问过的页面, 另一个是后退, 即请求页面是用户会话中已经访问过的页面。最大前向路径是用户在会话的第一页到回退的前一页组成的路径。

我们首先要获得MFP, 获得MFP算法的主要思想是:

假设{x1, x2, …, xm}表示一个用户会话, {y1, y2, …, yj-1}表示一个潜在的MFP, 初始为空。Flag标识当前的访问方向是前进还是后退。每次检查用户会话中的xi, 试图将其扩充到潜在MFP中。

(1) 若则xi将作为yj加入潜在MFP中, 并且将flag标记为前进;

(2) 否则有xi=yk, 其中1≤k

若在此之前, Flag表明的移动方向是前进。则将{y1, y2, …, yj-1}作为一个MFP加入到结果集合。然后从潜在MFP中删除页面{yk+1, …, yj-1}。并设Flag为向后移动标志, 进入下一轮循环。

若Flag表明的移动方向是后退时, 则此时的{y1, y2, …, yj-1}不是MFP, 直接删除页面{yk+1, …, yj-1}, 进入下一轮循环。

3) 如果循环到用户会话中的最后一页, Flag标志仍表明向前, 则此时{y1, y2, …, yj-1}是一个MFP。

MFP算法的伪代码如下:

接下来我们需要从MFP中找出所有频繁遍历路径, 本文提供一种基于Apriori算法的改进方案, 具体描述如下:

其中:D表示事务数据库;min_sup表示给定的最小支持度;result表示所有的频繁引用集;c.count表示引用c在事务数据库D中被包含的次数。第一行#1是产生所有只含一个页面的引用出现的次数, 第二行#2通过C1和最小支持度min_sup产生频繁1引用集L1。#3-#13行通过一个大的循环完成频繁引用的生成, 直到某个频繁引用集合为空。

该算法非常有效而且快速, 整个过程只要遍历两次数据库。通过实际网站优化的案例来看, 其分析的聚类结果是比较符合客观事实的。

4 结束语

通过Web数据挖掘, 我们可以从数以亿计的存储大量多种多样信息的Web页面中提取出我们需要的有用的知识, 在对总的用户访问行为、频度、内容等的分析基础上, 可以得到关于群体用户访问行为和方式的普遍知识, 通过对这些用户特征的理解和分析, 可以有助于开展有针对性的电子商务活动, 给每个用户个性化的界面, 提供个性化的电子商务服务。

本文提出了一种有效算法, 该算法通过改进经典的关联规则中的Apriori算法, 实现了最大频繁引用序列的挖掘过程。在挖掘最大频繁引用序列的基础上进行电子商务网站优化, 不仅可以提高访问者的查询速度, 节省了不必要的网络开销, 而且对于提高网站自身的质量和声誉也是大有裨益的。

参考文献

[1]J.Han and M.Kamber, Data Mining:concepts and techniques, 2006.

[2]韩家炜, 孟小峰, 李盛思.WEB挖掘研究.计算机研究与发展, 2001, 38 (4) :405-414.

WEB网站安全优化 篇4

后来我搜下发现有很多这样的网站。

今天还是一个网友发现告诉我的,他说现在虽然我发现了,也停止了,但是他的权重会越来越高,就是说我的三级域名的权重会越来越高,数量越来越多,直到权重超过你的首页。

最近好多人加我,叫我出售泛解析,我都温婉的拒绝了,我也不知道这些人哪里来的,如果域名商的内部人员这么操作,这确实是一门生意。如果是域名商的话,这事就有的说了,如果是域名密码被知道了,只能认倒霉。其实一般都很少用到域名密码,都是直接登陆那注册的IDC网站,再去管理域名。

发现这个情况会就立刻删掉那域名解析,但问题还是有的,百度那边已经收录了,被泛解析后,直接就降权了,

今天给百度站长论坛提交了反馈不知道会不会处理。泛解析的域名是站长不能控制的,都是乱七八糟的字母。

域名商查的8份开始的,这是个另外一个网友的IDC通告,这倒好,IDC直接禁止了所有蜘蛛爬行。对我们站长来说影响也很大。

我:那你现在就是立刻停止解析域名和百度申诉了,其他的都没做?

答:没有做,其他的我也不知道要做什么了,改域名的管理密码就是了。

我:去和你的域名供应商联系一下,肯定是你的密码什么的泄露了。这样的情况,进入管理后台把里面的*解析删除,然后修改管理密码,如果还是被别人泛解析,那就该DNS服务器地址。

另外,如果网站域名被泛解析后,又被百度等搜索引擎收录了,就很麻烦了,如文中所讲先是去百度申诉,不过一般没戏。360提供了网页快照删除的申诉(地址),还不错。不过如果被百度标记为危险网站的话,可以考虑去知道创宇申诉。因为百度的是采用安全联盟的数据库。在站长工具网站被K申诉通道中,我记录了大部分的投诉通道。有兴趣的朋友可以去看看。

WEB网站安全优化 篇5

关键词:Web网站,信息安全,保护,解决措施

1 引言

We b网站是各个单位在因特网上展示单位形象的门户, 是各个单位对外宣传的重要窗口。同时, Web站点是政府机关开展电子政务的重要平台, 为教育科研单位开展远程教育、对外信息交流提供了一个互动平台, 也是企业开展电子电子商务的重要平台。

就在人们尽情地享受着Web网站提供的丰富多彩的服务之时, 来自因特网的黑客攻击、电脑病毒和木马越来越严重威胁到Web网站的安全, 进而威胁到电子政务、电子商务活动的正常进行。Web网站作为因特网的重要应用平台, 成为因特网上各种威胁的首要攻击目标。在这种情形下, 做好Web网站安全防御就有着十分重要的意义。

2 Web网站构成与部署

典型的Web网站一般由Web服务器、应用服务器、数据库服务器三部分构成, 也可以不部署应用服务器。服务器硬件系统主要有运行Windows/Linux操作系统的X86服务器与运行Unix操作系统的RISC小型机两大类。X86服务器具有高性价比、标准化的优势, 而RISC小型机具有在关键应用领域的高可靠性的优势。架设Web服务器最常用的软件主要有Microsoft IIS和Ap ache。应用服务器可以简单理解为对已有中间件技术的更高层次的封装, 常见的应用服务器软件主要有BEA Web Logic、IBM Web Sphere、Tomcat、JBoss。数据库服务器软件主要有Microsoft SQL Server、Oracle和My SQL。Web网站构成如图1所示。

We b服务器主要是处理向浏览器发送HTML以供浏览, 应用服务器通过HTTP等各种协议把商业逻辑暴露给 (expose) 客户端应用程序, 数据库服务器存储大量的数据信息和数据逻辑。用户对网站的访问过程如上图所示。客户端发出数据访问请求, 首先交给Web服务器, 再通过Web服务器到达应用服务器, 再由应用服务器访问数据库服务器。

IDC即是Internet Data Center, 是基于因特网, 为集中式收集、存储、处理和发送数据的设备提供运行维护的设施以及相关的服务体系。IDC提供的主要业务包括主机托管、资源出租、系统维护、管理服务, 以及其他支撑、运行服务等。Web网站服务器硬件一般部署在单位自有或租用的IDC机房内。

3 Web网站安全威胁

We b网站作为因特网信息交流的一个重要平台, 因为涉及到文字电视广播、语音会话与网络传真等WWW应用, 带来了与一般计算机和网络安全不太一样的挑战。W eb网站安全威胁的来源主要有:自然灾害、意外事故;计算机犯罪;人为错误。

We b网站面临的安全威胁主要体现在以下几个方面:

(1) 遭受黑客入侵。由于在早期网络协议设计上对安全性的忽视, 致使因特网在推动网络技术迅猛发展的同时, 逐渐使自身的安全受到严重威胁。黑客 (Hacker) 利用各种系统软件、应用软件的漏洞侵入因特网上的各种类型网站, 或窃取机密数据和盗用特权, 或破坏重要数据, 或使系统功能得不到充分发挥直至瘫痪。

(2) 电脑病毒、木马的泛滥。随着因特网的极速扩展, 电脑病毒、木马也同步在因特网上快速传播, 危害到Web网站的正常运转。

(3) 信息的安全管理。各种信息在因特网上传输、存储过程中, 遭到破坏与窃取, 信息的保密性、完整性和可用性受到破坏。

4 安全系统的管理体制

很多风险不仅仅来自于技术层面, 更可能来自于安全系统自身的管理方面。目前的安全防御系统更加侧重的是对外部威胁的防范, 对于来自内部的威胁往往力不从心。Web网站安全不仅要在技术方面进行强化, 更要在管理上积极主动, 将各种隐藏的安全隐患消灭在萌芽状态, 防患于未然。

5 等级保护工作实施的意义

信息系统安全等级保护是指根据信息系统应用业务重要程度及其实际安全需求, 对信息和信息系统划分为五个安全保护和监管等级, 实行分等级保护, 保障信息安全和系统安全正常运行, 维护国家利益、公共利益和社会稳定。信息系统安全等级保护基本要求的内容分为技术和管理两大部分, 其中技术部分分为:物理安全、网络安全、主机安全、应用安全和数据安全及备份恢复等5大类, 管理部分分为:安全管理制度、安全管理机构、人员安全管理、系统建设管理和系统运维管理等5大类。

等级保护的核心是对信息系统特别是对业务应用系统安全分等级、按标准进行建设、管理和监督。国家实行信息安全等级保护制度, 可以有效地提高我国信息安全建设的整体水平;有利于在信息化建设过程中同步建设信息安全设施, 保障信息安全与信息化建设相协调;有利于加强对涉及国家安全、经济秩序、社会稳定和公共利益的信息系统的安全保护和管理监督;有利于明确国家、法人和其他组织、公民的安全责任, 强化政府监管职能, 共同落实各项安全建设和安全管理措施;有利于提高安全保护的科学性、整体性、针对性, 推动信息安全产业水平, 逐步探索一条适应社会主义市场经济发展的信息系统安全发展模式。

信息系统安全等级保护制度的建立适应了当前国家各个部门应对日益严重的信息系统安全威胁的需要, 对信息系统安全存在的问题、如何整改、需要多少投资等问题进行了梳理, 明确了信息系统安全建设和管理的工作方向、中心任务。信息系统安全等级保护制度的建立对包括Web网站在内的信息系统的安全建设具有重要的指导意义, 我们可以参照《信息安全等级保护管理办法》的相关安全标准和相关法律、法规, 分析Web网站的网络现状和安全需求, 结合实际应用和未来发展, 进行Web网站安全系统的实际建设。

6 Web网站安全解决方法

根据对Web网站安全威胁的分析, 参照《信息安全等级保护管理办法》的要求, 综合考虑安全、成本、效率等因素, 按照信息安全等级保护三级要求进行Web网站安全系统的规划设计。

6.1 安全域划分

安全域是指具有相同的安全保护需求、并相互信任, 执行相同的安全访问控制和边界控制策略的信息与信息载体组成的逻辑区域。安全域划分的目的是把一个大规模复杂系统的安全问题, 化解为更小区域的安全保护问题, 是实现大规模复杂信息系统安全等级保护的有效方法。

6.2 物理安全

主要是考虑加强IDC机房防盗窃和防破坏、防雷击、防火、防水和防潮、防静电、温湿度控制、电力供应、电磁防护等方面的安全防范能力, 同时加强进出IDC机房人员的管理。

6.3 网络安全

(1) 通过物理线路以及网络设备的冗余设计, 满足业务高峰期的需要。通过配置安全登录、身份鉴别、安全路由以及划分VLAN进行安全访问控制。通过配置网络设备审计功能, 记录网络设备的运行状况, 以供分析安全事故的原因。同时在网络中配置Qo S保证在网络发生拥堵的时候关键数据得到优先传输。

(2) 通过在与因特网连接的网络边界处部署DDOS防御网关, 对DOS/DDo S攻击 (拒绝/分布式拒绝服务攻击) 进行检测、分析和阻断, 有效防止大规模拒绝服务攻击, 确保Web网站系统资源的可持续正常使用。

(3) 通过部署基于网络的入侵防护系统 (NIPS) , 配合防火墙、防毒墙等安全设备, 在网络边界处监视端口扫描、强力攻击、木马后门攻击、拒绝服务攻击、缓冲区溢出攻击、IP碎片攻击、网络蠕虫攻击等攻击行为, 根据预先设定的安全策略, 对隐藏于流经网络的网络攻击行为进行阻截。

6.4 主机安全

(1) 通过冗余设计, 防止Web网站主机系统出现单点故障。通过及时升级操作系统、Web服务器软件、数据库系统积极应对各种软件系统自身的缺陷导致的安全问题。通过对各种软件系统的合理配置, 保证授权用户的合法访问, 防范各种非法访问事件。

(2) 通过部署网络防病毒系统, 有效抵御各种电脑病毒和混合威胁的攻击, 与防毒墙一起构成一个技术领先、稳定可靠的全方位、多层次病毒立体防御体系。通过在Web网站主机上基于主机的入侵防护系统 (HIPS) , 防止网络攻击入侵操作系统以及应用程序, 阻断缓冲区溢出、改变登录口令、改写动态链接库以及其他试图从操作系统夺取控制权的行为, 从而保护Web网站主机免受攻击。

6.5 应用安全

(1) 通过合理配置Web网站应用软件防止非法访问, 对与Web网站应用软件有关的重要安全事件进行审计。通过数据加密、数字证书等技术手段, 保证数据传输的安全性、数据的完整性和不可抵赖性。通过合理设计Web网站应用软件, 强化Web网站应用软件对错误、故障的检测处理能力。

(2) 通过部署We b应用防火墙, 通过对H T T P/H T T P S及应用层数据的深度检测分析, 识别及阻断各种传统类型防火墙无法识别的Web应用攻击。通过部署网页防篡改系统, 在网站被黑客入侵后, 通过用先前备份的网页覆盖被黑客篡改的网页来降低网站被黑客入侵的后果。Web应用防火墙是一种主动型防御手段, 网页防篡改系统一种被动型防御手段, 这两种技术手段是Web网站区别于其它信息系统, 需要重点考虑的安全防御手段。

6.6 安全管理

“三分技术, 七分管理”这句话是对信息安全非常客观的描述, 任何信息系统仅在技术上是做不到完整的安全的。通过细化安全管理制度、安全管理机构、人员安全管理、系统建设管理和系统运维管理等5个方面的安全管理工作, 弥补纯技术手段的不足, 切实保证Web网站系统的安全。

6.7 安全服务

安全服务贯穿到安全建设、管理的咨询、设计、选型、实施、售后服务等各个环节, 主要包括信息安全评估服务、安全巡检服务、安全加固服务、紧急响应服务、安全培训服务、安全管理策略服务和安全顾问服务等。

7 结语

We b网站正影响着社会生活的各个方面, Web网站安全是各行各业必须认真考虑的重要问题。国家对信息安全等级保护工作运用法律和技术规范逐级加强监管力度。突出重点, 保障重要信息资源和重要信息系统的安全。按照信息安全等级保护相关标准进行Web网站安全系统建设, 可以有效地解决Web网站系统所亟待解决的各种安全问题。

参考文献

[1]黄传河.网络规划设计师教程.北京:清华大学出版社, 2009.

上一篇:综合自动化控制技术下一篇:新生教育问题