个人信息泄露安全解决办法案例_第1页
个人信息泄露安全解决办法案例_第2页
个人信息泄露安全解决办法案例_第3页
个人信息泄露安全解决办法案例_第4页
个人信息泄露安全解决办法案例_第5页
已阅读5页,还剩1页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

个人信息泄露安全解决办法案例个人信息泄露的主要途径就是通过网络,如果是在论坛、Blog以及静态网站发布的文章或者消息中包含个人隐私信息,用户将这些包含个人隐私的页面删除后,从表面上来看,似乎解决了个人隐私信息泄露问题,但是由于搜索引擎搜索网页过程中会将页面放入缓存,这个缓存也就是通常说的"网页快照",网页快照就是搜索引擎在收录网页时,都会做一个备份,大多是文本的,保存了这个网页的主要文字内容,这样当这个网页被删除或连接失效时,用户可以使用网页快照来查看这个网页的主要内容,由于这个快照以文本内容为主,所以会加快访问速度。在个人信息信息泄露中,一个最大的安全隐患就是搜索引擎抓取的网页快照。一般情况下,搜索引擎都不会自动删除网页快照,只要其被搜索引擎收录,其信息就能访问。因此要解决网站信息泄露问题,其中一个关键的问题就是要删除网页快照。本案例就个人隐私信息泄露安全解决办法进行了探讨,下面是具体的解决办法。删除网页快照,以删除百度搜索引擎为例。删除搜索引擎中的网页快照。有的搜索引擎提供了网页快照删除功能,例如Google,用户需要在网站管理工具中进行注册,然后将一个标识插入到网站首页后,用户就可以管理网页快照。百度没有提供自动删除网页快照功能,只能通过发邮件或者电话联系的方式进行。可以直接给Webmaster@发求助删除网页快照的邮件。说明①直接跟百度联系是一种较好的办法,也可以通过百度自己提供的百度对话平台进行沟通,其访问地址为:/quality/quality_form.php?word=%2E。②删除程序文件或者更改链接。通过研究帮助文件,发现最为快捷和方便的方法是更改网站泄露文件的名称或者直接删除信息泄露文件或者更改链接地址,不过该方法需要一个月左右才会生效。删除Google搜索引擎中的网页快照。删除Google搜索引擎中的网页快照相对就容易多了,而且在Google的帮助文件中有关于如何删除网页快照的具体方法。具体进入方式为:Google首页->"Google大全"->"搜索帮助",其中有很多关于删除网页快照的解决方法,详细地址为:/support/bin/answer.py?answer=61808&hl=zh_CN。说明①Google搜索引擎比较严密,它注意很多细节。②使用Google网站管理员工具。Google提供的网站管理员工具使用起来非常方便,不过使用它来管理需要两个前置条件:首先需要拥有Google账号或者Gmail账号,其次需要在需要删除网页快照的网站首页的HTML代码中的第一个head处添加Google的验证标识。验证成功后即可进行网站网页快照的管理,如图2-102所示,在该工具中网站管理员工具中还可以对rotbots文件、网站地图、网站链接等进行管理。(点击查看大图)图2-102Google网站管理员工具说明Google网站管理员工具可以有选择地从Google搜索结果中删除内容,删除在六个月内有效。可以删除以下内容:①单个网址、网页、图片或其他文件,删除过期或被拦截的网页、图片和其他文档,使其不再出现在Google搜索结果中。②网站上的目录及所有子目录,删除网站上指定目录内的所有文件和子目录,使其不再出现在Google搜索结果中。③整个网站,从Google搜索结果中删除网站。④Google搜索结果的缓存复本,对已经过期或你已添加无存档元标记的网页,删除其缓存复本和网页说明。⑤网站管理员工具地址:/accounts/ServiceLogin?service=sitemaps&continue=%2Fwebmasters%2Ftools%2Fsiteoverview%3Fhl%3Dzh_CN%3Fhl%3Dzh_CN&nui=1&hl=zh-CN总之在Google管理员工具中最为方便的就是管理员可以自由选择删除网站内容,可以删除整个网站,可以是网站链接,也可以是文字,如图2-103所示,可以依据其相应的提示进行操作,非常方便。(点击查看大图)图2-103删除快照编写自己的robots.txt。robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。Robots.txt编写很简单,网上有很多关于这方面的资料,我就不赘述了。只列举几个常用的例子供大家使用。(1)禁止所有搜索引擎访问网站的任何部分。User-agent:*

Disallow:/(2)只允许访问searchhistory目录User-agent:*

Allow:/searchhistory/

Disallow:/(3)禁止所有搜索引擎访问网站的01、02、03目录User-agent:*

Disallow:/01/

Disallow:/02/

Disallow:/03/(4)禁止BadBot搜索引擎的访问User-agent:BadBot

Disallow:/(5)只允Crawler搜索引擎的访问User-agent:Crawler

Disallow:

User-agent:*

Disallow:/加强程序安全。先前,很多程序员都没有考虑到搜索引擎会自动抓取网站中的网页,因此对于安全方面没有做访问限制;一个好的方法就是对网页进行授权访问,例如只有登录以后的用户可以访问某一些网络资源,而对于普通用户则禁止访问。以asp编程语言为例,可以新建一个checklogin.asp的网页文件,然后在其中输入:<%

ifSession("MySystem_LoginUser")=""then

response.redirect"Login.asp"

endif

%>在网站需要进行限制访问的网页程序中包含该网页即可。说明①本例只是提出一种简单实现方法,其实限制访问网络资源有很多好方法,当然程序中也得考虑其他安全,例如SQL注入漏洞问题。②涉及个人隐私信息的内容和网页时,一定要在安全方面多加考虑。③如果是个人用户发现自己的个人信息泄露了,这个时候就要主动联系信息泄露的源头网站,要求网站解决该问题,而网站管理人员就要

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论