邯郸网站加上robots的作用?
阅读 · 发布日期 2018-11-09 09:03 · admin邯郸网站加上robots的作用?robots协议(也称为爬虫协议、机器人协议等)的全称是“网爬虫排除标准” ( robots exclusion protocol)’。网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。
robots文件的作用
当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在搜索机器人就会按照该文件中的内容确定访问的范围;如果该文件不在所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
如果将网站视为酒店里的一个房间,robots.txt就是主人在房间门口悬挂的“请勿打扰”的提示牌。这个文件告诉来访的搜索引擎哪些房间可以进入和参观,哪些房间因为存放贵重物品,或可能涉及住户及访客的隐私而不对搜索引擎开放。
但是,robots.txt不是命令,也不是防火墙,如同守门人无法阻止窃贼等恶意闯人者。
robots协议可以屏蔽一些网站中比较大的文件,如图片、音乐、视频等内容,节省服务器带宽;也可以屏蔽站点的一些死链接,禁止搜索引擎抓取。