首页运营SEO 拒绝搜索引擎抓取页面:robots.txt

拒绝搜索引擎抓取页面:robots.txt

有些时候,我们建立的一些网页,不希望被网友通过搜索引擎找到,该如何做呢?本文介绍了如何使用robots.txt防止搜索引擎抓取页面的一些技巧。  robots.txt 文件对抓取网络的搜索…

有些时候,我们建立的一些网页,不希望被网友通过搜索引擎找到,该如何做呢?本文介绍了如何使用robots.txt防止搜索引擎抓取页面的一些技巧。

  robots.txt 文件对抓取网络的搜索引擎漫游器(称为漫游器)进行限制。这些漫游器是自动的,在它们访问网页前会查看是否存在限制其访问特定网页的 robots.txt 文件。如果你想保护网站上的某些内容不被搜索引擎收入的话,robots.txt 是一个简单有效的工具。这里简单介绍一下怎么使用它。

 

  如何放置 robots.txt 文件

  robots.txt自身是一个文本文件。它必须位于域名的根目录中并 被命名为"robots.txt"。位于子目录中的 robots.txt 文件无效,因为漫游器只在域名的根目录中查找此文件。例如,http://www.example.com/robots.txt 是有效位置,http://www.example.com/mysite/robots.txt 则不是。

  这里举一个robots.txt的例子:

  user-agent: *

  disallow: /cgi-bin/

  disallow: /tmp/

  disallow: /~name/

  使用 robots.txt 文件拦截或删除整个网站

  要从搜索引擎中删除您的网站,并防止所有漫游器在以后抓取您的网站,请将以下 robots.txt 文件放入您服务器的根目录:

  user-agent: *

  disallow: /

  要只从 google 中删除您的网站,并只是防止 googlebot 将来抓取您的网站,请将以下 robots.txt 文件放入您服务器的根目录:

  user-agent: googlebot

  disallow: /

  每个端口都应有自己的 robots.txt 文件。尤其是您通过 http 和 https 托管内容的时候,这些协议都需要有各自的 robots.txt 文件。例如,要让 googlebot 只为所有的 http 网页而不为 https 网页编制索引,应使用下面的 robots.txt 文件。

  对于 http 协议 (http://yourserver.com/robots.txt):

  user-agent: *

  allow: /

  对于 https 协议 (https://yourserver.com/robots.txt):

  user-agent: *

  disallow: /

  允许所有的漫游器访问您的网页

  user-agent: *

  disallow:

  (另一种方法: 建立一个空的 "/robots.txt" 文件, 或者不使用robot.txt。)

  使用 robots.txt 文件拦截或删除网页

  您可以使用 robots.txt 文件来阻止 googlebot 抓取您网站上的网页。 例如,如果您正在手动创建 robots.txt 文件以阻止 googlebot 抓取某一特定目录下(例如,private)的所有网页,可使用以下 robots.txt 条目:

  user-agent: googlebot

  disallow: /private

  要阻止 googlebot 抓取特定文件类型(例如,.gif)的所有文件,可使用以下 robots.txt 条目:

  user-agent: googlebot

  disallow: /*.gif$

  要阻止 googlebot 抓取所有包含 ? 的网址(具体地说,这种网址以您的域名开头,后接任意字符串,然后是问号,而后又是任意字符串),可使用以下条目:

  user-agent: googlebot

  disallow: /*?

  尽管我们不抓取被 robots.txt 拦截的网页内容或为其编制索引,但如果我们在网络上的其他网页中发现这些内容,我们仍然会抓取其网址并编制索引。因此,网页网址及其他公开的信息,例如指 向该网站的链接中的定位文字,有可能会出现在 google 搜索结果中。不过,您网页上的内容不会被抓取、编制索引和显示。

  作为网站管理员工具的一部分,google提供了robots.txt分析工具 。它可以按照 googlebot 读取 robots.txt 文件的相同方式读取该文件,并且可为 google user-agents(如 googlebot)提供结果。我们强烈建议您使用它。 在创建一个 robots.txt 文件之前,有必要考虑一下哪些内容可以被用户搜得到,而哪些则不应该被搜得到。 这样的话,通过合理地使用 robots.txt , 搜索引擎在把用户带到您网站的同时,又能保证隐私信息不被收录。

本文来自网络,不代表1号站长-站长学院|资讯交流平台立场。转载请注明出处: https://www.1cn.cc/yunying/seo/23139.html
上一篇认识搜索引擎的危机和处理方法
下一篇 全站SEO经验总结
admin

作者: admin

这里可以再内容模板定义一些文字和说明,也可以调用对应作者的简介!或者做一些网站的描述之类的文字或者HTML!

为您推荐

评论列表()

    联系我们

    联系我们

    0898-88888888

    在线咨询: QQ交谈

    邮箱: email@wangzhan.com

    工作时间:周一至周五,9:00-17:30,节假日休息

    关注微信
    微信扫一扫关注我们

    微信扫一扫关注我们

    关注微博
    返回顶部