首页运营SEO 有道关于robots.txt的解释

有道关于robots.txt的解释

怎么写robots.txt文件?
robots.txt是个很简单的文本文件,您只要标明“谁不能访问哪些链接”即可。
在文件的第一行写:
user-agent: yodaobot
这就告诉了爬虫下面的描述是针对名…

怎么写robots.txt文件?
robots.txt是个很简单的文本文件,您只要标明“谁不能访问哪些链接”即可。
在文件的第一行写:
user-agent: yodaobot
这就告诉了爬虫下面的描述是针对名叫yodaobot的爬虫。您还可以写:
user-agent: *
这就意味着向所有的爬虫开放。需要注意的是一个robots.txt文件里只能有一个"user-agent: *"。

接下来是不希望被访问的链接前缀。例如:
disallow: /private
这就告诉爬虫不要抓取以"/private"开头的所有链接。包括/private.html,/private/some.html,/private/some/haha.html。如果您写成:
disallow: /
则表明整个站点都不希望被访问。您也可以分多行来指定不希望被抓取的链接前缀,例如:
disallow: /tmp
disallow: /disallow
那么所有以"/tmp"和"/disallow"开头的链接都不会被访问了。

最后形成的robots.txt文件如下:
user-agent: yodaobot
disallow: /tmp
disallow: /private

请注意,如果您的robots.txt文件里有中文等非英语字符,请确定该文件是由utf-8编码编写。

本文来自网络,不代表1号站长-站长学院|资讯交流平台立场。转载请注明出处: https://www.1cn.cc/yunying/seo/23340.html
上一篇博客式建站过程漫谈
下一篇 关键词选择原则及经验技巧
admin

作者: admin

这里可以再内容模板定义一些文字和说明,也可以调用对应作者的简介!或者做一些网站的描述之类的文字或者HTML!

为您推荐

评论列表()

    联系我们

    联系我们

    0898-88888888

    在线咨询: QQ交谈

    邮箱: email@wangzhan.com

    工作时间:周一至周五,9:00-17:30,节假日休息

    关注微信
    微信扫一扫关注我们

    微信扫一扫关注我们

    关注微博
    返回顶部