Categories


Tags


常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:

1、禁止所有搜索引擎抓取网站的任何部分

User-agent: *

Disallow: /

这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。

2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)

User-agent: *

Allow: /

这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以不用创建robtos.txt文件,即默认全部允许抓取。

3、禁止spider抓取特定目录

User-agent: *

Disallow: /a/

Disallow: /b/

Disallow: /c/

这是禁止所有的spider抓取a、b、c目录。这个规则我们最常用到,比如网站的程序后台、程序目录等都可以禁止spider抓取,以减少spider无意义的浪费我们的空间资源。

4、禁止spider抓取搜索结果页面

User-agent: *

Disallow: /so_article?*

如果你网站的搜索结果页面URL格式如:/so_article?keyword=搜索关键字,则按以上格式进行屏蔽,注意最后带了一个星号*,代表屏蔽so_article?带头的所有URL。

对于大部分网站,常用的就是以上4种情况。

来源:搜外网


Public @ 2010-05-21 16:09:23

网站Nofollow标签的应用场景

nofollow标签是HTML的一个属性,用于告诉搜索引擎不要追踪特定的网页链接。减少垃圾对搜索引擎的排名影响。网站SEO优化nofollow标签的应用起到一定的作用。网站Nofollow标签的应用场景:1、nofollow标签通常用于论坛帖子、博客评价,这些地方存在大量的其他网站链接,导致网站上的垃圾链接过多,影响蜘蛛爬取,现在很多博客cms都会带有相关功能自动加上nofollow。2、给广告链

Public @ 2018-01-06 16:08:50

网站301跳转问题的探讨

  301跳转可以让任何来源的网络流量跳转回你的网站,这是一种经济高效且可靠的SEO技术。在SEO方面使用301跳转有非常多的优势,但也引发了一些担忧的问题。   首先,301跳转可以确保所有来自任何网站的流量都会跳转回你的网站,这样你的网站就可以从多个渠道获得流量,并从而提升网站排名。另外,如果你的网站已经有了一些可靠的链接,使用301跳转可以让你的

Public @ 2023-02-25 06:54:40

关于robots.txt的二三事

【Robots简介】robots.txt是一个协议,是搜索引擎访问网站时第一个要查看的文件,它存在的目的是告诉搜索引擎哪些页面能被抓取,哪些页面不能被抓取。当spider访问一个站点时,会首先检查该站点根目录下是否存在robots.txt,如果存在,spider会按照文件中的内容来确定访问的范围;如果该文件不存在,所有的spider将能够访问网站上所有没有被口令保护的页面。【具体介绍】1、User

Public @ 2017-02-13 16:09:19

robot.txt在SEO中的作用

鉴于网络安全与隐私的考虑,搜索引擎遵循robots.txt协议。通过根目录中创建的纯文本文件robots.txt,网站可以声明不想被robots访问的部分。每个网站都可以自主控制网站是否愿意被搜索引擎收录,或者指定搜索引擎只收录指定的内容。当一个搜索引擎的爬虫访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果该文件不存在,那么爬虫就沿着链接抓取,如果存在,爬虫就会按照该文

Public @ 2023-01-27 16:09:31

更多您感兴趣的搜索

0.410738s