Categories


Tags


常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:

1、禁止所有搜索引擎抓取网站的任何部分

User-agent: *

Disallow: /

这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。

2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)

User-agent: *

Allow: /

这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以不用创建robtos.txt文件,即默认全部允许抓取。

3、禁止spider抓取特定目录

User-agent: *

Disallow: /a/

Disallow: /b/

Disallow: /c/

这是禁止所有的spider抓取a、b、c目录。这个规则我们最常用到,比如网站的程序后台、程序目录等都可以禁止spider抓取,以减少spider无意义的浪费我们的空间资源。

4、禁止spider抓取搜索结果页面

User-agent: *

Disallow: /so_article?*

如果你网站的搜索结果页面URL格式如:/so_article?keyword=搜索关键字,则按以上格式进行屏蔽,注意最后带了一个星号*,代表屏蔽so_article?带头的所有URL。

对于大部分网站,常用的就是以上4种情况。

来源:搜外网


Public @ 2010-05-21 16:09:23

URL链接优化:网站各个页面采用怎样的URL符合SEO

优化? 1、精简URL:URL尽量精简,易读易懂,例如使用简短的关键字说明页面内容; 2、不使用动态参数:尽量避免使用动态参数或者复杂的URL参数; 3、去除多余的词汇:尽量删除不必要的词,保证URL精简,易读; 4、尽量使用短语汇:URL尽量采用短而且表明词汇类别,如名词、动词等; 5、构建层次:当有一系列相关的页面时,尽量将相关的页面构建成层次关系,这样势必对SEO搜索排名优化有一定

Public @ 2023-02-26 19:27:34

从SEO角度优化网站结构带来哪些好处?

网站的优化分为两大部分,一是网站结构的优化,二是页面上关键词的优化。今天主要讲的是网站结构优化,网站首页的布局对网站优化有着至关重要的作用,网站结构布局结构好才能吸引蜘蛛更好的抓取。从SEO角度优化网站结构带来哪些好处?1、提高用户体验网站结构针对于用户体验进行优化,考虑多维度用户的需求,提高多类型用户的体验度,让搜索引擎更好地收录我们的网站,从而提升网站排名。2、提高收录率优化网站的结构,建议形

Public @ 2019-03-09 16:12:08

巧用robots文件管理引导搜索引擎蜘蛛对网站的抓取

许多年前,让网站被搜索引擎选中包括填写表格,注册该网站,并手动编辑希望该网站被搜索的关键词,这个过程随着搜索引擎网络爬虫或网络蜘蛛的出现而改变。本文就robots相关内容,做详细的介绍。什么是搜索引擎蜘蛛?搜索引擎蜘蛛是一种自动程序,它沿着从一个网页到另一个网页的链接在互联网上爬行,为内容编制索引并将其添加到数据库中。这意味着,只要网站有一个来自其他网站且搜索引擎已经知道的链接,然后它会找到随着时

Public @ 2017-11-23 16:09:28

robots协议

 Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫扫除规范”(RobotsExclusionProtocol),网站经过Robots协议通知查找引擎哪些页面可以抓取,哪些页面不能抓取  是查找引擎的一部分来定位和索引互联网上的每个可能答复查找恳求的网页,一般只在评论robots的HTML标签或许robots.txt文件的时分运用。

Public @ 2010-10-17 15:26:25

更多您感兴趣的搜索

0.526860s