Categories


Tags


常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:

1、禁止所有搜索引擎抓取网站的任何部分

User-agent: *

Disallow: /

这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。

2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)

User-agent: *

Allow: /

这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以不用创建robtos.txt文件,即默认全部允许抓取。

3、禁止spider抓取特定目录

User-agent: *

Disallow: /a/

Disallow: /b/

Disallow: /c/

这是禁止所有的spider抓取a、b、c目录。这个规则我们最常用到,比如网站的程序后台、程序目录等都可以禁止spider抓取,以减少spider无意义的浪费我们的空间资源。

4、禁止spider抓取搜索结果页面

User-agent: *

Disallow: /so_article?*

如果你网站的搜索结果页面URL格式如:/so_article?keyword=搜索关键字,则按以上格式进行屏蔽,注意最后带了一个星号*,代表屏蔽so_article?带头的所有URL。

对于大部分网站,常用的就是以上4种情况。

来源:搜外网


Public @ 2010-05-21 16:09:23

301重定向是什么?301重定向怎么做?

301重定向是什么页面永久性移走(301重定向)是一种非常重要的“自动转向”技术。网址重定向最为可行的一种办法。当用户或搜索引擎向网站服务器发出浏览请求时,服务器返回的HTTP数据流中头信息(header)中的状态码的一种,表示本网页永久性转移到另一个地址。301永久重定向对SEO无任何不好的影响,而且网页A的的权重都会传达给网页B,对于搜索引擎优化、网站优化来说,给搜索引擎一个友好的信息,告诉它

Public @ 2009-11-11 16:09:35

IIS网站服务器性能优化指南

以下是一些建议,可以帮助你优化IIS网站服务器性能: 1. 使用最新版本的IIS:确保你正在使用最新版本的IIS,因为每个新版本都会带来一些性能和安全性方面的改进。 2. 配置连接并发限制:根据服务器硬件和应用程序需求,调整IIS的连接并发限制,以确保服务器资源的最佳利用。 3. 启用输出缓存:启用IIS的输出缓存功能,可以缓存静态内容以减轻服务器负载,提高网站的响应速度。 4. 使用Gz

Public @ 2023-07-22 07:50:44

Robots META标签的写法

如果您想让搜索引擎忽略某些网页,可以使用"robots" META标签。以下是这种标签的写法: ```html ``` 上述标签将告诉搜索引擎不要索引或跟踪该网页。下面是一些其他常见的指令: - "index" 将指令搜索引擎索引该页面。 - "follow" 将指令搜索引擎跟踪此页面上的链接。 - "noindex" 将指令搜索引擎不要索引此页面。 - "nofollow" 将指令搜索引擎

Public @ 2023-04-08 21:50:38

更多您感兴趣的搜索

0.451236s