Categories


Tags


常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:

1、禁止所有搜索引擎抓取网站的任何部分

User-agent: *

Disallow: /

这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。

2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)

User-agent: *

Allow: /

这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以不用创建robtos.txt文件,即默认全部允许抓取。

3、禁止spider抓取特定目录

User-agent: *

Disallow: /a/

Disallow: /b/

Disallow: /c/

这是禁止所有的spider抓取a、b、c目录。这个规则我们最常用到,比如网站的程序后台、程序目录等都可以禁止spider抓取,以减少spider无意义的浪费我们的空间资源。

4、禁止spider抓取搜索结果页面

User-agent: *

Disallow: /so_article?*

如果你网站的搜索结果页面URL格式如:/so_article?keyword=搜索关键字,则按以上格式进行屏蔽,注意最后带了一个星号*,代表屏蔽so_article?带头的所有URL。

对于大部分网站,常用的就是以上4种情况。

来源:搜外网


Public @ 2010-05-21 16:09:23

关于URL组成部分的指南

URL是一个网站标识符,它由多个组成部分组成。下面是有关每个URL组成部分的指南: 1. 协议:URL使用的网络协议。常用的协议是HTTP、HTTPS、FTP、SSH、TELNET等。 2. 主机名:URL指向的主机的名称或IP地址。例如,www.example.com或192.168.1.1。 3. 端口号:指定与主机通信的端口号。如果没有指定端口号,则使用默认端口号。 HTTP的默认端口

Public @ 2023-06-22 13:00:14

canonical标签的作用和使用方法

canonical标签是页面html代码head部分的一个标签,2009年2月由搜索引擎们推出,主要用于解决网址规范化问题。什么是网址规范化问题?网址规范化一直是困扰站长以及搜索引擎的一个问题。据估计,网上有10%-30%的URL是内容相同但URL不一样的不规范化网址。这就造成几个问题。比如:对站长来说,多个URL存在分散了页面权重,不利于排名。对搜索引擎来说,浪费资源,浪费带宽。搜索引擎发现多个

Public @ 2013-03-13 16:11:17

设置搜索robots协议的后果

设置搜索robots协议的后果针对短视频类内容,视频搜索将不再索引、展现网站的视频资源,历史已索引部分会从搜索中屏蔽。若设置部分目录不希望被收录 ,该目录下内容将从搜索中屏蔽,其余内容在搜索中则以正常结果展示。来源:百度搜索资源平台

Public @ 2021-05-12 16:09:00

更多您感兴趣的搜索

0.583879s