Categories


Tags


常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:

1、禁止所有搜索引擎抓取网站的任何部分

User-agent: *

Disallow: /

这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。

2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)

User-agent: *

Allow: /

这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以不用创建robtos.txt文件,即默认全部允许抓取。

3、禁止spider抓取特定目录

User-agent: *

Disallow: /a/

Disallow: /b/

Disallow: /c/

这是禁止所有的spider抓取a、b、c目录。这个规则我们最常用到,比如网站的程序后台、程序目录等都可以禁止spider抓取,以减少spider无意义的浪费我们的空间资源。

4、禁止spider抓取搜索结果页面

User-agent: *

Disallow: /so_article?*

如果你网站的搜索结果页面URL格式如:/so_article?keyword=搜索关键字,则按以上格式进行屏蔽,注意最后带了一个星号*,代表屏蔽so_article?带头的所有URL。

对于大部分网站,常用的就是以上4种情况。

来源:搜外网


Public @ 2010-05-21 16:09:23

Google网站地图Sitemap与搜索引擎优化

Google网站地图(sitemap)是Google提供给网站管理员的一个工具,来提高网站被收录的网页数目。一般来说,搜索引擎蜘蛛会跟着链接爬行到你网站的所有网页。但很多时候,由于种种原因,并不是所有网页都能被收录进搜索引擎数据库。比如说,你的网站是数据库动态生成的,URL中带有参数,一些网页离主页太远,你的网站PR值太低,新的网页可能过很长时间才有机会被抓取等等。Google Sitemap就允

Public @ 2016-07-17 16:09:49

网站URL优化怎么做,对于网站SEO的意义有哪些?

网站url设计在每一个网站建设过程中,都是需要考虑的问题,网站链接在设计的时候,需要对网站的目录和文件这些做好命名系统,还需要提前规划好一些事情。对于网站域名链接来说。我们必须站在用户的角度上出发的,url要清晰友好、便于记忆,然后再考虑对搜索引擎排名的影响!那我们在对链接进行优化的时候有哪些需要注意的原则呢?一、网站的URL类型(1)动态URL路径网站动态的URL路径,指的就是动态的页面,那么,

Public @ 2021-02-25 16:12:02

robots协议

 Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫扫除规范”(RobotsExclusionProtocol),网站经过Robots协议通知查找引擎哪些页面可以抓取,哪些页面不能抓取  是查找引擎的一部分来定位和索引互联网上的每个可能答复查找恳求的网页,一般只在评论robots的HTML标签或许robots.txt文件的时分运用。

Public @ 2010-10-17 15:26:25

为什么我的网站已经加了robots.txt,还能在百度搜索出来?

为什么我的网站已经加了robots.txt,还能在百度搜索出来?因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。如果您的拒绝被收录需求非常急迫,也可以通过反馈中心反馈请求处理。来源:百度搜索资源平台 百度搜索学堂

Public @ 2015-11-18 16:08:58

更多您感兴趣的搜索

0.574072s