Categories


Tags


巧用Robots避免蜘蛛黑洞

对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。

比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?

我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:

对于普通的筛选结果页,该网站选择使用静态链接,如:http://bj.XXXXX.com/category/zizhucan/weigongcun

同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。

robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为Baiduspider提供了更友好的网站结构,避免了黑洞的形成。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2020-05-11 16:08:55

什么是错误链接?

根本不存在的链接,就是错误链接。错误链接与死链接的区别:错误链接是由于用户的疏忽,请求的链接不存在。死链接是原来访问正常,后来因为网站的变故而不能访问。发生错误链接的情况:用户对域名拼写错误。URL地址书写错误。URL后缀多余了或缺少了斜杆。URL地址中出现的字母大小写不完全匹配。来源:搜外网

Public @ 2018-05-24 16:21:34

sitemap:如何让搜索引擎抓取到所有页面

| sitemap是什么?● 网站地图/链接集合,把网站所有的URL放在一个文件内,方便搜索引擎爬取到。| 如何制作sitemap?● 小型网站采用txt格式的sitemap● 大中型网站采用xml格式的sitemap● 工具:老虎sitemap| 制作sitemap注意事项1. 文件格式为TXT或xml,普通企业官网TXT即可,大型网站可使用xml;2. 按时间倒序排列;3. 每周更新,最好每天

Public @ 2015-07-13 16:09:52

robots.txt使用教程

用几个最常见的情况,直接举例说明:1. 允许所有SE收录本站:robots.txt为空就可以,什么都不要写。2. 禁止所有SE收录网站的某些目录:User-agent: *Disallow: /目录名1/Disallow: /目录名2/Disallow: /目录名3/3. 禁止某个SE收录本站,例如禁止百度:User-agent: BaiduspiderDisallow: /4. 禁止所有SE收录

Public @ 2013-01-15 16:09:31

更多您感兴趣的搜索

0.506896s