Categories


Tags


巧用Robots避免蜘蛛黑洞

对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。

比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?

我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:

对于普通的筛选结果页,该网站选择使用静态链接,如:http://bj.XXXXX.com/category/zizhucan/weigongcun

同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。

robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为Baiduspider提供了更友好的网站结构,避免了黑洞的形成。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2020-05-11 16:08:55

我的 Sitemap 可以有多大?

单个Sitemap 应该小于 10MB(10,485,759字节),所包含的网址数最多为 50,000 个。如果您网站包含的网址超过 50,000 个或您的 Sitemap 超过 10MB,则需要创建多个 Sitemap 文件,并且需要使用 Sitemap 索引文件。Sitemap 索引文件应该小于 10MB(10,485,759字节),且最多可以包含1000个sitemap。

Public @ 2009-06-06 16:11:56

301跳转常见问题汇总

Q1:什么是301跳转? 答:301重定向是一种网页重定向技术,将请求的网页移动到另一个网址,并在浏览器中显示新的网址。原因主要是为了实现网站的结构更改,以便用户能够快速、准确和对服务器最有利的方式访问网站。 Q2:为什么需要301跳转? 答:301跳转可以提高搜索引擎优化好处,确保移动到新网址的完整SEO价值,以及提高用户体验,避免出现错误。因此,301重定向被认为是必要的,特别是当你

Public @ 2023-02-25 09:48:21

robots使用技巧

以下是一些使用robots.txt文件的技巧和最好的做法: 1. 不要放弃robots.txt - 一些网站管理员没有robots.txt文件,因为他们认为这是保护网站的安全措施,但事实上它可能会影响搜索引擎爬取。 2. 维护一个更新的robots.txt文件 - 确保您的robots.txt文件不是过时的。如果您从网站上删除了某些页面或文件夹,请务必更新文件以反映更改。 3. 不要使用ro

Public @ 2023-05-28 16:00:31

更多您感兴趣的搜索

0.574683s