Categories


Tags


如何使用Robots避免蜘蛛黑洞?

蜘蛛黑洞:

蜘蛛黑洞指的是网站通过极低的成本运营,制造出大量和内容相识但参数不同的动态URL ,像一个无限循环的“黑洞”将蜘蛛困住,蜘蛛花费太多的时间在网站,浪费了大量资源抓取的网页为无效网页。

如果你的网站存在蜘蛛黑洞现象,尽快的处理好,蜘蛛黑洞不利于网站的收录,也会影响搜索引擎对网站的评分。

如何使用Robots避免蜘蛛黑洞?

如何利用Robots避免蜘蛛黑洞操作:

普通的筛选结果页基本都是使用静态链接,比如:

http:// bj.XXXXX. com/category/zizhucan/weigongcun

当用户选择不同排序后,会自动生成带有不同参数的动态链接,即使选择是同一种排序条件,生成的参数也有不同的,比如:

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

把带有不同参数的结果排序页面使用robots规则拒绝,告知搜索引擎,让搜索引擎只抓取筛选结果页,为用户和搜索引擎节省时间。

Robots文件写法中Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址,通过这种方式,如果网站的无效页面不希望被搜索引擎收录,可以屏蔽掉低质量的页面,告诉搜索引擎哪些页面可以抓取,有效的避免黑洞的形成。

来源:搜外网


Public @ 2014-02-24 16:09:26

搜索引擎收录机制是什么?

搜索引擎收录机制就是搜索引擎系统执行网页抓取、URL分析、文本链接分析、内容分析及网页排序等一系列操作而形成的一种机制。这个机制由爬虫、索引和查询构成,爬虫存储所有网络上数据、分析搜索引擎索引,而搜索引擎索引就像物理上的索引一样,能让搜索引擎定位到目标页面;最后查询的时候则是让搜索引擎根据索引定位相应的页面,最终完成数据的展示。

Public @ 2023-03-03 13:00:15

网站链接该如何优化,链接优化方法

链接优化包括站内链接优化和站外链接优化,以及各种形式链接的重要性和特点等。单向链接:A网页链接了B网页,而B网页没有回链接A网页,即称为单项链接。做单项链接对网页本身要有很高的权威性,让他人主动来给你做链接。这类网页一般都是知名度很高,有很高人气。链接内容相关性:一个高质量的链接可以敌得过3个不相关的链接。提高用户访问深度的同时,也提高了网站权重的全局导向。内容的相关程度在某些时候只能靠外链建设人

Public @ 2018-11-04 16:11:36

更多您感兴趣的搜索

0.105155s