Categories


Tags


如何使用Robots避免蜘蛛黑洞?

蜘蛛黑洞:

蜘蛛黑洞指的是网站通过极低的成本运营,制造出大量和内容相识但参数不同的动态URL ,像一个无限循环的“黑洞”将蜘蛛困住,蜘蛛花费太多的时间在网站,浪费了大量资源抓取的网页为无效网页。

如果你的网站存在蜘蛛黑洞现象,尽快的处理好,蜘蛛黑洞不利于网站的收录,也会影响搜索引擎对网站的评分。

如何使用Robots避免蜘蛛黑洞?

如何利用Robots避免蜘蛛黑洞操作:

普通的筛选结果页基本都是使用静态链接,比如:

http:// bj.XXXXX. com/category/zizhucan/weigongcun

当用户选择不同排序后,会自动生成带有不同参数的动态链接,即使选择是同一种排序条件,生成的参数也有不同的,比如:

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

把带有不同参数的结果排序页面使用robots规则拒绝,告知搜索引擎,让搜索引擎只抓取筛选结果页,为用户和搜索引擎节省时间。

Robots文件写法中Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址,通过这种方式,如果网站的无效页面不希望被搜索引擎收录,可以屏蔽掉低质量的页面,告诉搜索引擎哪些页面可以抓取,有效的避免黑洞的形成。

来源:搜外网


Public @ 2014-02-24 16:09:26

网站结构优化:所谓F型结构是指什么

F型结构是指在网站内容展示的前沿区域,用户的阅读行为呈现出一个“F”字形状。具体来说,用户在浏览网页时,会先在页面顶部水平扫描,然后垂直下滑浏览左侧区域,最后再次水平扫描浏览右侧区域,形成了一个“F”字形的浏览路径。因此,F型结构的网站设计应该在页面顶部和左侧区域呈现最重要、最吸引人的内容,吸引用户的注意力,并且要注意深入挖掘左侧区域的内容,使用户得到更多信息。

Public @ 2023-04-11 20:50:49

搜索引擎如何判断锚文本质量

搜索引擎判断锚文本是否适合,主要通过如下几点判断:(1)锚文本植入符合文章需求,该出现的时候出现,不该出现的时候不要出现。(2)对所在文章有促进作用,用户阅读的时候可以通过锚文本扩展阅读。(3)能延展用户需求,挖掘用户额外需求并满足。(4)锚文本设置的数量和位置都做到依据文章的延展需求而定。来源:搜外网

Public @ 2010-06-08 16:11:33

Robots META标签的写法

如果您想让搜索引擎忽略某些网页,可以使用"robots" META标签。以下是这种标签的写法: ```html ``` 上述标签将告诉搜索引擎不要索引或跟踪该网页。下面是一些其他常见的指令: - "index" 将指令搜索引擎索引该页面。 - "follow" 将指令搜索引擎跟踪此页面上的链接。 - "noindex" 将指令搜索引擎不要索引此页面。 - "nofollow" 将指令搜索引擎

Public @ 2023-04-08 21:50:38

更多您感兴趣的搜索

0.535939s