Categories


Tags


如何使用Robots避免蜘蛛黑洞?

蜘蛛黑洞:

蜘蛛黑洞指的是网站通过极低的成本运营,制造出大量和内容相识但参数不同的动态URL ,像一个无限循环的“黑洞”将蜘蛛困住,蜘蛛花费太多的时间在网站,浪费了大量资源抓取的网页为无效网页。

如果你的网站存在蜘蛛黑洞现象,尽快的处理好,蜘蛛黑洞不利于网站的收录,也会影响搜索引擎对网站的评分。

如何使用Robots避免蜘蛛黑洞?

如何利用Robots避免蜘蛛黑洞操作:

普通的筛选结果页基本都是使用静态链接,比如:

http:// bj.XXXXX. com/category/zizhucan/weigongcun

当用户选择不同排序后,会自动生成带有不同参数的动态链接,即使选择是同一种排序条件,生成的参数也有不同的,比如:

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

把带有不同参数的结果排序页面使用robots规则拒绝,告知搜索引擎,让搜索引擎只抓取筛选结果页,为用户和搜索引擎节省时间。

Robots文件写法中Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址,通过这种方式,如果网站的无效页面不希望被搜索引擎收录,可以屏蔽掉低质量的页面,告诉搜索引擎哪些页面可以抓取,有效的避免黑洞的形成。

来源:搜外网


Public @ 2014-02-24 16:09:26

URL的优化

URL的优化可以通过以下几方面来实现: 1. 简洁明了:URL应该尽量简短,清晰地描述页面的内容。避免使用过长的URL,可使用关键词来描述页面的主题。 2. 使用关键词:在URL中使用关键词可以帮助搜索引擎更好地理解页面的内容。关键词应该与页面的主题相关,但不要过度堆砌关键词。 3. 使用连字符:在URL中使用连字符(-)来分割单词,而不要使用下划线或者空格。连字符可以提高URL的可读性,同

Public @ 2023-07-29 06:00:22

虚拟主机怎么设置404页面?

要设置虚拟主机的404页面,可以按照以下步骤进行操作: 1. 打开虚拟主机管理面板,在菜单栏中找到“错误页面”或者“定制错误页面”等设置选项。 2. 找到404错误页面设置选项,通常可以选择使用默认的404错误页面或者自定义404错误页面。 3. 如果选择使用默认的404错误页面,则无需做任何设置即可使用。 4. 如果选择自定义404错误页面,则需要新建一个404.html或者404.ph

Public @ 2023-03-31 22:50:29

Robots文件的作用和规范写法

控制页面的抓取、索引是SEO优化网站结构时经常需要用到的技术。常见的工具包括:robots文件页面的noindex标签链接的nofollow属性页面的301转向页面的canonical标签等这几个工具各有各的特定应用场景,但都是用于控制网站内部结构,之间容易混淆,还经常需要配合使用,SEO们必须准确理解这几个工具的机制和原理,不然很容易出错。这篇贴子讨论robots文件。Robots文件的作用ro

Public @ 2012-12-30 16:09:20

更多您感兴趣的搜索

0.410666s