Categories


Tags


如何使用Robots避免蜘蛛黑洞?

蜘蛛黑洞:

蜘蛛黑洞指的是网站通过极低的成本运营,制造出大量和内容相识但参数不同的动态URL ,像一个无限循环的“黑洞”将蜘蛛困住,蜘蛛花费太多的时间在网站,浪费了大量资源抓取的网页为无效网页。

如果你的网站存在蜘蛛黑洞现象,尽快的处理好,蜘蛛黑洞不利于网站的收录,也会影响搜索引擎对网站的评分。

如何使用Robots避免蜘蛛黑洞?

如何利用Robots避免蜘蛛黑洞操作:

普通的筛选结果页基本都是使用静态链接,比如:

http:// bj.XXXXX. com/category/zizhucan/weigongcun

当用户选择不同排序后,会自动生成带有不同参数的动态链接,即使选择是同一种排序条件,生成的参数也有不同的,比如:

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

把带有不同参数的结果排序页面使用robots规则拒绝,告知搜索引擎,让搜索引擎只抓取筛选结果页,为用户和搜索引擎节省时间。

Robots文件写法中Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址,通过这种方式,如果网站的无效页面不希望被搜索引擎收录,可以屏蔽掉低质量的页面,告诉搜索引擎哪些页面可以抓取,有效的避免黑洞的形成。

来源:搜外网


Public @ 2014-02-24 16:09:26

内部链接(站内链接)的优化

1. 使用有意义的链接文本:链接文本应该包含目标页面的主要关键词,同时尽量避免使用无意义的链接文本,比如“点击这里”或“了解更多”。 2. 建立链接深度:优化站点内部链接深度是提高网站排名和用户体验的关键。建立清晰的网站结构和层次,确保每个页面都可以通过几个点击以内到达。 3. 保证内部链接的稳定性:内部链接是网站的基础,因此要确保内部链接的持续稳定。当需要调整某些页面的链接时,尽量在网站上进

Public @ 2023-04-10 06:51:07

怎样给博客帖子加内部链接?

很多读者在问,我的博客帖子里面加的内部链接是怎么弄的?我也发现有一些朋友把我的博客一些文章排名还不错,归功于我博客上的内部链接。我想这是其中的一个原因。今天就解释一下,通常我是怎样在博客帖子里面加站内链接。首先,要说明的是,博客帖子里面的链接完全是人工加上去的就是很老很笨的找到自己博客以前的帖子URL,然后写帖子时加上去。我做网站通常会比较喜欢这种比较笨的办法。每个人的特点不同,我是希望做网站时,

Public @ 2009-11-17 16:11:24

robots使用技巧

以下是一些使用robots.txt文件的技巧和最好的做法: 1. 不要放弃robots.txt - 一些网站管理员没有robots.txt文件,因为他们认为这是保护网站的安全措施,但事实上它可能会影响搜索引擎爬取。 2. 维护一个更新的robots.txt文件 - 确保您的robots.txt文件不是过时的。如果您从网站上删除了某些页面或文件夹,请务必更新文件以反映更改。 3. 不要使用ro

Public @ 2023-05-28 16:00:31

robots里这样写,就能避免蜘蛛爬这个“index.htm”这个首页?

我robots这样写是不是就能避免蜘蛛爬这个“index.htm”这个首页?User-agent: *Disallow: /index.htm11-30.我的index.htm是现在默认的首页,想屏蔽蜘蛛抓取。让蜘蛛爬另一个文档,主要是规避备案巡查我的网站和我备案的不一样,服务器那边要求改,我就整了个htm文档来规避下。写法没有问题。但正常的不建议屏蔽首页地址,,“index.htm”这个后缀地址

Public @ 2019-12-16 16:09:25

更多您感兴趣的搜索

0.495086s