Categories


Tags


利用百度蜘蛛referer找到报错页面入口

大家应该都知道百度已经全站https并取消referer关键词显示了,那么“百度蜘蛛referer”又是什么?有什么妙用吗?艺龙SEO负责人刘明发现通过百度蜘蛛referer可以快速定位部分站内url的报错(4xx或者5xx)原因。随后社区版主飞鹰正义也对文章做了补充修正,现推荐给各位同学们。

什么是百度蜘蛛的referer

百度蜘蛛的referer,是指当百度蜘蛛抓取某一个URL的时候,在HTTP头中带的Referer字段。请注意,这个定义和百度最近声明去除Referer中关键词数据没有任何关系。这次讲的是spider发起的HTTP请求,百度而去除的是用户发起的。如果百度蜘蛛抓取百度首页的logo,会发起这样的请求:

上面Referer字段很明确的表示了他是从www.baidu.com这个页面上发现并抓取了www.baidu.com/img/bd_logo1.png。而大家在服务器访问日志中也应该能看到相应的记录。目前发现只有当百度抓取一个网页的同时,又抓取了网页中的:img、js和css才会带上referer字段。这部分额外的抓取量,应该不会占用百度分配的抓取配额,属于“买1送1”。

对于站长的意义

如果你发现有一批URL(仅限于img,js,css)报错(4xx或者5xx),但是一直找不到入口在哪,也就是说你不明白百度蜘蛛是从哪里发现这些错误URL的。这个字段可以帮助你迅速定位。

举个例子

比如我们的SEO日志分析系统中可以看到,符合下面这种URL Pattern的路径每天有6万到10万的抓取而且全部报404。

从发现问题至今过了1个月,查遍整个网站我也没找到入口。今天偶然仔细查了一下日志,想起了百度蜘蛛的referer,马上就能定位问题了。这些404的URL来自于一套没人维护也没人关注的页面(往往是这样)。收录流量都不错。由于最近公司图片系统更新,图片的URL全部更改了,但这套页面并没有跟着更新。

如果站点没有记录referer怎么办

iis请在这里勾选“cs(Referer)”:

apache请参考:

apache log配置“Combined Log Format”章节

apache log配置的官方链接

Nginx请参考:

nginx log配置

nginx log配置的官方链接

结束语

· 很多SEO问题并不是立即致命的,所以没有及时解决。流量就像蚂蚁啃大象一样一点一点啃掉了。

· 系统性的知识积累还是会在关键时刻发挥作用的。

· 感谢飞鹰对本文的修正。

至此文章虽然结束但是讨论可以继续,大家可以到[学堂同学汇] 《利用百度蜘蛛referer找到报错页面入口》讨论帖,与作者刘明进行探讨。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2012-04-14 15:38:46

搜索问答剧场 【六】“死链”常见问题解析

哈喽大家好,最近平小雕在观察和学习时,发现很多开发者都提出了死链方面的问题。这不我(平小雕)和胡小鱼立马联手找出了大家对死链的种种疑问,并做出了解答,大家快来看看怎么解决死链常见问题吧!第六集【搜索问答剧场】,让我们围观网站运营中出现的死链相关问题,学习如何快速处理网站死链吧!一、了解死链1、死链都有哪些类型?A:死链一般是指页面已经无效,无法对用户提供任何有价值信息的页面。包括协议死链和内容死链

Public @ 2012-12-31 15:36:48

网站质量指南

网站质量指南是一个包含网站优化和提升网站质量的综合性指南。以下是一些可以帮助提高网站质量的建议: 1. 网站结构优化:设计清晰、易于导航的网站结构,使用户能够快速定位所需信息。 2. 内容优化:网站内容应该针对用户需求精心策划和撰写,在搜索引擎中获得良好的排名。 3. 快速加载:确保网站可以在几秒钟内加载完毕。速度快的网站能够获得更多的访问量,增强用户对网站的好感。 4. 网站安全:确保使

Public @ 2023-04-05 02:50:20

屏蔽百度爬虫的方法

在百度C2C产品“百度有啊”即将上线的时候,淘宝网站曾经屏蔽百度搜索爬虫,禁止百度搜索引擎抓取淘宝网站的网页内容,淘宝官方的解释是“杜绝不良商家欺诈”。在技术层面,淘宝屏蔽百度的方法是,在网站的robots.txt文件中加上如下内容:User-agent: BaiduspiderDisallow: /但实际上这种方法并不能完全屏蔽百度的爬虫,至今在百度上输入site:taobao.com还是可以看

Public @ 2012-08-15 15:56:41

BaiDuSpider百度蜘蛛占用流量,robots.txt设置

在网站根目录下的 robots.txt 文件可以用来告诉搜索引擎蜘蛛(包括百度蜘蛛)哪些页面可以访问,哪些页面不可访问。通过设置 robots.txt 文件,可以控制蜘蛛的爬取范围,减少不必要的流量消耗。 以下是一个提供给百度蜘蛛的 robots.txt 示例: ``` User-agent: Baiduspider Disallow: /path/to/disallowed/page.htm

Public @ 2023-07-28 12:00:44

更多您感兴趣的搜索

0.434104s