Categories


Tags


利用百度蜘蛛referer找到报错页面入口

大家应该都知道百度已经全站https并取消referer关键词显示了,那么“百度蜘蛛referer”又是什么?有什么妙用吗?艺龙SEO负责人刘明发现通过百度蜘蛛referer可以快速定位部分站内url的报错(4xx或者5xx)原因。随后社区版主飞鹰正义也对文章做了补充修正,现推荐给各位同学们。

什么是百度蜘蛛的referer

百度蜘蛛的referer,是指当百度蜘蛛抓取某一个URL的时候,在HTTP头中带的Referer字段。请注意,这个定义和百度最近声明去除Referer中关键词数据没有任何关系。这次讲的是spider发起的HTTP请求,百度而去除的是用户发起的。如果百度蜘蛛抓取百度首页的logo,会发起这样的请求:

上面Referer字段很明确的表示了他是从www.baidu.com这个页面上发现并抓取了www.baidu.com/img/bd_logo1.png。而大家在服务器访问日志中也应该能看到相应的记录。目前发现只有当百度抓取一个网页的同时,又抓取了网页中的:img、js和css才会带上referer字段。这部分额外的抓取量,应该不会占用百度分配的抓取配额,属于“买1送1”。

对于站长的意义

如果你发现有一批URL(仅限于img,js,css)报错(4xx或者5xx),但是一直找不到入口在哪,也就是说你不明白百度蜘蛛是从哪里发现这些错误URL的。这个字段可以帮助你迅速定位。

举个例子

比如我们的SEO日志分析系统中可以看到,符合下面这种URL Pattern的路径每天有6万到10万的抓取而且全部报404。

从发现问题至今过了1个月,查遍整个网站我也没找到入口。今天偶然仔细查了一下日志,想起了百度蜘蛛的referer,马上就能定位问题了。这些404的URL来自于一套没人维护也没人关注的页面(往往是这样)。收录流量都不错。由于最近公司图片系统更新,图片的URL全部更改了,但这套页面并没有跟着更新。

如果站点没有记录referer怎么办

iis请在这里勾选“cs(Referer)”:

apache请参考:

apache log配置“Combined Log Format”章节

apache log配置的官方链接

Nginx请参考:

nginx log配置

nginx log配置的官方链接

结束语

· 很多SEO问题并不是立即致命的,所以没有及时解决。流量就像蚂蚁啃大象一样一点一点啃掉了。

· 系统性的知识积累还是会在关键时刻发挥作用的。

· 感谢飞鹰对本文的修正。

至此文章虽然结束但是讨论可以继续,大家可以到[学堂同学汇] 《利用百度蜘蛛referer找到报错页面入口》讨论帖,与作者刘明进行探讨。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2012-04-14 15:38:46

大型网站的 HTTPS 实践(4):协议层以外的实践

百度在2015年即完成HTTPS改造,那大型网站的HTTPS改造中都有哪些实践经验,学堂君特分析这篇干货满满系列内容,转自百度运维博客。1 前言网上介绍 HTTPS  的文章并不多,更鲜有分享在大型互联网站点部署 HTTPS  的实践经验,我们在考虑部署HTTPS 时也有重重的疑惑。本文为大家介绍百度 HTTPS 的实践和一些权衡, 希望以此抛砖引玉。2 协议层以外的实践工作2

Public @ 2022-08-20 15:22:21

医疗权威资源产品合作指南

1.确定合作方向:确定医疗权威资源产品合作的方向,包括内容、市场、营销等方面的合作内容。 2.寻找合作伙伴:寻找合适的合作伙伴,可以从医院、医学院校、行业协会、医学出版社等角度入手。 3.进行调研:对合作伙伴进行调研,包括对其产品、市场占有率、用户需求等方面进行评估,评估其与自身产品合作的可行性和效果。 4.制定合作计划:根据调研结果,制定合作计划,包括合作内容、合作方式、合作时间、合作任务

Public @ 2023-03-31 00:50:28

百度Spider渲染UA在移动端全流量上线

百度Spider在2017年3月同时推出渲染UA在移动端和PC端进行内测(《百度Spider新增渲染UA抓取公告》),内测期间分析了多个抓取量异常的case,均非渲染UA造成。本周百度Spider渲染UA在移动端全流量上线,PC端还未全部覆盖。特提醒PC站长,截止目前,对搜索引擎和用户有价值的内容,还是尽量不要使用JS加载的方式,以免造成不能索引等损失。来源:百度搜索资源平台

Public @ 2014-04-27 15:38:47

屏蔽百度爬虫的方法

在百度C2C产品“百度有啊”即将上线的时候,淘宝网站曾经屏蔽百度搜索爬虫,禁止百度搜索引擎抓取淘宝网站的网页内容,淘宝官方的解释是“杜绝不良商家欺诈”。在技术层面,淘宝屏蔽百度的方法是,在网站的robots.txt文件中加上如下内容:User-agent: BaiduspiderDisallow: /但实际上这种方法并不能完全屏蔽百度的爬虫,至今在百度上输入site:taobao.com还是可以看

Public @ 2012-08-15 15:56:41

更多您感兴趣的搜索

0.478606s