Categories


Tags


【院长帮帮忙】页面无用时间信息导致网页不被爬虫抓取(第一期)

在【院长帮帮忙】栏目露过面的站点是编织汇(www.bianzhihui.com),该站点通过反馈中心反馈页面内容迟迟不被抓取,经百度工程师追查,原来是因为页面上的无用时间信息——没有想到是不是?同学们快来看看这个案例吧。也想让院长帮助追查吗?快来看看这里!

站点求助:现象

编织汇网站内容发布后几个礼拜都未曾收录。案例如下:

http://www.bianzhihui.com/t/6717(教程详细页面举例)

http://www.bianzhihui.com/u/12306 (用户页面举例)

http://www.bianzhihui.com/h/154 (编织花样页面举例)

我们已将这些url放入sitemap,并使用了百度统计的集成的JS推荐,但是未曾有改善。

站点求助:自查

根据反馈中心的回复,使用抓取异常工具诊断:未发现异常

院长出手,内部追查

工程师结论: spider抓取很及时,但因为该网站没有设置内容产出时间,网站底部却有个老旧时间日期,导致spider误以为网页内容老旧(具体策略较复杂,在此不做赘述)。建议增加页面内容产生时间,去掉没有必要的时间信息

*以上为旧页面截图,“2014年9月9日”对时间识别造成干扰。

站点总结:

1,网页上切忌勿乱加时间,如我们网站的(始于2014年9月9日)这种时间是一个大忌

2,网页内容尽可能加上产出时间,也就是发布时间

3,百度site的结果时间和权重并无太多关系

4,跟百度沟通的时候,一定要条例清晰,证据确凿。自身的问题一定要先排查准确。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2015-07-21 15:22:04

屏蔽百度爬虫的方法

1. 设置robots.txt文件 在根目录中建立一个robots.txt文件,设置禁止百度抓取即可达到屏蔽百度爬虫的效果,具体设置内容如下: User-agent: Baiduspider Disallow: / 2. 自定义Http请求 百度爬虫最显著的特征就是它的User_Agent中包含Baiduspider,一般在Http头中添加请求头:X-Baidu-Env:martin-

Public @ 2023-03-05 04:00:12

如何和搜索引擎爬虫对话

抓取策略:那些网页是我们需要去下载的,那些是无需下载的,那些网页是我们优先下载的,定义清楚之后,能节省很多无谓的爬取。更新策略:监控列表页来发现新的页面;定期check 页面是否过期等等。抽取策略:我们应该如何的从网页中抽取我们想要的内容,不仅仅包含最终的目标内容,还有下一步要抓取的url.抓取频率:我们需要合理的去下载一个网站,却又不失效率。让我对“如何和爬虫对话 ”这个课题有了一些思考,下面归

Public @ 2017-01-01 16:22:28

【院长帮帮忙】第二期:服务器限制外网访问造成主动推送失败

《院长帮帮忙》栏目开始运营以后受到了广大站长欢迎,院长每天都会收到各种问题求助。为了更多站长获得收益,我们从中选取了最具有代表性的问题展现给大家。项目背景:和讯网参加星火计划2.0内测,按照站长平台主动提交技术说明代码,共提交两次,均返回报错。下面我们分享下整个case的排查过程:一、提交执行过程首先,按照链接主动提交的技术标准进行提交,具体内容参照《主动链接提交》。1、第一次提交代码curl -

Public @ 2017-05-18 15:22:02

页面无用时间信息导致网页不被抓取

在第一期【院长帮帮忙】栏目露面的站点是编织汇(www.bianzhihui.com),该站点通过反馈中心反馈页面内容迟迟不被抓取,经百度工程师追查,原来是因为页面上的无用时间信息——没有想到是不是?同学们快来看看这个案例吧。也想让院长帮助追查吗?快来看看这里!站点求助:现象编织汇网站内容发布后几个礼拜都未曾收录。案例如下:http://www.bianzhihui.com/t/6717(教程详细页

Public @ 2014-01-01 15:22:05

更多您感兴趣的搜索

0.565327s