Categories


Tags


开发者如何解除封禁百度蜘蛛

近期收到一些开发者反馈,为什么网站或智能小程序资源的内容非常优质,但是没有查询到百度蜘蛛抓取记录,或在百度搜索中没有得到收录和展现?

在技术分析后发现,有些网站或智能小程序存在封禁百度蜘蛛的情况,导致百度蜘蛛无法正常抓取,所以无法在百度搜索中正常收录和展现,或在搜索结果中的摘要展现为“存在robots封禁”字样。

为了让广大开发者的网站或小程序,在百度搜索中得到正常的收录和展现,建议开发者及时根据以下内容自查,解除封禁问题,并通过链接提交工具主动提交给我们。

常见的封禁行为包括robots封禁、封禁百度UA、封禁百度IP等。

如何验证网站和智能小程序是否存在封禁百度蜘蛛的情况?

1、首先, 查看robots.txt文件,是否存在封禁记录。(一般robots.txt文件放置在网站根目录下。)

【建议方案】解除robots封禁:robots封禁情况,请检查robots.txt文件,及时修改。

robots文件说明:https://ziyuan.baidu.com/college/articleinfo?id=1516

2、robots文件无异常,进一步排查是否存在封禁百度UA情况;

方案一:执行 curl --head --user-agent 'Mozilla/5.0 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)' --request GET 'xxxxxxx'

注:正常返回码是200,其他情况为异常。

xxxxxxx为网站域名,如:http://abc.com.cn。

正确识别和获取百度蜘蛛,https://ziyuan.baidu.com/college/articleinfo?id=2855

方案二:变更浏览器UA验证;

【建议方案】解除百度UA封禁:查看网站反爬虫策略,进行策略调整。或针对百度UA添加策略白名单。

3、以上验证均无异常,最后进一步排查是否存在IP级别的封禁;

常见的IP封禁,源自网站的防火墙系统配置,需要查看防火墙配置系统后台,检查是否存在百度蜘蛛的IP级别封禁措施。

【建议方案】解除百度IP封禁:查看网站反爬虫策略,进行策略调整。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2011-02-07 15:38:37

为什么Baiduspider不停的抓取我的网站?

为什么Baiduspider不停的抓取我的网站?对于您网站上新产生的或者持续更新的页面,Baiduspider会持续抓取。此外,您也可以检查网站访问日志中Baiduspider的访问是否正常,以防止有人恶意冒充Baiduspider来频繁抓取您的网站。 如果您发现Baiduspider非正常抓取您的网站,请通过反馈中心反馈给我们,并请尽量给出Baiduspider对贵站的访问日志,以便于我们跟踪处

Public @ 2009-09-30 15:38:42

百度搜索引擎基础知识

从输入关键词,到百度给出搜索结果的过程,往往仅需几毫秒即可完成。百度是如何在浩如烟海的互联网资源中,以如此之快的速度将您的网站内容展现给用户?这背后蕴藏着什么样的工作流程和运算逻辑?事实上,百度搜索引擎的工作并非仅仅如同首页搜索框一样简单。搜索引擎为用户展现的每一条搜索结果,都对应着互联网上的一个页面。每一条搜索结果从产生到被搜索引擎展现给用户,都需要经过四个过程:抓取、过滤、建立索引和输出结果。

Public @ 2010-06-25 15:38:38

BaiDuSpider百度蜘蛛占用流量,robots.txt设置

BaiDuSpider是百度搜索引擎自动抓取网页的蜘蛛程序。由于蜘蛛程序需要不断访问网站上的页面,所以会占用一定的流量资源。对于网站管理员来说,如果BaiDuSpider的访问量过大,也会对网站的带宽和性能造成一定的负担。 为了避免BaiDuSpider的过度访问,网站管理员可以通过在网站根目录下创建robots.txt文件,来控制搜索引擎蜘蛛的访问。通过设置robots.txt文件,可以告诉B

Public @ 2023-03-31 08:00:24

更多您感兴趣的搜索