Categories


Tags


【干货】简单两步,教你识别百度蜘蛛

近期,小编经常收到开发者关于“哪些蜘蛛是百度搜索的”、“如何才能正确识别百度蜘蛛”的提问。

今日干货带你简单两步即可识别百度蜘蛛

一、查看UA信息

如果UA信息不对,可以直接判断该蜘蛛为非百度搜索的蜘蛛。

目前UA分为移动、PC、和小程序三个应用场景,分别如下:

【移动UA】

1、Mozilla/5.0(Linux;u;Android 4.2.2;zh-cn;) AppleWebKit/534.46 (KHTML,like Gecko)Version/5.1 Mobile Safari/10600.6.3 (compatible; Baiduspider/2.0;+http://www.baidu.com/search/spider.html)

2、Mozilla/5.0 (iPhone;CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko)Version/9.0 Mobile/13B143 Safari/601.1 (compatible; Baiduspider-render/2.0;+http://www.baidu.com/search/spider.html)

【PC UA】

1、Mozilla/5.0(compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)

2、Mozilla/5.0(compatible; Baiduspider-render/2.0; +http://www.baidu.com/search/spider.html)

【小程序UA】

Mozilla/5.0 (iPhone;CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko)Version/9.0 Mobile/13B143 Safari/601.1 (compatible; Baiduspider-render/2.0;Smartapp; +http://www.baidu.com/search/spider.html)

二、双向DNS解析认证

第一步:DNS反查IP

开发者可以对日志中访问服务器的IP地址进行反向DNS查找,判断某只spider是否来自百度搜索引擎,Baiduspider的hostname以*.baidu.com或*.baidu.jp 的格式命名,非*.baidu.com或*.baidu.jp即为冒充。

在Linux/Windows/OS三种平台下,验证方法分别如下:

1) 在Linux平台下,可以使用host IP命令反解IP来判断该抓取是否来自Baiduspider。

2) 在Windows平台或者IBM OS/2平台下,可以使用nslookup IP命令反解IP:打开命令处理器,输入nslookup xxx.xxx.xxx.xxx(IP地址)就能解析IP,判断该抓取是否来自Baiduspider。

3) 在macOS平台下,可以使用dig命令反解IP:打开命令处理器输入dig -x xxx.xxx.xxx.xxx(IP地址)就能解析IP,判断该抓取是否来自Baiduspider。

第二步:对域名运行正向DNS查找

对第一步中通过命令检索到的域名运行正向DNS查找,验证该域名与日志中访问服务器的原始IP地址是否一致,IP地址一致可确认spider来自百度搜索引擎,IP地址不一致即为冒充。

【示例】

> host 111.206.198.69

69.198.206.111. in-addr.arpa domain name pointer baiduspider-111-206-198-69.crawl.baidu.com.

>hostbaiduspider-111-206-198-69.crawl.baidu.com

baiduspider-111-206-198-69.crawl.baidu.com has address 111.206.198.69

以上就是识别百度蜘蛛的方法,有需要的同学速速收藏哦!

来源:百度搜索资源平台 百度搜索学堂


Public @ 2019-09-16 15:38:37

蜘蛛程序(spider)

蜘蛛程序(spider)是一种按照一定规则自动地在互联网上检索和获取信息的计算机程序。蜘蛛程序的工作方式类似于蜘蛛在网上爬行,它通过网络链接搜索引擎等目标网站的页面,并按照预先设定的算法和规则提取所需的信息。 蜘蛛程序主要用于搜索引擎的建立与维护,它们能够自动化地获取大量的网页内容,并将其存储在搜索引擎的数据库中。蜘蛛程序可以按照用户设定的关键词和搜索模式来搜索相关的网页,然后将搜索结果进行分析

Public @ 2023-07-24 14:00:31

BaiDuSpider百度蜘蛛占用流量,robots.txt设置

BaiDuSpider百度蜘蛛是百度搜索引擎的爬虫程序,负责抓取并建立Web页面的索引。百度蜘蛛会消耗服务器的流量和资源,对于一些限制流量的网站,可能会受到影响。为了控制百度蜘蛛的访问,可以使用robots.txt文件进行设置。 robots.txt文件是一种网站协议,用来告诉搜索引擎蜘蛛访问网站的规则。如果在网站根目录下没有设置robots.txt文件,搜索引擎蜘蛛将按照默认规则进行访问。为了

Public @ 2023-04-17 20:00:34

如何获知BaiduSpider在网站爬行的规律

要获知BaiduSpider网站爬行规律,可以使用如下步骤: 1. 根据网站日志或服务器访问日志找出BaiduSpider爬行的记录,记录包括爬虫访问的页面URL、访问时间、访问频率等信息。 2. 对记录进行整理与分析,得出BaiduSpider的爬行规律,例如爬虫的访问频率、访问时段、爬行深度等。 3. 使用数据分析工具对BaiduSpider的访问规律进行可视化呈现,例如制作访问频率图表

Public @ 2023-04-13 08:00:27

更多您感兴趣的搜索

0.436818s