Categories


Tags


屏蔽百度爬虫的方法

在百度C2C产品“百度有啊”即将上线的时候,淘宝网站曾经屏蔽百度搜索爬虫,禁止百度搜索引擎抓取淘宝网站的网页内容,淘宝官方的解释是“杜绝不良商家欺诈”。

在技术层面,淘宝屏蔽百度的方法是,在网站的robots.txt文件中加上如下内容:

User-agent: Baiduspider

Disallow: /

但实际上这种方法并不能完全屏蔽百度的爬虫,至今在百度上输入site:taobao.com还是可以看到内容,要不要索引网站,还是由百度说了算,要是遵守robots协议,那才不会索引,因此要想完全屏蔽百度的爬虫,需要在.htaccess中加入一些语句才可以,下面介绍两种方法。

方法1:

RewriteEngine on

RewriteCond %{HTTP_USER_AGENT} ^Baiduspider [NC]

RewriteRule .* - [F]

方法2:

SetEnvIfNoCase User-Agent "^Baiduspider" bad_bot

<Limit GET POST>

Order Allow,Deny

Allow from all

Deny from env=bad_bot

</Limit>

当然,对于普通中文网站来说,还是不建议屏蔽百度的爬虫,通常情况下做一些大型的英文网站,才有必要这么做,以节省流量。

来源:月光博客


Public @ 2012-08-15 15:56:41

360搜索蜘蛛IP段及蜘蛛ip被拦截的问题解决方法

搜索蜘蛛IP段 1、百度蜘蛛:220.181.100-220.181.111 2、360搜索蜘蛛:36.110.0-36.110.255 3、新浪蜘蛛:61.135.160-61.135.160 4、搜狗蜘蛛:182.118.7-182.118.15 蜘蛛IP被拦截的问题解决方法 1、根据不同的蜘蛛IP段添加搜索蜘蛛的IP白名单,以免被拦截; 2、根据不同的蜘蛛访问网站的添加Us

Public @ 2023-02-24 20:00:29

我不想我的网站被Baiduspider访问,我该怎么做?

Baiduspider遵守互联网robots协议。您可以利用robots.txt文件完全禁止Baiduspider访问您的网站,或者禁止 Baiduspider访问您网站上的部分文件。 注意:禁止Baiduspider访问您的网站,将使您的网站上的网页,在百度搜索引擎以及所有百度提供搜索引擎服务的搜索引擎中无法被搜索到。关于 robots.txt的写作方法,请参看我们的介绍:robots.txt写

Public @ 2017-02-03 15:38:41

Baiduspider抓取造成的带宽堵塞?

Baiduspider抓取造成的带宽堵塞?Baiduspider的正常抓取并不会造成您网站的带宽堵塞,造成此现象可能是由于有人冒充Baiduspider恶意抓取。如果您发现有名为Baiduspider的agent抓取并且造成带宽堵塞,请尽快和我们联系。您可以将信息反馈至反馈中心,如果能够提供您网站该时段的访问日志将更加有利于我们的分析。如果大家对百度spider还有别的疑问,大家可以到[学堂同学汇

Public @ 2019-04-06 15:38:40

屏蔽百度爬虫的方法

要屏蔽百度爬虫,可以采取以下方法: 1. 使用robots.txt文件:在网站的根目录下创建一个名为robots.txt的文件,并在其中设置百度爬虫的访问限制。例如,可以使用以下指令来禁止百度爬虫访问整个网站: User-agent: Baiduspider Disallow: / 2. 使用meta标签:在网站的HTML代码中添加以下meta标签,告诉百度爬虫不要访问当前页面: 3. 使

Public @ 2023-07-27 07:50:18

更多您感兴趣的搜索

0.419777s