Categories


Tags


apache、iis6、ii7独立ip主机屏蔽拦截蜘蛛抓取(适用vps云主机服务器)

  apache、iis6、ii7独立ip主机屏蔽拦截蜘蛛抓取(适用vps云主机服务器)

整理自网络ChatGPT产生之内容,文本内容不具备参考意义,程序内容及代码片段有且仅有借鉴意义。

  在VPS云主机服务器上,可以通过以下方式屏蔽拦截蜘蛛抓取:

1. Apache服务器:

在Apache配置文件(httpd.conf或apache2.conf)中添加以下代码:

```
SetEnvIfNoCase User-Agent ".*((Googlebot)|(Baiduspider)|(Yahoo! Slurp)|(bingbot)|(YandexBot)).*" bad_bot

Order Allow,Deny
Allow from all
Deny from env=bad_bot
```

这段代码的作用是对于User-Agent中包含Googlebot、Baiduspider、Yahoo! Slurp、bingbot、YandexBot的蜘蛛,禁止访问网站内容。

2. IIS6服务器:

在IIS6中,可以通过ISAPI筛选器的方式进行屏蔽拦截。具体操作方法如下:

(1) 打开IIS管理器,选中要设置ISAPI筛选器的站点。

(2) 右键单击该站点,选择“属性”选项,在“本地站点”选项卡中找到“编辑属性”按钮。

(3) 在“ISAPI筛选器”选项卡中找到“添加”按钮,添加ISAPI筛选器“UrlScan”(或其他第三方筛选器)。

(4) 在“UrlScan.ini”(或其他筛选器的配置文件)中,添加以下代码:

```
[DenyHeaders]
User-Agent: Googlebot
User-Agent: Baiduspider
User-Agent: Yahoo! Slurp
User-Agent: bingbot
User-Agent: YandexBot
```

这段代码的作用是对于User-Agent中包含Googlebot、Baiduspider、Yahoo! Slurp、bingbot、YandexBot的蜘蛛,禁止访问网站内容。

3. IIS7服务器:

在IIS7中,可以通过动态IP限制功能进行屏蔽拦截。具体操作方法如下:

(1) 打开IIS管理器,选中要设置IP限制的站点。

(2) 在“配置”选项卡中找到“IP限制”功能,配置“动态IP限制”。

(3) 在“动态IP限制设置”中找到“添加/编辑限制”按钮,添加以下IP地址:

```
66.249.64.0/19
180.76.0.0/16
202.108.0.0/16
157.55.0.0/16
```

这些IP地址代表Googlebot、Baiduspider、Yahoo! Slurp、bingbot等蜘蛛的IP地址段,通过限制这些IP地址,可以禁止访问网站内容。

Public @ 2023-06-20 14:00:02 整理自网络ChatGPT产生之内容,文本内容不具备参考意义,程序内容有且仅有借鉴意义。

导致搜索引擎蜘蛛不能顺利爬行的因素

一、服务器连接异常服务器连接异常会有两种情况,一种是站点不稳定,搜索引擎尝试连接您的网站的服务器时出现暂时无法连接的情况;另一种是搜索引擎一直无法连接上您网站的服务器。造成服务器连接异常的原因通常是您的网站服务器过大,超负荷运转。也有能是您的网站运行不正常,请检查网站的web服务器(如Apache、IIS)是否安装且正常运行,并使用浏览器检查主要页面能否正常访问。您的网站和主机还可能阻止了蜘蛛的访

Public @ 2013-04-30 16:22:37

Chrome浏览器模拟百度蜘蛛访问

Chrome浏览器可以通过安装相关的扩展程序来模拟百度蜘蛛访问。 以下是具体步骤: 1. 在Chrome浏览器中安装User-Agent Switcher for Chrome扩展程序。 2. 在浏览器的顶部右侧,点击扩展程序图标,然后选择User-Agent Switcher for Chrome。 3. 点击“Options”按钮,然后选择“Add new user-agent”,输入你要

Public @ 2023-03-31 03:00:23

搜索引擎蜘蛛对于网站抓取是否很智能?如何引导蜘蛛?

尽管搜索引擎在不断的升级算法,但是终究其还是程序,因此我们在布局网站结构的时候要尽可能的让搜索引擎蜘蛛能看的懂。每个搜索引擎蜘蛛都有自己的名字,在抓取网页的时候,都会向网站标明自己的身份。搜索引擎蜘蛛在抓取网页的时候会发送一个请求,这个请求中就有一个字段为User-agent,用于标识此搜索引擎蜘蛛的身份。例如Google搜索引擎蜘蛛的标识为GoogleBot,百度搜索引擎蜘蛛的标识为Baidu

Public @ 2020-07-03 16:22:36

Google爬行缓存代理(crawl caching proxy)

前两天人们注意到Google Adsense蜘蛛所抓取的网页会出现在搜索结果中。Matt Cutts在他的博客里迅速的做出了回应,对这种现象做了进一步解释。简单来说,Google在完成大爸爸数据中心升级后,各种蜘蛛抓取网页的机制产生了变化。不是各个蜘蛛直接抓取网页,而是由一个爬行缓存代理crawl caching proxy抓取网页,然后不同的蜘蛛从这个缓存中获取内容,从而节省了带宽。Matt C

Public @ 2019-08-28 16:22:27

更多您感兴趣的搜索

0.432738s