Categories


Tags


导致搜索引擎蜘蛛不能顺利爬行的因素

一、服务器连接异常

服务器连接异常会有两种情况,一种是站点不稳定,搜索引擎尝试连接您的网站的服务器时出现暂时无法连接的情况;另一种是搜索引擎一直无法连接上您网站的服务器。造成服务器连接异常的原因通常是您的网站服务器过大,超负荷运转。也有能是您的网站运行不正常,请检查网站的web服务器(如Apache、IIS)是否安装且正常运行,并使用浏览器检查主要页面能否正常访问。您的网站和主机还可能阻止了蜘蛛的访问,您需要检查网站和主机的防火墙。

二、网络运营商异常

网络运营商分电信和联通两种,搜索引擎通过电信或网通无法访问您的网站。如果出现这种情况,您需要与网络服务运营商进行联系,或者购买拥有双线服务的空间或者购买cdn服务。

三、DNS异常

当搜索引擎无法解析您网站的IP时,会出现DNS异常。可能是您的网站IP地址错误,或者域名服务商把搜索引擎封禁,请使用WHOIS或者host查询自己的网站IP地址是否正确且可解析,如果不正确或无法解析,请与域名注册商联系,更新您的IP地址。

四、IP封禁

IP封禁为:限制网络的出口IP地址,禁止该IP段的使用者进行内容访问,在这里特指封禁了搜索引擎IP。当你的网站不希望蜘蛛访问时,才需要该设置。如果您希望搜索引擎蜘蛛访问您的网站,请检查相关设置中是否误添加了搜索引擎蜘蛛ip。也有可能是您网站所在的空间服务商把IP进行了封禁,这是您需要联系服务商更改设置。

五、UA封禁

UA即为用户代理(User-Agent),服务器通过UA识别访问者的身份。当网站针对指定UA的访问,出现返回异常页面(如402、500)或跳转到其他页面的情况,即为UA封禁。当您网站不希望搜索引擎蜘蛛访问时,才需要该设置;如果您希望搜索引擎蜘蛛访问您的网站,查看useragent的相关设置中是否有搜索引擎蜘蛛UA,予以修改。

六、死链

页面已经无效,无法对用户提供任何有价值信息的页面就是死链接,包括协议死链和内容死链两种形式。协议死链,即页面的TCP协议状态/HTTP协议状态明确表示死链,常见的如404、402、502状态等;内容死链,即服务器返回状态是正常的,但内容已经变更为不存在、已删除或需要权限等与原内容无关的信息页面的死链。对于死链,小编建议站点使用协议死链,并通过百度站长平台——死链工具向百度提交,一边百度更快地发现死链,减少死链对用户以及搜索引擎造成的页面影响。

七、异常跳转

将网络请求重新指向其它位置即为跳转,异常跳转指的是以下几种情况。

1、当前该页面为无效页面(内容已删除、死链),直接跳转到前一目录或者首页。四叶草SEO小编建议站长将该无效页面的入口超链接删除掉。

2、跳转到出错或者无效页面。

八、其它异常

1、针对百度refer的异常:网页针对来自百度refer返回不同于正常内容的行为。

2、针对百度UA的异常:网页对百度UA返回不同于页面原内容的行为。

3、JS跳转异常:网页加载了搜索引擎无法识别的JS跳转代码,使得用户通过搜索结果进入页面后发生了跳转的情况。

4、压力过大引起的偶然封禁:搜索引擎会根据站点的规模、访问量等信息,自动设定一个合理的抓取压力。但是在异常情况下,如压力控制时长时,服务器会根据自身负荷进行保护性的偶然封禁。这种情况下,请在返回码502,这样搜索引擎蜘蛛会过段时间再来尝试抓取这个链接。如果网站已空闲,则会被成功抓取。


Public @ 2013-04-30 16:22:37

各搜索引擎蜘蛛介绍

搜索引擎蜘蛛是搜索引擎的一个自动程序。它的作用是访问互联网上的网页、图片、视频等内容,建立索引数据库,使用户能在搜索引擎中搜索到您网站的网页、图片、视频等内容。一般用法为“ spider+URL”,后面的URL(网址)是搜索引擎的痕迹,如果要查看某搜索引擎是否来爬取过你们的网站,可查看服务器的日志里是否有该URL,同时还能查看来的时间、频率等…1、百度蜘蛛:可以根据服务器的负载能力调节访问密度,大

Public @ 2011-05-10 16:22:33

哪些网站垃圾蜘蛛可以屏蔽?屏蔽无流量搜索引擎抓取

? 1. 通过robots.txt可屏蔽Google、Baidu、Bing等常见的网站搜索引擎的抓取; 2. 通过User Agent阻止未知垃圾爬虫或无流量搜索引擎,通过历史行为表明该蜘蛛具有不良意图抓取数据; 3. 通过代理服务器设置黑名单,可以限制不同来源IP的访问; 4. 通过验证码屏蔽爬虫或机器人,使搜索结果不准确、不可用; 5. 通过网络防火墙设置黑白名单,阻止一些特定的网站

Public @ 2023-02-24 22:00:34

搜索引擎蜘蛛劫持是什么?怎么判断是否被劫持

搜索引擎蜘蛛劫持是seo黑帽中常用的一种手法,需要一定的技术支持getshell,然后上传恶意的代码到网站根目录下面或者修改网站的一些文件,搜索引擎蜘蛛劫持的原理就是判断来访网站的是用户还是蜘蛛,如果是蜘蛛就推送一个事先准备的恶意网站,如果是用户就推送一个正常的网页1:蜘蛛判断判断访问的是用户还是蜘蛛,如果是用户就推送一个正常网页,如果是蜘蛛就推送一个恶意网页,判断方式有两种,一种是判断蜘蛛的UA

Public @ 2017-05-29 16:22:36

更多您感兴趣的搜索

0.430818s