Categories


Tags


导致搜索引擎蜘蛛不能顺利爬行的因素

一、服务器连接异常

服务器连接异常会有两种情况,一种是站点不稳定,搜索引擎尝试连接您的网站的服务器时出现暂时无法连接的情况;另一种是搜索引擎一直无法连接上您网站的服务器。造成服务器连接异常的原因通常是您的网站服务器过大,超负荷运转。也有能是您的网站运行不正常,请检查网站的web服务器(如Apache、IIS)是否安装且正常运行,并使用浏览器检查主要页面能否正常访问。您的网站和主机还可能阻止了蜘蛛的访问,您需要检查网站和主机的防火墙。

二、网络运营商异常

网络运营商分电信和联通两种,搜索引擎通过电信或网通无法访问您的网站。如果出现这种情况,您需要与网络服务运营商进行联系,或者购买拥有双线服务的空间或者购买cdn服务。

三、DNS异常

当搜索引擎无法解析您网站的IP时,会出现DNS异常。可能是您的网站IP地址错误,或者域名服务商把搜索引擎封禁,请使用WHOIS或者host查询自己的网站IP地址是否正确且可解析,如果不正确或无法解析,请与域名注册商联系,更新您的IP地址。

四、IP封禁

IP封禁为:限制网络的出口IP地址,禁止该IP段的使用者进行内容访问,在这里特指封禁了搜索引擎IP。当你的网站不希望蜘蛛访问时,才需要该设置。如果您希望搜索引擎蜘蛛访问您的网站,请检查相关设置中是否误添加了搜索引擎蜘蛛ip。也有可能是您网站所在的空间服务商把IP进行了封禁,这是您需要联系服务商更改设置。

五、UA封禁

UA即为用户代理(User-Agent),服务器通过UA识别访问者的身份。当网站针对指定UA的访问,出现返回异常页面(如402、500)或跳转到其他页面的情况,即为UA封禁。当您网站不希望搜索引擎蜘蛛访问时,才需要该设置;如果您希望搜索引擎蜘蛛访问您的网站,查看useragent的相关设置中是否有搜索引擎蜘蛛UA,予以修改。

六、死链

页面已经无效,无法对用户提供任何有价值信息的页面就是死链接,包括协议死链和内容死链两种形式。协议死链,即页面的TCP协议状态/HTTP协议状态明确表示死链,常见的如404、402、502状态等;内容死链,即服务器返回状态是正常的,但内容已经变更为不存在、已删除或需要权限等与原内容无关的信息页面的死链。对于死链,小编建议站点使用协议死链,并通过百度站长平台——死链工具向百度提交,一边百度更快地发现死链,减少死链对用户以及搜索引擎造成的页面影响。

七、异常跳转

将网络请求重新指向其它位置即为跳转,异常跳转指的是以下几种情况。

1、当前该页面为无效页面(内容已删除、死链),直接跳转到前一目录或者首页。四叶草SEO小编建议站长将该无效页面的入口超链接删除掉。

2、跳转到出错或者无效页面。

八、其它异常

1、针对百度refer的异常:网页针对来自百度refer返回不同于正常内容的行为。

2、针对百度UA的异常:网页对百度UA返回不同于页面原内容的行为。

3、JS跳转异常:网页加载了搜索引擎无法识别的JS跳转代码,使得用户通过搜索结果进入页面后发生了跳转的情况。

4、压力过大引起的偶然封禁:搜索引擎会根据站点的规模、访问量等信息,自动设定一个合理的抓取压力。但是在异常情况下,如压力控制时长时,服务器会根据自身负荷进行保护性的偶然封禁。这种情况下,请在返回码502,这样搜索引擎蜘蛛会过段时间再来尝试抓取这个链接。如果网站已空闲,则会被成功抓取。


Public @ 2013-04-30 16:22:37

为什么Baiduspider不停的抓取我的网站?

对于您网站上新产生的或者持续更新的页面,Baiduspider会持续抓取。此外,您也可以检查网站访问日志中Baiduspider的访问是否正常,以防止有人恶意冒充Baiduspider来频繁抓取您的网站。 如果您发现Baiduspider非正常抓取您的网站,请通过投诉平台反馈给我们,并请尽量给出Baiduspider对贵站的访问日志,以便于我们跟踪处理。

Public @ 2009-07-10 15:56:49

Baiduspider抓取造成的带宽堵塞?

Baiduspider的正常抓取并不会造成您网站的带宽堵塞,造成此现象可能是由于有人冒充Baiduspider恶意抓取。如果您发现有名为Baiduspider的agent抓取并且造成带宽堵塞,请尽快和我们联系。您可以将信息反馈至 投诉平台 ,如果能够提供您网站该时段的访问日志将更加有利于我们的分析。

Public @ 2022-11-07 15:56:46

什么是模拟蜘蛛抓取

模拟蜘蛛抓取是指通过计算机程序对蜘蛛行为进行模拟,实现自动化抓取网页内容的过程。蜘蛛抓取通常用于搜索引擎、数据挖掘、网络爬虫等应用,通过模拟蜘蛛的方式,可以自动遍历互联网上的网页,提取其中的信息,例如网页的标题、正文内容、链接等。 模拟蜘蛛抓取的过程通常分为以下几个步骤: 1. 初始URL列表:确定起始的URL列表,作为开始抓取的入口。 2. 发送HTTP请求:程序向目标URL发送HTTP请求,

Public @ 2023-07-24 01:00:31

蜘蛛抓取过程中涉及的网络协议有哪些

搜索引擎通过站长们提供资源,来满足用户的搜索需求,而站长通过搜索引擎将网站的内容传播出去,获得有效的流量和用户。蜘蛛在抓取过程中双方都要遵守一定的规范,便于搜索引擎抓取,不要使用过多对搜索引擎不友好的元素。蜘蛛抓取过程中涉及的网络协议有以下四种:1、HTTP协议HTTP是超文本传输协议,在互联网上被广泛应用的一种网络协议,客户端和服务器端请求和应答的标准。用户通过浏览器或蜘蛛等对指定端口发起一个请

Public @ 2012-07-29 16:22:31

更多您感兴趣的搜索

4.564087s