Categories


Tags


360搜索蜘蛛IP段及蜘蛛ip被拦截的问题解决方法

360Spider的ip,我们已经公开在这里辣~:

http://www.so.com/help/spider_ip.html

360Spider的UA(UA是蜘蛛访问的时候,在服务器中留下的访问签名信息,凡是下面这个UA,就代表是360Spider来过了):

Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 Safari/537.36; 360Spider

360robots协议支持FAQ:

http://www.haosou.com/help/help_3_2.html

关于蜘蛛被拦截:

蜘蛛被拦截一般是网站服务器或防火墙在做设置时,不小心将搜索引擎的蜘蛛做了拦截,导致蜘蛛无法访问,获取不到网站信息。这种问题会导致网站不收录或收录出现异常的问题

蜘蛛被拦截的常见现象有:

1、360Spider 无访问记录

2、360Spider 有访问页面的记录,但是访问的http状态为非200的状态,主要状态码有:404、403、0、503、504、521等

3、部分优质内容不收录或者收录出现异常(如优质内容的收录数量剧烈下降等,注意:关于内容收录的维度,也请参考我们之前发布的各类算法和白皮书,不清楚的小伙伴可以看这里)

如下面这个站点,就是典型的蜘蛛被拦截,我们没有办法收录到,其表现为http抓取状态为0

如何解决?

1、将我们的蜘蛛ip、UA加入到可访问的白名单

2、加白之后,尽快通过网站收录提交入口,提交网站的收录,并通过站长平台,提交网站的sitemap,观察一段时间(一般建议观察15-30天)看是否开始有收录

3、向您的空间服务商进行反馈,告知其加白我们的蜘蛛ip以及ua

以上就是我们解决蜘蛛被拦截的一个基本思路,各位小伙伴清楚了波~

如果仍然有疑问或者需要我们协助,可以向我们发邮件进行反馈,我们的反馈邮箱是:service-so@360.cn

感谢大家对360搜索的支持

来源:360站长平台


Public @ 2015-12-02 15:38:48

屏蔽百度爬虫的方法

要屏蔽百度爬虫,可以采取以下方法: 1. 使用robots.txt文件:在网站的根目录下创建一个名为robots.txt的文件,并在其中设置百度爬虫的访问限制。例如,可以使用以下指令来禁止百度爬虫访问整个网站: User-agent: Baiduspider Disallow: / 2. 使用meta标签:在网站的HTML代码中添加以下meta标签,告诉百度爬虫不要访问当前页面: 3. 使

Public @ 2023-07-27 07:50:18

Google爬行缓存代理(crawl caching proxy)

前两天人们注意到Google Adsense蜘蛛所抓取的网页会出现在搜索结果中。Matt Cutts在他的博客里迅速的做出了回应,对这种现象做了进一步解释。简单来说,Google在完成大爸爸数据中心升级后,各种蜘蛛抓取网页的机制产生了变化。不是各个蜘蛛直接抓取网页,而是由一个爬行缓存代理crawl caching proxy抓取网页,然后不同的蜘蛛从这个缓存中获取内容,从而节省了带宽。Matt C

Public @ 2019-08-28 16:22:27

更多您感兴趣的搜索

0.411098s