Categories


Tags


Google爬行缓存代理(crawl caching proxy)

前两天人们注意到Google Adsense蜘蛛所抓取的网页会出现在搜索结果中。Matt Cutts在他的博客里迅速的做出了回应,对这种现象做了进一步解释。

简单来说,Google在完成大爸爸数据中心升级后,各种蜘蛛抓取网页的机制产生了变化。不是各个蜘蛛直接抓取网页,而是由一个爬行缓存代理crawl caching proxy抓取网页,然后不同的蜘蛛从这个缓存中获取内容,从而节省了带宽。

Matt Cutts的帖子比较完整的翻译可以在幻灭和小添的博客里看到。

我要补充的是:第一:Matt Cutts特意指出,这个新的抓取机制不会让你的网页被抓取的更快,也不会对排名有任何影响。这个爬行缓存代理也不影响各个蜘蛛本来应该爬行的频率和时间表。只不过各个蜘蛛不直接爬行网页,而是从缓存中获取。

第二:更引起我注意的是,Matt Cutts说这个爬行缓存代理是大爸爸更新之后才有的。因为运行的很顺利,在其他人发现这种现象之前,Matt Cutts自己没意识到这种新的机制已经运行了。这说明Matt Cutts并不能掌握所有各个部门的最新情况,那么还有什么是Matt Cutts也还不知道的呢?

第三:Matt Cutts讲这个机制的目标是节省带宽,而不是隐藏页面(cloaked page)检测。我觉得弦外之音是,利用同样的技术,Google完全可以用其他的蜘蛛来检测隐藏页面。当然也可能是我过度敏感了。

另外,最近很多网站出现被收录的页面数目急剧下降的现象,我怀疑和这个新的页面抓取方法造成的混乱有关。很显然不是排名算法改变导致收录的网页数目下降,而是蜘蛛爬行的问题。

来源:SEO每天一贴 Zac 昝辉


Public @ 2019-08-28 16:22:27

360搜索蜘蛛IP段及蜘蛛ip被拦截的问题解决方法

360搜索蜘蛛的IP段为:180.153.236.0/22 和 101.227.12.0/24,具体的IP地址视情况而定。 如果您的网站遇到了360搜索蜘蛛IP被拦截的问题,可以尝试以下解决方法: 1.检查是否误判 有些安全软件或防火墙可能会将360搜索蜘蛛误判为恶意IP,因此导致被拦截。您可以通过查看安全软件或防火墙的日志来确认是否误判,并将360搜索蜘蛛的IP地址添加到白名单中。 2.

Public @ 2023-03-31 20:00:30

哪些网站垃圾蜘蛛可以屏蔽?屏蔽无流量搜索引擎抓取

网站做的越大,蜘蛛越多。可是有时候会发现:网站被各种搜索引擎的蜘蛛抓的服务器都快崩溃了,严重的占用了服务器的资源。这个时候要怎么办呢?百度蜘蛛:Baiduspider谷歌蜘蛛:Googlebot360蜘蛛:360SpiderSOSO蜘蛛:Sosospider神马蜘蛛:YisouSpider微软必应: BingBot在国内,我们不要把这几个蜘蛛使用robots.txt屏蔽就可以了,至于其他的,都可以

Public @ 2020-10-09 16:22:29

如何和搜索引擎爬虫对话

作为AI语言模型,我无法实际与搜索引擎爬虫对话,但我可以提供以下有关如何处理爬虫的指导: 1. 确保您的网站结构和内容易于爬行。将所有页面都链接在一起,并为每个页面添加描述性的标题和标记。 2. 在网站中使用robots.txt文件来指定搜索引擎爬虫的访问权限。 3. 将所有内容放在HTML中,而不是JavaScript或Flash中,因为搜索引擎爬虫无法识别JavaScript和Flash内容

Public @ 2023-05-27 13:50:15

各搜索引擎蜘蛛介绍

搜索引擎蜘蛛是搜索引擎的一个自动程序。它的作用是访问互联网上的网页、图片、视频等内容,建立索引数据库,使用户能在搜索引擎中搜索到您网站的网页、图片、视频等内容。一般用法为“ spider+URL”,后面的URL(网址)是搜索引擎的痕迹,如果要查看某搜索引擎是否来爬取过你们的网站,可查看服务器的日志里是否有该URL,同时还能查看来的时间、频率等…1、百度蜘蛛:可以根据服务器的负载能力调节访问密度,大

Public @ 2011-05-10 16:22:33

更多您感兴趣的搜索

0.481371s