Categories


Tags


服务器日志在SEO里的常见用途

服务器日志在SEO里的常见用途有哪些呢?

服务器日志用来记录网站被访问的全过程,我们可以从中看到,什么时间有哪些用户(搜索引擎)来过?都访问过哪些内容?访问时是否出错?等一些基础的访问行为。

1、修正抓取分布

对于大型站点,尤其是海量数据的网站,相对每个页面资源来说,其获取到的抓取资源也是非常有限的。这很有可能就会导致些版块SEO产生问题。

比如网站有10个核心的栏目内容,但是其中有5个是被爬虫顿繁抓取的版块,而另外5个版块爬虫很少光顾,从而导致这5个版块的SEO很不好。从数据上看,就是前5个栏目的SEO表现非常好,后5个栏目的SEO数据非常难看。这种问题,通过日志分析,也很快就能找出来。找到问题后,通过一些技术手段,将抓取资源引导到后5个栏目,能够达到事半功倍的效果。

2、发现意外页面

通常情况下,SEO负责人对自身网站结构有清晰的认识,非常了解什么地方有什么页面。但是由于一些产品功能、交互的原因,或代码方面的原因,或其他原因,会有一些意料之外的页面生成。而且很多情况下,这些意料外的页面的量级很可能还不小,从而对网站SEO造成不小的麻烦。这种时候,只有通过日志才能发现。

3、发现内容问题

SEO中有一个点很难把握, 就是页面内容的质量到底好不好?

这种具体的情况很难判断,因为牵涉这个页面本身,以及这个页面在网站内、页面在行业内,甚至页面在整个互联网内的相对价值有多高。

有可能我们自身认为某个页面的内容的价值很高,但是,把它放在更大范围来看就很一般。从而使得其排名、流量表现都非常差。所以说做SEO并不是说你本身优秀就可以,你还需要做到比别人更优秀。

结合日志,通过数据分析,如果发现某些栏目页面、产品页面,其页面索引与抓取的比例非常低,搜索跳出率高,其实就可以说明这个页面本身质量不好、相对价值不高。从而可以帮助我们在一些内容优化上面,提供一些直观的数据证明与优化方向。

来源:搜外网


Public @ 2013-06-18 15:32:50

怎样检查删除重复,可疑链接内容?

首先,怎样算是可疑链接呢,这边整理如下:1、大量交换友情链接。2、页脚上出现的只为搜索引擎准备的内部链接。3、买卖链接。4、连向坏邻居的链接。5、自己网站的大量交又链接。6、与网站主题内容无关的导出链接等。除了可疑链接外,想必重复内容也是比较头疼的,怎样检查处理?重复内容指的是什么?简单来说是包括网站本身不同URL上的相同内容,也包括与其他网站相同的内容。既可能是转载,抄袭造成的重复内容,也可能是

Public @ 2020-02-03 16:18:36

网站降权如何恢复排名?

为什么想到写这个主题呢?中午发朋友圈刚好有朋友问到,所以就再来写一写,希望给一些新入门SEO的朋友多了解下。在说恢复排名方法前,小编再多说几句:1、文中的“试试”,真的是试试做,不能百分百保证恢复;2、本标题里没有写“快速”恢复排名二字,正规SEO没有快速一说;3、一般三五年以上老SEO,一般不会去问为什么降权,因为大多心里有数;4、现在做SEO的心态都太急了,或者说有的又太把SEO当救命稻草了;

Public @ 2013-08-11 15:38:19

怎样看原始日志文件

读者hiisee问请问如何用PHP脚本在后台获取蜘蛛的详细信息呀?如哪里的蜘蛛/何时来的/搜索了哪几个页面/哪些它喜欢哪些不喜欢等,和判断浏览器是不是用一样的技术?谢谢,再次麻烦您了.刚好关于流量统计和分析以前还没有谈过,这两天分几个方面专门谈一下。今天先来谈作为SEO,怎样读服务器原始日志文件(server raw logfile)。网站服务器会把每一个访客来访时的一些信息自动记录下来,存在服务

Public @ 2013-10-12 15:32:49

日志中显示页面被抓取了,会收录吗?

如果页面已经被抓取并且已经收录在搜索引擎的数据库中,那么搜索引擎可能会更新该页面的索引,以反映新的内容。但是,如果页面被抓取但尚未收录,则需要等待搜索引擎对页面进行评估和选择是否收录。因此,能否收录页面取决于搜索引擎的算法和实际情况。

Public @ 2023-03-28 07:50:10

更多您感兴趣的搜索

0.490599s