Categories


Tags


分析网站日志有什么用?如何进行日志分析?(SEO技巧)

很多新手SEO站长可能觉得不去分析网站日志也无关紧要,相信大家都在自己的网站上安装了网站统计的代码,如Google analytics、量子统计、百度统计、cnzz、51.la等。这些工具可以统计网站的流量,但是这些统计工具都不能统计你主机上资源的原始访问信息,例如某个图片被谁下载了,也不能统计到那些没有添加统计代码的地方,比如后台操作页面。

绝大多数收费主机都提供原始访问日志,网站服务器会把每一个访客来访时的一些信息自动记录下来,保存在原始访问日志文件中,如果你的主机不提供日志功能,建议你到期后还是换主机吧。日志中记录了网站上所有资源的访问信息,包括图片、CSS、JS、FLASH、HTML、MP3等所有网页打开过程载入的资源,同时记录了这些资源都被谁访问了、用什么来访问以及访问的结果是什么等等,可以说原始访问日志记录了主机的所有资源使用情况。

分析网站日志有什么作用?

1、我们可以比较准确的定位搜索引擎蜘蛛来爬行我们网站的次数,可以屏蔽伪蜘蛛(此类蜘蛛多以采集为主,会增加我们服务器的开销);

2、通过分析网站日志,我们可以准确定位搜索引擎蜘蛛爬行的页面以及时间长短,我们可以依次有针对性的对我们的网站进行微调 ;

3、http返回状态码,搜索引擎蜘蛛以及用户每访问我们的网站一次,服务器端都会产生类似301,404,200的状态吗,我们可以参照此类信息,对我们出现问题的网站进行简单的诊断,及时处理问题。

如何分析网站日志中的内容?

一、注意那些被频繁访问的资源

如果在日志中,你发现某个资源(网页、图片和mp3等)被人频繁访问,那你应该注意该资源被用于何处了!如果这些请求的来源(Referer)不是你的网站或者为空,且状态码(Http Code)为200,说明你的这些资源很可能被人盗链了,通过 Referer 你可以查出盗链者的网址,这可能就是你的网站流量暴增的原因,你应该做好防盗链了。

二、注意那些你网站上不存在资源的请求

如果某些请求信息不是本站的资源,Http Code不是403就是404,但从名称分析,可能是保存数据库信息的文件,如果这些信息让别人拿走,那么攻击你的网站就轻松多了。发起这些请求的目的无非就是扫描你的网站漏洞,通过漫无目的地扫描下载这些已知的漏洞文件,很可能会发现你的网站某个漏洞哦!通过观察,可以发现,这些请求所使用的Agent差不多都是Mozilla/4.0、Mozilla/5.0或者libwww-perl/等等非常规的浏览器类型,以上我提供的日志格式化工具已经集成了对这些请求的警报功能。我们可以通过禁止这些Agent的访问,来达到防止被扫描的目的,具体方法下面再介绍。

三、观察搜索引擎蜘蛛的来访情况

通过观察日志中的信息,你可以看出你的网站被蜘蛛访问的频率,进而可以看出你的网站是否被搜索引擎青睐,这些都是SEO所关心的问题吧。日志格式化工具已经集成了对搜索引擎蜘蛛的提示功能。常见搜索引擎的蜘蛛所使用的Agent列表如下:

Google蜘蛛 :Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

Baidu蜘蛛 :Baiduspider+(+http://www.baidu.com/search/spider.htm)

Yahoo!蜘蛛 :Mozilla/5.0 (compatible; Yahoo! Slurp/3.0; http://help.yahoo.com/help/us/ysearch/slurp)

Yahoo!中国蜘蛛 :Mozilla/5.0 (compatible; Yahoo! Slurp China; http://misc.yahoo.com.cn/help.html)

微软Bing蜘蛛 :msnbot/2.0b (+http://search.msn.com/msnbot.htm)

Google Adsense蜘蛛 :Mediapartners-Google

有道蜘蛛 :Mozilla/5.0 (compatible; YoudaoBot/1.0; http://www.youdao.com/help/webmaster/spider/)

Soso搜搜博客蜘蛛 :Sosoblogspider+(+http://help.soso.com/soso-blog-spider.htm)

Sogou搜狗蜘蛛 :Sogou web spider/4.0(+http://www.sogou.com/docs/help/webmasters.htm#07)

Twiceler爬虫程序 :Mozilla/5.0 (Twiceler-0.9 http://www.cuil.com/twiceler/robot.html)

Google图片搜索蜘蛛 :Googlebot-Image/1.0

俄罗斯Yandex搜索引擎蜘蛛 :Yandex/1.01.001 (compatible; Win16; I)

Alexa蜘蛛 :ia_archiver (+http://www.alexa.com/site/help/webmasters)

Feedsky蜘蛛 :Mozilla 5.0 (compatible; Feedsky crawler /1.0)

韩国Yeti蜘蛛:Yeti/1.0 (NHN Corp.; http://help.naver.com/robots/)

四、观察访客行为

通过查看格式化后的日志,可以查看跟踪某个IP在某个时间段的一系列访问行为,单个IP的访问记录越多,说明你的网站PV高,用户粘性好;如果单个IP的访问记录希希,你应该考虑如何将你的网站内容做得更加吸引人了。通过分析访客的行为,可以为你的网站建设提供有力的参考,哪些内容好,哪些内容不好,确定网站的发展方向;通过分析访客的行为,看看他们都干了些什么事,可以揣测访客的用意,及时揪出恶意用户。

总结:还有一点要介绍的是当网站遭遇搜索引擎K掉的时候,网站日志可以给我们提供被K掉的原因(我是为站群的朋友考量),并且通过网站日志相关数据,可以看到网站什么时候搜索引擎恢复正常访问,这样我们可以选择继续做或者放弃,虽然很无奈,但却也是不得已而又明智的选择。(来源:夫唯seo特训营)


Public @ 2017-08-09 15:32:55

大型网站SEO要怎么优化(2)

大型网站SEO从业者一般都是在行业中摸爬滚打很多年的老手了,一般都有一些工作心得,但是在工作方面,还是有很多需要注意的。主要分为三大关键部分:SEO网站技术、SEO人员的沟通能力和SEO的心态。关于SEO网站技术的内容在:大型网站SEO要怎么优化(1)里讲过了,本文主要讲解SEO人员的沟通能力和SEO的心态。关键2: SEO人员的沟通能力网站能不能顺利优化发展,大型网站SEOer的沟通能力越显重要

Public @ 2021-04-21 15:52:01

接手一个网站后应做什么

1. 理解网站的核心目标:首先需要理解该网站的业务目标、目标用户和市场定位等,明确网站制作的意图和目的。 2. 熟悉网站的技术架构:熟悉网站的技术架构、系统环境和运行状况等,了解网站的整体构架以及具体实现细节。 3. 安全检查:对网站进行安全检查,包括检查网站是否存在漏洞、是否存在黑客入侵等问题。 4. 进行品牌升级:通过设计和界面的调整、内容的编辑和优化等方式提升网站品牌形象和用户体验。

Public @ 2023-05-30 20:00:31

怎样看原始日志文件

读者hiisee问请问如何用PHP脚本在后台获取蜘蛛的详细信息呀?如哪里的蜘蛛/何时来的/搜索了哪几个页面/哪些它喜欢哪些不喜欢等,和判断浏览器是不是用一样的技术?谢谢,再次麻烦您了.刚好关于流量统计和分析以前还没有谈过,这两天分几个方面专门谈一下。今天先来谈作为SEO,怎样读服务器原始日志文件(server raw logfile)。网站服务器会把每一个访客来访时的一些信息自动记录下来,存在服务

Public @ 2013-10-12 15:32:49

什么是网站日志?网站日志分析怎么进行?

在做网站日志分析之前,得先弄明白:1.什么是网站日志?2.在什么情况下需要做网站日志分析?什么是网站日志?网站日志,准确来说是服务器日志。通过服务器日志,我们可以了解到用户在什么IP、在什么分辨率的设备、什么时间、什么地区访问了我们的网站,以及当时访问的页面是否正常。对于我们网站而言,搜索引擎也是网站用户之一。本文提到的网站日志分析,更多是在分析搜索引擎这种用户。在什么情况下需要做网站日志分析?1

Public @ 2022-09-01 15:32:56

更多您感兴趣的搜索

0.636978s