Categories


Tags


站点流量异常追查文档-运维篇

站点流量异常原因之运维篇

1、CDN

一些网站会使用CDN加速服务,最近每周搜索资源平台都会接到一两个跟CDN加速问题有关的案例。CDN这里存在一个问题:不同的CDN服务商在全国分布的节点数不同,站点在使用CDN服务时,同一地区CDN给蜘蛛返回的IP地址要和给用户的一致。那么现实情况是,部分CDN服务商出于成本考虑与资源使用率的问题,会在不告知用户的情况下变更IP地址以节约成本,这样就导致蜘蛛在去抓的时候,会遇到新IP和老IP的问题,在站点没有告知更换IP的情况下,蜘蛛会认为站点目前存在问题,首先是减少抓取量,其次会判断是否把不可访问的页面下掉,这时候就出现了用户访问IP与蜘蛛抓取IP不一致的情况。所以建议站点在选择CDN服务时要选择稳定的CDN服务商,其次如果IP更换最好通过搜索资源平台抓取诊断工具抓取测试,如果IP不正确可以点击下图红框“报错”提示给搜索资源平台

2、Robots

站长应该对robots都不陌生,但为什么还要提呢?有这样一种情况:站点需要更新robots文件,对站内部分内容禁止或放开抓取。但由于操作后没有检查是否生效,站长会默认为已经生效。同时还有一个生效周期的问题,那么站点需要在百度搜索资源平台提供的robots检测工具中做一个抓取测试来验证是否生效。

如果看到robots内容和你更改后的内容不一致,有几种可能:第一种可能是网站没有全面布局,因为有的站点服务器可能在很多地方,你需要确认robots是否已全部推送;第二种可能是百度没有及时做更新,可以通过robots检测工具下方的更新按钮来告诉百度Robots有变化。

3、UA/IP

UA封禁一般不会是站点主观错误操作,往往是意外情况,站点在程序中过滤误操作UA封禁,而通常却不知道自己封禁了蜘蛛。只有在逐步的排查才会发现这种概率很小的问题。所以在流量异常中我们在运维篇中把这项列进去,让站点注意这些个细节。

那么当您的网站不希望Baiduspider访问时,才需要该设置,如果您希望Baiduspider访问您的网站,useragent相关的设置中是否有Baiduspider UA,并及时修改。禁止所有来自百度的抓取: User-agent: Baiduspider Disallow: /

IP封禁往往是遇到CC攻击的时候不知道哪些是真百度蜘蛛和仿冒百度蜘蛛而封禁了蜘蛛IP,这里我们建议通过DNS反查方式让站点了解哪些是真实蜘蛛,根据平台不同验证方法不同,如linux/windows/os三种平台下的验证方法分别如下:

A、在linux平台下,您可以使用host ip命令反解ip来判断是否来自Baiduspider的抓取。Baiduspider的hostname以 *.baidu.com 或 *.baidu.jp 的格式命名,非 *.baidu.com 或 *.baidu.jp 即为冒充。

B、在windows平台或者IBM OS/2平台下,您可以使用nslookup ip命令反解ip来 判断是否来自Baiduspider的抓取。打开命令处理器 输入nslookup xxx.xxx.xxx.xxx(IP地 址)就能解析ip, 来判断是否来自Baiduspider的抓取,Baiduspider的hostname以 *.baidu.com 或 *.baidu.jp 的格式命名,非 *.baidu.com 或 *.baidu.jp 即为冒充。

C、在mac os平台下,您可以使用dig 命令反解ip来 判断是否来自Baiduspider的抓取。打开命令处理器 输入dig xxx.xxx.xxx.xxx(IP地 址)就能解析ip, 来判断是否来自Baiduspider的抓取,Baiduspider的hostname以 *.baidu.com 或 *.baidu.jp 的格式命名,非 *.baidu.com 或 *.baidu.jp 即为冒充。

更多内容请访问:/college/articleinfo?id=34

4、安全/管理不善

安全问题在搜索资源平台能观察到的绝大多数属于管理问题,站点被黑客钻了漏洞而受到了惩罚等,且惩罚力度与站点漏洞的存在时间成正比。

A、域名泛解析

近几个月域名泛解析是一个非常经典的案例,很多网站由于安全意识薄弱、密码简单被黑客钻了空子,解析出了大量非本站内容的低质页面,导致百度搜索引擎对整站采取了临时措施,使得站点流量掉了很多甚至清零。

B、网站被黑

网站被黑跟泛解析也有相似之处,网站内有大量的垃圾页面都是黑客创造出来的,导致受到惩罚,给站点带来致命的打击。

C、网页被挂马

其实这也是被黑的一种,但比被黑释放垃圾页面更为隐蔽,这类案例主要出现在企业网站或者是一些比较小的网站上,黑客直接在页面上放置展现广告代码,而且会判断来访者是普通用户还是蜘蛛,然后区别对待;或者是仅给某一个地区的用户访问挂马页面,给蜘蛛和其他大部分所在地展现正常页面等,这些其实都是非常隐蔽的行为,没有用户举报站点也很难发现,但百度搜索引擎无法容忍这样的页面出现在搜索结果里,自然这些站点会受到惩罚。

D、UGC站点被SPAMMER群发

最后说UGC站点,所有以用户贡献内容的站点在审核机制上一定要加强防范,目前平台能够接到的不少案例都是UGC站点存在监管不利,导致有大量的垃圾内容在线上,当垃圾内容与正常内容的比例达到一定阈值,就有可能整站被百度搜索引擎惩罚。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2009-10-12 15:22:13

HTTPS网站搭建注意事项有哪些?

现在越来越多的网站普遍使用HTTPS,HTTPS网站有效提升用户对网站的信任度,具有加密传输通道,保证了用户的隐私防止泄露,百度搜索引擎会优先收录HTTPS的网站。那么在HTTPS网站搭建时,需要注意哪些问题呢?HTTPS网站搭建注意事项有哪些?1、证书申请在证书申请的时候一定要核实机构的可信度,有些机构没有被国际机构认可(浏览器没有出现小绿锁),还有些机构会出现访问地域受限制,或者出现公钥泄露的

Public @ 2022-08-22 15:56:07

医疗权威资源产品合作指南

1.确定合作方向:确定医疗权威资源产品合作的方向,包括内容、市场、营销等方面的合作内容。 2.寻找合作伙伴:寻找合适的合作伙伴,可以从医院、医学院校、行业协会、医学出版社等角度入手。 3.进行调研:对合作伙伴进行调研,包括对其产品、市场占有率、用户需求等方面进行评估,评估其与自身产品合作的可行性和效果。 4.制定合作计划:根据调研结果,制定合作计划,包括合作内容、合作方式、合作时间、合作任务

Public @ 2023-03-31 00:50:28

站点流量异常追查文档-特征页分析

特征页分析是站点流量异常追查中的一项重要步骤,通过分析站点的特征页可以发现异常流量的特征和规律,并据此进一步追查异常流量的来源和原因。下面是一份站点流量异常追查的特征页分析文档示例: 1. 异常流量起始时间:记录异常流量的起始时间,用于后续的时间段分析。 2. 特征页URL:列出异常流量的特征页URL,即被异常流量访问频率较高的页面。 3. 访问频率统计:统计每个特征页的访问次数以及占总访问

Public @ 2023-06-30 19:00:24

站点流量异常追查文档-目录

先普及一个概念:什么是流量异常一,运维篇1、CDN2、robots3、UA/IP4、安全问题/管理不善A、域名泛解析B、网站被黑C、网页被挂马D、UGC站点被SPAMMER群发二,特征页分析1、分析流程图2、查找特征页面3、分析异常特征A、排名无,流量无B、部分排名无,流量损失较大三,相关因素——外链爆增1、首页、频道页、重要页面被恶意投票2、用户创建页面、垃圾个人页、内容页被恶意投票3、拼接搜索

Public @ 2019-01-10 15:22:13

更多您感兴趣的搜索

0.462472s