Categories


Tags


Google Penguin 2.0企鹅更新惩罚了什么样的网站

5月份一直在外面跑,终于回到新加坡。在外期间,SEO行业最大的新闻莫过于大家盼望已久又不想见到的Google Penguin 2.0企鹅算法更新的上线。

5月22号(美国时间,中国时间已经是23号了)Matt Cutts在他的博客发布消息,Penguin 2.0已经上线完毕。各种文字的搜索都受影响,并且算法更新都已上线,不同文字受影响的比例不同,英文搜索有2.3%的查询词受影响。这是第四次Penguin相关的更新,是算法更新,不是数据刷新(算法不变,但有新的链接数据,根据算法重新计算),所以Google内部称之为Penguin2.0。言下之意,第2次(2012年5月24号)和第3次(2012年10月5号)大概是数据刷新。

虽然只有2.3%的查询词受影响,但SEOer的感受很可能大不相同,因为SEO们关注的主要是商业性比较强的词,所谓money words,而这些词优化程度高,受影响的比例应该也高得多。

SearchMetrics在24小时内就统计了他们的监控数据,列出了25个受影响最大的网站:

penguin-losers-searchmetrics

受影响大的失去了自然搜索流量的50%以上,损失不小。我个人这次没受什么影响,因为几个早期用过稍嫌过分手法的英文站早在第一次Penguin更新时(2012年4月24号)就被惩罚的七零八落了…

SEO们更关心的一定是Penguin 2.0惩罚了什么样的网站?哪些种链接这次被判定作弊了?分析上面受影响网站的链接就可以知道答案,有人已经做了这个工作,我们看现成的就行了。

LinkResearchTools分析了3个网站:reeds.com,cheapoair.com和home24.de。分析文章都很长,三篇帖子我看了一个多钟头,有兴趣看全文的可以点击前面原文链接。下面列出他们的主要结论:

1)以商业性词(那些money keywords)为锚文字的外链比例过高可能是被惩罚的主要原因之一。而未受影响的同类网站往往以网站品牌名称(不是商品名称,是网站自己的名称)为锚文字的链接比例最大。比如reeds.com网站,以reeds为锚文字的链接很少,而以diamond rings这种词为锚文字的链接比例高达80%以上。有意制造链接的痕迹太明显了。

2)普通follow的链接比例过高可能是被惩罚的原因之一。一般没有刻意制造链接的网站都会有一定比例的nofollow链接。

3)文字链接和来自博客的链接比例过高可能是被惩罚的原因之一。经常买链接的人都会知道,最常见的能买到的链接之一是各种垃圾博客上的内容链接,这种链接的共性就是全部是文字链接,全部来自博客。这种链接买多了,文字链接和博客链接比例就会比行业平均水平高。

4)链接增加速度高于行业平均水平可能是被惩罚原因之一。尤其是近两年来的链接增加速度,有的网站2011年前链接增加速度过快,似乎这次没受影响。买链接也要控制速度啊。

5)整站链接应该不是这次被惩罚原因。

6)外链强度(Power,类似于Google PR的数据)偏高,但信任度(Trust,类似于TrustRank)偏低可能是被惩罚的原因之一。这也是买链接和发链接的弊端之一,Google PR是可以在一定程度上操纵的,所以买链接时都奔着高PR去了。但TrustRank就难多了,我们既看不见TrustRank数据,也不知道TrustRank的种子网站是哪些。很可能造成买的和发的链接在有一定PR值的页面上,但其实TrustRank很低。两者差距高于行业平均水平时就被怀疑了。

7)外链连到网站内页比例过高可能是被惩罚的原因之一。这个出乎我的预想,但在某些情况下也有成立的道理。了解SEO的人都知道外链要多样化,其中就包括不仅要连到首页,也要有链接到内页,有时候可能会过犹不及了。不懂SEO的人反倒想不到给内页制造链接。

8)将被惩罚过的网站做301到新网站(或主网站),可能是导致新网站(或主网站)被惩罚的原因之一。这个比较危险,是否会被利用来陷害别人?相信Google有预防措施。

9)有大量来自买卖链接网络的链接,这些网络又被Google检测出来并删除,这可能是被惩罚的原因之一。

10)大量内容不相关的外链应该不是这次被惩罚的原因。

11)大量链接来自被黑的网站、含有恶意软件的网站,可能是被惩罚的原因之一。

其实这些东西大部分在我的书《SEO实战密码》里链接建设部分都有提及,但说实话,要完全做到,是一件相当困难的事。

最后,LinkResearchTools为什么这么好心深入分析又分享给大家呢?因为他们是卖链接分析软件的,这些分析就是他们最好的广告啊。

来源:SEO每天一贴 Zac 昝辉


Public @ 2016-12-10 15:54:35

Google Panda熊猫更新笔记

关于Google Panda熊猫算法更新的一些零零碎碎的笔记。到目前为止看到的受影响的网站完全恢复情况很少。子域名是分开处理的。据报道,一个网站把高质量内容换到子域名上去恢复了排名。Panda针对内容农场之类的网站,但有大批误杀。主要和内容质量及用户体验有关,比如广告占页面比例可能是指标之一。Panda更新算法参考了人工质量检查及用户浏览数据,通过机器学习形成模式。与Chrome用户屏蔽网站数据互

Public @ 2020-05-23 15:54:34

谷歌“猫头鹰”算法更新

谷歌于2019年9月24日宣布了一次算法更新,称之为“猫头鹰”(Owl)。这次更新的目的在于提高搜索结果的质量和准确性,尤其是对于医疗、金融和法律等特定领域的搜索结果。 猫头鹰算法的主要特点是: 1. 优化站点质量评估:算法会更加重视站点质量,包括站点内容的原创性、可信度、专业性等方面的评估。 2. 强调机器学习模型的重要性:谷歌将机器学习模型引入其排序算法中,以更好地识别用户的意图和需求。

Public @ 2023-05-27 20:00:22

Matt Cutts谈总体搜索质量和新的基础架构

Matt Cutts在谷歌的一次采访中谈到了总体搜索质量和新的基础架构的问题。 他认为,谷歌一直在不断改进其搜索算法和质量评估方法,以便能够更好地为用户提供相关的搜索结果。此外,谷歌还在研究和改进搜索结果的呈现方式,使它们更易于理解和使用。 除此之外,Matt Cutts还提到了谷歌正在开发一种新的基础架构,以更好地支持其搜索和其它服务。这个新的基础架构将采用更先进的技术和系统,以提高谷歌的性

Public @ 2023-06-12 07:00:21

复制网页检测

复制网页检测是指通过特定的检测软件或工具来确保网页内容不被非法复制。此类检测工具可以识别出大量非法复制的文本、图片与链接,并提供相应的技术手段去限制非法复制的发生。常见的复制网页检测工具包括 DMCA、CopyScape、iCopyright 等,它们可以扫描网站上的所有页面,检测出被复制的内容并汇报给网站管理员处理。通过复制网页检测工具的使用,可以在一定程度上维护网站作者的版权。

Public @ 2023-05-31 11:50:15

更多您感兴趣的搜索

0.420051s