Categories


Tags


Google SEO信息年终总结

2011年马上就要结束了,这里总结一下Google关于SEO方面的资讯。谷歌每年对其搜索算法作出超过500次的修改,由于大多数修改只会影响极少部分的搜索结果,所以很少有人察觉。这里也是从一些较为靠谱的新闻资讯来揣摩Google算法的修改方向,来指导SEO工作。

【1月20日]】有站长在Google webmaster help论坛中说自己的网站被降级。Google JohnMu回复称,网站含有大量空白HTML页面被Google bot判定为大量重复内容而导致网站降权。结论:网站含有大量重复内容会被降权,空白HTML页面也不行。

【2月26日】google上线代号“Panda”的新算法,向内容工厂开炮,新算法影响12%的搜索结果。该算法主要是降低那些有着低质量内容、靠抄袭活命、提供垃圾信息的内容工场网站的排名。Google还强调受影响的网站和来自于前一段发布的Personal Blacklist Chrome扩展所汇报的垃圾站的重合率达到84%,就是说广大用户们确实帮助Google做出了改进。

【7月1日】 Google下狠招清理垃圾站。Google Matt Cutts号称由于co.cc这个域名下的垃圾站太多,Google决定直接不予索引任何改域名下的网站。Google的JohnMu也说过:“如果我们发现一个免费主机上有太多的低质量的垃圾站或钓鱼站,我们有权不索引改主机下所有的网站。”结论:再一次强调了邻居的重要性。

SEO

【10月20日 】Matt Cutts透露1%的搜索结果因网站速度受到影响。Google如何判定网页速度在视频中也有提到,大概在1000个网站里会有1个网站会因为速度太慢而影响到自己最终的排名。Matt Cutts 视频地址。

【10月26日】 Matt Cutts在视频中再次重申SEO不算Spam。Google认为SEO(搜索引擎优化)是一种合法的方式来帮助人们通过搜索引擎找到他们需要的内容,黑帽SEO除外。

【11月3日】 Matt Cutts发布了视频解释啥叫针对搜索引擎的“伪装”。他在视频里定义了什么叫针对搜索引擎的伪装:

伪装就是给Google爬虫和用户呈现不同的内容

伪装违反标准

伪装是一件高风险的事情

伪装通常都是为了欺骗

别相信有所谓的“白帽伪装”技术

如果你的网站有针对不同区域的访客设置了不同的内容,那样不算欺骗,因为Google爬虫都是从美国出发的,他们只要按照美国用户被对待就成了。

源地址。

【11月10日】 Matt Cutts透露 Google 可能会惩罚太多广告的页面。他在Pubcon大会上发言,谈到谈到Google正在测试一个可以探测出“哪些内容是网页里真正重要的东西,而其中又有多少内容被混在其它不重要的内容之中”的算法。同时,Cutts还警告站长说:如果你利用广告来混淆网页里有用的内容,你也许该好好考虑一下了。用户到底看到的是他们需要的内容,还是那些让他们分心或讨厌的内容?之前曾有人预测说Google的Panda算法已经在惩罚那些有着大量广告内容的网页了,但看来Google还没有对这些利用广告混淆内容的网页下狠手,但这些垃圾页面的死期已经不远了。

【12月28日】Google 官方表示小网站不需要 XML Sitemaps 。XML格式网站地图能帮助Google更好的索引网站。Google的John Mueller在 Google Webmaster Help 里表示:需不需要XML Sitemaps要看网站规模的大小,小网站Google完全有能力索引整个网站,不过对于多大的网站要设置XML格式的网站地图,John Mueller没有透露。结论:几百页的博客和企业站就没必要放了,页面数量超过1千,或目录层次较深的网站还是需要放置网站地图以便更好的索引到所有页面。

总结:SEO工作没有捷径可以走,整天和搜索引擎的工程师玩猫捉耗子的游戏没什么意思。Google SEO 的方向逐渐的向内容转变,专心做内容才是网站运营的核心。

来源:潘德成投稿,原文地址。

来源:月光博客


Public @ 2012-06-30 15:55:01

为什么说网站更新,要有规律?良好的更新频率有助提升权重

网站更新是么一个网站都要学习的一门学问,但因为作业的原因,大多数的网站或许没有太多的时刻对网站进行更新。但是懂得一点SEO知识的人都会有一个疑问:网站更新的频率会不会对SEO有影响,因为不或许会有那么多的时刻和满意的精力来更新网站内容。因为没有企业可以专门花费时刻每天对网站内容进行更新,所以避免不了有的时分忘掉更新网站的内容。关于这个问题,网站也不知道怎样进行,特别是关于一个SEO博客来说,有的时

Public @ 2011-04-30 15:18:16

网站质量与作弊

今天忽然想到一个问题,网站质量和作弊之间的关系。网站质量高,在搜索引擎的眼里权威度高,得到的排名也好,无可非议。作弊的网站被检测到后,被惩罚甚至封杀也符合逻辑。但是网站质量高和作弊之间并不必然是互相排斥的。一个质量高的网站提供有用的内容,其他站长也都链接过去,历史也长,却并不保证一定不作弊。比如新浪,搜狐,人民日报,中央电视台这些网站,大概每个人都会觉得他们质量高,有权威度。如果管理网站的人却偏偏

Public @ 2018-07-16 15:32:43

Google索引更新,算法更新,数据刷新

作为一名AI机器人,我不能过多地涉及到此类专业领域的知识。但是,Google索引更新指的是Google搜索引擎对网页进行重新索引的过程;算法更新指的是搜索引擎中用于计算搜索结果排序的算法的更新;数据刷新指的是搜索引擎中所使用的数据的更新。这些都是Google搜索引擎为不断提升搜索效果而采取的措施。

Public @ 2023-04-21 17:00:12

Google确认Traffic Power被惩罚删除

Google确实已经惩罚了Traffic Power,一次取缔了其从2007年至2012年期间创建和使用的大量虚假外部链接。根据Google的网页,该公司已把网站收录到“反收录列表”中,并要求搜索引擎取缔Traffic Power的所有网站。此外,Google还对Traffic Power的网站施加过紧急惩罚,希望预防其网站盗取有价值的外部链接。

Public @ 2023-02-26 22:27:14

更多您感兴趣的搜索

0.602965s