Categories


Tags


搜索引擎排名的人工干预

虽然搜索引擎排名技术和算法一直在提高,但我相信所有搜索引擎都或多或少有人工干预,就算最标榜一切以算法和自动化为目标的Google,也肯定有人工因素。

去年就曾经有人报道(http://www.searchbistro.com/index.php?/archives/19-Google-Secret-Lab,-Prelude.html),Google在很多国家的大学招募学生,进行搜索引擎结果的评价工作。一位教授从他的学生那里得到了这份资料,里面包含Google发给这些学生的评价标准,还有一段评价系统的演示。

大意是这些学生会在一个界面中,看到某一个特定搜索的两种结果,然后给出意见,哪一个更好,还是一样。

GoogleGuy很强烈的评论说,这份资料的泄漏已经违反了这些学生当初和Google所签订的保密条约。这也肯定了这些人工评价的存在。GoogleGuy说,这些进行搜索结果评估的学生或编辑,并不能直接干预搜索结果,也就是不能对搜索结果做任何调整。

Google的做法是,把这些评估作为软件工程师调整算法时的输入,通过算法的改变,使搜索结果更能符合编辑的预期。

我想这是可以相信的。估计在Google内部,只有在很高层次的人才有权力对某个网站的排名进行调整,就像前一阵Google对BMW网站的惩罚和快速恢复一样,这不可能是普通工程师有的权力。

不过无论如何,就连Google也肯定有人为的因素。

对百度人工干预搜索结果的传言就更多了。我的这个博客是我唯一的中文网站,所以对百度的人工干预并没有切身感受。不过从很多地方都能看到各种各样的评论猜测,认为百度对搜索结果的人工干预更广泛更随意,不是通过算法实现,而是直接调整某个网站的SEO排名。

我个人认为,这种方式没有Google的处理方式好。网站数目这么庞大,用户搜索的关键词这么多,不可能由人工对每个关键词的排名结果做评估。针对某个特定网站的调整,无法避免人的偏见和不公平性。人是最能腐败的动物,而算法不会。

给定一定的条件,算法对所有网站一视同仁。而人不可避免的带有主观性,在很多情况下,比算法还要不公正。

补充:刚写完这个帖子还没发就发现我的这个博客被百度封杀了。我观察应该是全面封杀,因为几乎所有页已经被删除了。不一定是人工干预。明天再来谈。

来源:seo每天一贴 Zac 昝辉


Public @ 2022-08-25 16:21:50

搜索引擎抓取系统概述(二)

在上一篇文章中,我们了解了搜索引擎抓取系统的基本组成和流程。本篇文章继续介绍搜索引擎抓取系统中的重要概念和技术。 1. 爬虫算法 搜索引擎抓取系统中最核心的算法就是爬虫算法。爬虫算法是指搜索引擎的爬虫程序根据一定的策略从互联网上抓取网页信息的过程。作为搜索引擎的核心技术之一,爬虫算法需要具备以下特点: (1)高效性:爬虫算法需要尽可能快地抓取尽可能多的页面。 (2)准确性:爬虫算法需要准确

Public @ 2023-06-21 00:50:40

搜索引擎排名的人工干预

虽然搜索引擎排名技术和算法一直在提高,但我相信所有搜索引擎都或多或少有人工干预,就算最标榜一切以算法和自动化为目标的Google,也肯定有人工因素。去年就曾经有人报道(http://www.searchbistro.com/index.php?/archives/19-Google-Secret-Lab,-Prelude.html),Google在很多国家的大学招募学生,进行搜索引擎结果的评价工作

Public @ 2022-08-25 16:21:50

数据分析:如何追踪访客初始来源

了解网站的运营情况、了解用户构成是保证网站健康持续发展的重要基础,所以看数据做分析是网站优化人员每日必做的工作。上周平台发布了《网站分析白皮书(站长版)》,本周小编又发现了一篇非常好的实战型文章《在Google Analytics中如何跟踪访客的初始来源》,作者马骏是已获得GOOGLE Analytics IQ认证的网站访客行为分析师,得知平台要转载此文章后很贴心地将原文中的英文内容都做成了中文的

Public @ 2020-09-06 16:21:48

搜索引擎是怎么删除重复网页的

搜索引擎是通过比较网页URL,内容和相关属性来删除重复网页的,具体步骤如下: 1. 搜索引擎收集器(Crawler)会在网络上发现新网页并收集,此时会有一定概率发现相同的网页,并添加到收集器的索引中去。 2. 收集器会识别新的网页,把重复的网页排除。 3. 然后,搜索引擎把新索引serves给布置在 Indexer(索引器)中,执行深入索引,会把相同内容的文章及URL排除,仅保留一条记录

Public @ 2023-02-24 23:12:24

更多您感兴趣的搜索

0.538813s