Categories


Tags


搜索引擎怎样抓到你?

用户行为方式怎样影响搜索引擎排名结果,是很多SEO一直关心探讨的问题。

前一阵在点石论坛上就看到关于在百度大量点击搜索结果中自己的网站,从而进一步提高排名的讨论。其逻辑是,搜索结果中的某个网站被点击次数越多,说明越有用,用户越喜欢,搜索引擎会更进一步提高这个网站的排名。

不过这种用户行为方式是噪声很大的数据,极容易作弊。搜索引擎要在这些数据中提炼出精华非常困难。

前几天Google员工JohnMu就在Google帮助论坛里明确说,诸如点击某个网站,然后立即点返回按钮,这种操作并不会影响你网站的抓取、索引和排名。这太容易作弊,太容易被竞争对手利用了。

类似这种看似很有价值,却又很难提炼有用信息的数据还很多。比如给竞争对手网站群发垃圾链接。

说到底,要有效利用用户行为数据,关键在于搜索引擎怎样确认用户身份,也就是说准确辨别特定行为到底是谁干的。如果是大量真实的用户点击你的网站,停留的时间很长,那么对排名一定有益。如果搜索引擎能判断出这大量点击就是你一个人,或者是与你有关的一群人干的,可能效果正相反。

给对手群发也是如此,关键在于判别是谁群发。

我以前写过一篇无所遁形,更多属于科幻和瞎想。但谁敢肯定有朝一日,在网上通过基因来判断身份不会实现呢?20年前,如果谁跟我讲会有互联网,会有网站,会有SEO,那时候我也会觉得是科幻。

现在搜索引擎其实已经掌握了大量的数据,能帮助鉴别用户身份。比如Google就可以通过cookies,JS脚本,工具条,gmail帐号,Adsense帐号,Google Analytics帐号,IP地址,用户搜索数据等判定和鉴别用户身份。

一个用户如果登录过gmail帐号,再访问任何带有Adsense,Google Analytics,以及Google所能控制的任何JS脚本的网页,这些访问数据都将被记录在案。而带有Google JS脚本的网站现在多如牛毛,除了明显的Adsense,Google Analytics等,现在Google还收购了最大的网络广告公司DoubleClick,无数有广告的网站都在使用Google的代码。所以你在网上的一举一动,很难逃过Google的眼睛。

如果安装了Google的工具条,那你访问网站的情况就更一目了然了。

就算你能极端洁身自好,不露痕迹,既不登录任何Google帐号,浏览器关掉JS脚本功能,也不用工具条。总之你就是个隐身人,也还是不能保证搜索引擎就抓不到你。

比如说,如果你通过一个联盟买卖链接,这是Google很痛恨的事情。就算你能做到隐身,但你无法保证这个联盟里的其他人都能不露痕迹。如果这个链接买卖联盟里面的一些人暴露了身份,而这些人时不时访问一下你的网站,检查他们所买的链接,你的网站和你自己也就露馅了。

觉得搜索引擎没有这么聪明吗?谁知道呢?小心为妙。

来源:SEO每天一贴 Zac 昝辉


Public @ 2015-05-11 16:21:51

百度搜索引擎工作原理-2-抓取建库

Spider抓取系统的基本框架互联网信息爆发式增长,如何有效的获取并利用这些信息是搜索引擎工作中的首要环节。数据抓取系统作为整个搜索系统中的上游,主要负责互联网信息的搜集、保存、更新环节,它像蜘蛛一样在网络间爬来爬去,因此通常会被叫做“spider”。例如我们常用的几家通用搜索引擎蜘蛛被称为:Baiduspdier、Googlebot、Sogou Web Spider等。Spider抓取系统是搜索

Public @ 2022-09-10 16:21:47

搜索引擎排名的人工干预

虽然搜索引擎排名技术和算法一直在提高,但我相信所有搜索引擎都或多或少有人工干预,就算最标榜一切以算法和自动化为目标的Google,也肯定有人工因素。去年就曾经有人报道(http://www.searchbistro.com/index.php?/archives/19-Google-Secret-Lab,-Prelude.html),Google在很多国家的大学招募学生,进行搜索引擎结果的评价工作

Public @ 2022-08-25 16:21:50

了解搜索引擎来进行SEO

搜索引擎的工作的过程非常复杂,而简单的讲搜索引擎的工过程大体可以分成三个阶段。爬行和抓取:搜索引擎蜘蛛通过跟踪链接访问页面,获取页面HTML代码存入数据库。预处理:搜索赢球对抓取来的页面数据文字进行文字提取、中文分词、索引等处理,以备排名程序调用。排名:用户输入关键字后,排名调用索引库数据,计算相关性,然后按一定格式生成搜索结果页面。爬行和抓取爬行和抓取是搜索引擎工作的第一步,完成数据收集任务。蜘

Public @ 2018-03-18 16:21:53

搜索引擎体系结构

搜索引擎基本结构一般包括:搜索器、索引器、检索器、用户接口等四个功能模块。1、搜索器:搜索器也叫网络蜘蛛,是搜索引擎用来爬行和抓取网页的一个自动程序,在系统后台不停歇地在互联网各个节点爬行,在爬行过程中尽可能快的发现和抓取网页。2、索引器。它的主要功能是理解搜索器所采集的网页信息,并从中抽取索引项。3、检索器。其功能是快速查找文档,进行文档与查询的相关度评价,对要输出的结果进行排序。4、用户接口。

Public @ 2018-03-04 16:22:54

更多您感兴趣的搜索

0.545501s