Categories


Tags


搜索引擎怎样判断文章或网页的原始出处?

复制内容网页有的时候会影响网页排名。

比如说原本是你写的文章,本来应该排名很好,但是其他人抄袭或转载你的文章,而且搜索引擎不幸的判断那篇被抄袭或转载的网页是原始出处的话,你应有的排名就会被那个网页夺走。

那么搜索引擎怎样才能从多个网页中挑出哪一个是原始出处呢?可能有以下几个考虑:

1)网页PR值。网页PR值越高,被认为是原始版本的可能性就越大。

2)网页第一次被收录的时间。网页被搜索引擎收录的时候越早,相比后发现的相同内容的网页来说,被当作原始出处的可能性就越大。

3)域名注册时间。越老的域名上面的网页被当成原始出处的可能性也越大。

4)网站的权威度。这就有点说不清了,可能包含前面3个因素,还有很多其他因素。

但到目前为止,无论以哪一个因素为主,或怎样组合这些因素,都不可能完全正确从多个网页中挑出原始出处。

比如说我这个博客就很新,域名也很新,文章被收录的时间有的时候也不一定是最早的,就权威地位和被信任度来说,也肯定比不上很多中文网站。但我的博客新,我的域名新,并不意味着我的内容就不是原始出处,实际上我的所有博客都是原创。

我最近也发现了很多网站都转载,有的时候是抄袭我的博客内容,很多网站的规模,历史,PR值都比我的网站要高的多。

在检测文章原始出处方面,Google做的比较好,基本上能够正确判断,百度做的就比较差。从我的文章在不同的地方出现的情况看,百度似乎认为域名比较老的就是原创。

这个问题不是网站管理员自己可以解决的,只有依靠搜索引擎算法的改进。

来源:SEO每天一贴 Zac 昝辉


Public @ 2017-04-29 16:21:50

头条搜索Bytespider基本流程

1. 抓取网页每个独立的搜索引擎都有自己的网页抓取程序爬虫(Spider)。爬虫顺着网页中的超链接,从这个网站爬到另一个网站,通过超链接分析连续访问抓取更多网页。被抓取的网页被称之为网页快照。由于互联网中超链接的应用很普遍,理论上,从一定范围的网页出发,就能搜集到绝大多数的网页。2. 处理网页搜索引擎抓到网页后,还要做大量的预处理工作,才能提供检索服务。其中,最重要的就是提取关键词,建立索引库和索

Public @ 2022-03-13 15:38:59

搜索引擎有多聪明?

使用黑帽SEO的人,心里或多或少都存在一个假设,那就是搜索引擎没自己聪明。在前几天的搜索引擎怎样判断垃圾留言这个帖子里,就有读者认为我把搜索引擎快说成神了。我想很多人都会抱有这种想法,理由也很简单,搜索结果中含有大把大把的作弊网站,垃圾网站。如果搜索引擎真的那么聪明的话,这些网站怎么还会排名不错呢?对搜索引擎到底有多聪明,今天谈谈自己的想法。首先从常理上来说,主要搜索引擎内部的工程师,大多都是博士

Public @ 2009-07-02 16:22:40

搜索引擎是什么

所谓搜索引擎,就是根据用户需求与一定算法,运用特定策略从互联网检索出制定信息反馈给用户的一门检索技术。搜索引擎依托于多种技术,如网络爬虫技术、检索排序技术、网页处理技术、大数据处理技术、自然语言处理技术等,为信息检索用户提供快速、高相关性的信息服务。搜索引擎技术的核心模块一般包括爬虫、索引、检索和排序等,同时可添加其他一系列辅助模块,以为用户创造更好的网络使用环境。

Public @ 2011-11-23 16:22:57

更多您感兴趣的搜索

0.476767s