Categories


Tags


搜索引擎工作原理

基本流程

抓取网页。每个独立的搜索引擎都有自己的网页抓取程序爬虫(Spider)。爬虫顺着网页中的超链接,从这个网站爬到另一个网站,通过超链接分析连续访问抓取更多网页。被抓取的网页被称之为网页快照。由于互联网中超链接的应用很普遍,理论上,从一定范围的网页出发,就能搜集到绝大多数的网页。

处理网页。搜索引擎抓到网页后,还要做大量的预处理工作,才能提供检索服务。其中,最重要的就是提取关键词,建立索引库和索引。其他还包括去除重复网页、分词(中文)、判断网页类型、分析超链接、计算网页的重要度/丰富度等。

提供检索服务。用户输入关键词进行检索,搜索引擎从索引数据库中找到匹配该关键词的网页;为了用户便于判断,除了网页标题和URL外,还会提供一段来自网页的摘要以及其他信息。

搜索引擎的自动信息搜集功能

提交网站搜索。站长主动向搜索引擎提交网址,它在一定时间内定向向你的网站派出爬虫,扫描你的网站并将有关信息存入数据库,以备用户查询。由于搜索引擎索引规则相对于过去已发生很大变化,主动提交网址并不保证你的网站能进入搜索引擎数据库,因此站长应该在网站内容上多下功夫,并让搜索引擎有更多机会找到你并自动将你的网站收录。

当用户以关键词查找信息时,搜索引擎会在数据库中进行搜寻,如果找到与用户要求内容相符的网站,便采用特殊的算法——通常根据网页中关键词的匹配程度,出现的位置、频次,链接质量等——计算出各网页的相关度及排名等级,然后根据关联度高低,按顺序将这些网页链接返回给用户。

我们想说的是您应该将您优化的重心和出发点主要放在用户体验上,因为用户才是您网站内容的主要受众,是他们通过搜索引擎找到了您的网站。过度专注于用特定的技巧获取搜索引擎自然搜索结果的排名不一定能够达到您想要的结果。

来源:搜狗资源平台


Public @ 2015-11-08 16:21:49

搜索引擎网页去重算法分析

相关统计数据表明:互联网上近似重复的网页的数量占网页总数量的比例高达29%,完全相同的网页大约占网页总数量的22%.研究表明,在一个大型的信息采集系统中,30%的网页是和另外70%的网页完全重复或近似重复的。即:互联网的网页中相当高的比例的网页内容是近似相同或完全相同的!搜索爬虫抓取会产生网页重复的类型:1.多个URL地址指向同一网页以及镜像站点如:www.sina.com 和www.sina.c

Public @ 2020-07-15 16:21:55

搜索引擎怎样抓到你?

搜索引擎通常通过以下方式来抓取您的网页内容: 1. 网站提交:您可以将您的网站提交给各大搜索引擎,以便搜索引擎了解您的网站存在。 2. 网络爬虫:搜索引擎使用自己的网络爬虫程序,定期检索并抓取互联网上的内容。当您的网站被网络爬虫访问时,搜索引擎就可以抓取您的网页内容。 3. 外部链接:如果您的网站被其他网站所链接,搜索引擎可以通过这些链接进入您的网站并抓取您的网页内容。 4. 社交媒体:如

Public @ 2023-06-07 04:00:10

搜索引擎检索系统概述

搜索引擎检索系统是一种利用计算机程序和算法为用户提供信息检索服务的系统。其作用是在海量的信息中快速准确地找到用户需要的信息并返回给用户。 搜索引擎检索系统包括以下几个基本部分: 1. 爬虫:负责收集互联网上的网页等信息,并将其保存到搜索引擎的数据库中。 2. 索引器:通过对网页内容进行分析和加工处理,建立一张包含关键词和网页链接的索引表,以便搜索引擎能够快速地响应用户的检索请求。 3. 检

Public @ 2023-06-09 01:50:15

搜索引擎是怎么删除重复网页的

百度曾在站长贴吧里做过这样一个回复:从用户体验角度,“有些转载未必比原创差”。比方一篇科技原创博文,被知名门户网站的科技频道转载。如果这种转载保留原创者姓名和出处链接,实际上对原创者是有利的,因为起到了更好的传播效果。只是国内的转载,很多是掐头去尾,使原创者比较受伤。据资料表明近似重复网页的数量占网页总数的的比较高达全部页面的29%,而完全相同的页面大约占全部页面的22%。很多站长都会抱怨,自己写

Public @ 2011-01-17 16:22:23

更多您感兴趣的搜索

0.531974s