Categories


Tags


搜索引擎检索系统概述

前面简要介绍过了搜索引擎的索引系统,实际上在建立倒排索引的最后还需要有一个入库写库的过程,而为了提高效率这个过程还需要将全部term以及偏移量保存在文件头部,并且对数据进行压缩,这涉及到的过于技术化在此就不多提了。今天简要给大家介绍一下索引之后的检索系统。

检索系统主要包含了五个部分,如下图所示:

索引&检索.jpg

(1)Query串切词分词即将用户的查询词进行分词,对之后的查询做准备,以“10号线地铁故障”为例,可能的分词如下(同义词问题暂时略过):

10 0x123abc

号 0x13445d

线 0x234d

地铁 0x145cf

故障 0x354df

(2)查出含每个term的文档集合,即找出待选集合,如下:

0x123abc 1 2 3 4 7 9…..

0x13445d 2 5 8 9 10 11……

……

……

(3)求交,上述求交,文档2和文档9可能是我们需要找的,整个求交过程实际上关系着整个系统的性能,这里面包含了使用缓存等等手段进行性能优化;

(4)各种过滤,举例可能包含过滤掉死链、重复数据、色情、垃圾结果以及你懂的;

(5)最终排序,将最能满足用户需求的结果排序在最前,可能包括的有用信息如:网站的整体评价、网页质量、内容质量、资源质量、匹配程度、分散度、时效性等等,之后会详细给大家介绍。

如果大家对搜索引擎检索还有别的疑问,大家可以到[学堂同学汇][学习讨论]《搜索引擎检索系统概述》讨论帖中发表自己的看法,我们的工作人员会关注这里并与大家进行探讨。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2011-11-07 16:21:49

搜索引擎抓取系统概述(二)

在上一篇文章中,我们了解了搜索引擎抓取系统的基本组成和流程。本篇文章继续介绍搜索引擎抓取系统中的重要概念和技术。 1. 爬虫算法 搜索引擎抓取系统中最核心的算法就是爬虫算法。爬虫算法是指搜索引擎的爬虫程序根据一定的策略从互联网上抓取网页信息的过程。作为搜索引擎的核心技术之一,爬虫算法需要具备以下特点: (1)高效性:爬虫算法需要尽可能快地抓取尽可能多的页面。 (2)准确性:爬虫算法需要准确

Public @ 2023-06-21 00:50:40

百度搜索引擎工作原理-2-抓取建库

Spider抓取系统的基本框架互联网信息爆发式增长,如何有效的获取并利用这些信息是搜索引擎工作中的首要环节。数据抓取系统作为整个搜索系统中的上游,主要负责互联网信息的搜集、保存、更新环节,它像蜘蛛一样在网络间爬来爬去,因此通常会被叫做“spider”。例如我们常用的几家通用搜索引擎蜘蛛被称为:Baiduspdier、Googlebot、Sogou Web Spider等。Spider抓取系统是搜索

Public @ 2022-09-10 16:21:47

爬行和抓取

爬行和抓取在计算机领域中都指数据采集的过程。 爬行是指使用网络爬虫程序,通过抓取网页上的数据来建立一个数据集。例如,搜索引擎就使用网络爬虫程序来收集网页上的内容,以便用户进行搜索。 抓取则是指通过编写程序从特定的网站或数据源上抓取数据,以便进行分析或者处理。例如,电商平台可以使用抓取程序从竞争对手的网站上抓取商品价格信息,以便制定自己的价格策略。 总的来说,爬行和抓取都是数据采集的方式,只是

Public @ 2023-04-07 23:50:49

搜索引擎工作的基础流程与原理

搜索引擎最重要的是什么?有人会说是查询结果的准确性,有人会说是查询结果的丰富性,但其实这些都不是搜索引擎最最致命的地方。对于搜索引擎来说,最最致命的是查询时间。试想一下,如果你在百度界面上查询一个关键词,结果需要5分钟才能将你的查询结果反馈给你,那结果必然是你很快的舍弃掉百度。搜索引擎为了满足对速度苛刻的要求(现在商业的搜索引擎的查询时间单位都是微秒数量级的),所以采用缓存支持查询需求的方式,也就

Public @ 2017-02-18 16:21:54

更多您感兴趣的搜索

0.476339s