Categories


Tags


爬行和抓取

爬行和抓取 是搜索引擎工作的第一步,完成数据收集任务。

1、蜘蛛:

搜索引擎用来爬行和访问页面的程序被称为蜘蛛(spider),也称为机器人(bot)。

2、跟踪链接:

为了抓取网上尽量多的页面,搜索引擎蜘蛛会跟踪页面上的链接,从一个页面爬到下一个页面,就好像蜘蛛在蜘蛛网上爬行那样,这也是搜索引擎蜘蛛这个名称的由来。

3、吸引蜘蛛:

理论上蜘蛛能爬行和抓取所有页面,但实际上不能,也不会这么做。SEO人员想要让自己的更多页面被收录,就要想方设法吸引蜘蛛抓取。

4、地址库:

为了避免重复爬行和抓取网址,搜索引擎会建立一个地址库,记录已经被发现还没有抓取的页面,以及已经被抓取的页面。

5、文件储蓄:

搜索引擎蜘蛛抓取的数据存入原始页面数据库。其他的页面数据与用户浏览器得到的HTML是完全一样的。每个URL都是这样一个独特的文件编号。

来源:搜外网


Public @ 2019-07-18 16:22:24

百度搜索引擎工作原理

百度搜索引擎工作原理大致如下: 1. 爬虫抓取网页:百度的爬虫程序会从互联网抓取网页并将其存入数据库中。 2. 预处理:百度对所有网页进行预处理,这个过程会去除无用信息、提取关键词、计算每个网页的PageRank等。 3. 查询处理:当用户输入关键词进行搜索时,百度会将查询处理成一组词条,并进行分类别处理,比如确定搜索意图是找资讯、图片、视频等。 4. 检索匹配:百度搜索引擎会对数据库中的

Public @ 2023-06-20 19:50:19

爬行、抓取、索引、收录,指的都是什么?

一位读者在蜘蛛抓取配额是什么这篇帖子留言:不对呀,这个index标签,是指告诉蜘蛛可以抓取该页面,那么noindex不就是不允许抓取该页面吗?!那么为什么文章最后的几个说明里有“noindex标签不能节省抓取份额。搜索引擎要知道页面上有noindex标签,就得先抓取这个页面,所以并不节省抓取份额。”留言说明,这位读者并没有太明白什么是抓取,什么是索引,index和noindex标签的意义又是什么。

Public @ 2021-09-23 16:21:52

搜索引擎工作原理

搜索引擎是一种用来搜索巨大的获取到的信息的技术,它根据用户输入的关键字或问题,再搜索索引库中获取到的信息,以便提供相关网站页面、新闻文档、图片和其他形式的信息来回答用户提出的问题。 搜索引擎的一般工作原理是,将信息经过索引化存在索引库中,用户通过输入一定的关键字搜索时,搜索引擎从索引库中搜索符合条件的结果项并返回;或者通过抓取网页技术在搜索引擎开发过程中,根据搜索引擎的网络爬虫技术逐一抓取网

Public @ 2023-02-24 00:23:15

搜索引擎是怎么删除重复网页的

百度曾在站长贴吧里做过这样一个回复:从用户体验角度,“有些转载未必比原创差”。比方一篇科技原创博文,被知名门户网站的科技频道转载。如果这种转载保留原创者姓名和出处链接,实际上对原创者是有利的,因为起到了更好的传播效果。只是国内的转载,很多是掐头去尾,使原创者比较受伤。据资料表明近似重复网页的数量占网页总数的的比较高达全部页面的29%,而完全相同的页面大约占全部页面的22%。很多站长都会抱怨,自己写

Public @ 2011-01-17 16:22:23

更多您感兴趣的搜索

0.420403s