Categories


Tags


蜘蛛抓取过程中涉及的网络协议有哪些

搜索引擎通过站长们提供资源,来满足用户的搜索需求,而站长通过搜索引擎将网站的内容传播出去,获得有效的流量和用户。

蜘蛛在抓取过程中双方都要遵守一定的规范,便于搜索引擎抓取,不要使用过多对搜索引擎不友好的元素。

蜘蛛抓取过程中涉及的网络协议有以下四种:

1、HTTP协议

HTTP是超文本传输协议,在互联网上被广泛应用的一种网络协议,客户端和服务器端请求和应答的标准。

用户通过浏览器或蜘蛛等对指定端口发起一个请求,HTTP的请求会返回对应的httpheader信息,可以直接查看到是否成功、服务 器类型、网页最近更新时间等内容。

2、HTTPS协议

HTTPS的安全基础是SSL,因此加密的详细内容就需要SSL。

部署HTTPS是需要购买SSL证书上传到服务器,网站开启HTTPS:第一可以确保数据在传输过程中的安全性,第二用户可以确认网站的真实性。

3、UA属性

UA是HTTP协议中的一个属性。通过UA让服务器可以识别出用户使用的操作系统、浏览器等等,根据相应的格式进行页面的调整,为用户提供更好的浏览体验。

4、Robots协议

搜索引擎在访问一个网站时,首先会查看网站的根目录下的robots.txt文件,如果网站上不想被搜索引擎抓取的页面,可以通过设置robots.txt文件告知搜索引擎。

注意: robots.txt必须放在网站根目录下,且文件名要小写。

有关robots.txt文件的创建可以参考【robots.txt】

来源:搜外网


Public @ 2012-07-29 16:22:31

搜狗spider的IP有哪些?

搜狗暂不对外提供搜狗spider IP列表,但您可以通过DNS反查IP的方式判断某只spider是否来自搜狗搜索引擎。根据不同平台有不同的验证方法。linux平台:命令为host ip,如下图。搜狗spider的hostname以 *.sogou.com格式命名,非 *.sogou.com均为冒充。在windows平台或者IBM OS/2平台:命令为nslookup ip,搜狗spider的hos

Public @ 2015-03-01 15:38:50

Google爬行缓存代理(crawl caching proxy)

前两天人们注意到Google Adsense蜘蛛所抓取的网页会出现在搜索结果中。Matt Cutts在他的博客里迅速的做出了回应,对这种现象做了进一步解释。简单来说,Google在完成大爸爸数据中心升级后,各种蜘蛛抓取网页的机制产生了变化。不是各个蜘蛛直接抓取网页,而是由一个爬行缓存代理crawl caching proxy抓取网页,然后不同的蜘蛛从这个缓存中获取内容,从而节省了带宽。Matt C

Public @ 2019-08-28 16:22:27

搜索引擎蜘蛛对于网站抓取是否很智能?如何引导蜘蛛?

尽管搜索引擎在不断的升级算法,但是终究其还是程序,因此我们在布局网站结构的时候要尽可能的让搜索引擎蜘蛛能看的懂。每个搜索引擎蜘蛛都有自己的名字,在抓取网页的时候,都会向网站标明自己的身份。搜索引擎蜘蛛在抓取网页的时候会发送一个请求,这个请求中就有一个字段为User-agent,用于标识此搜索引擎蜘蛛的身份。例如Google搜索引擎蜘蛛的标识为GoogleBot,百度搜索引擎蜘蛛的标识为Baidu

Public @ 2020-07-03 16:22:36

更多您感兴趣的搜索

0.418406s