Categories


Tags


通过robots.txt文件屏蔽蜘蛛抓取不存在的后缀

通过网站日志分析,会发现搜索引擎蜘蛛抓取了一些网站上不存在的文件后缀,如:.php、.asp、.aspx等。

搜外网站后台日志分析结果如下图:

image.

搜外主站实际上不存在php后缀的URL地址。

可通过robots.txt文件禁止蜘蛛抓取不存在的后缀,减少出现404返回值。

在robots.txt文件填写屏蔽规则如下:

Disallow: /*.asp$

Disallow: /*.php$

Disallow: /*.aspx$

注意前面一个*,后面一个$,代表后缀。

参考搜外的robots.txt文件写法,点击这里

来源:搜外网


Public @ 2015-07-18 16:09:24

了解什么是物理结构

网站物理结构指的是网站真实的目录及文件所在的位置所决定的结构。物理结构一般分有两种:第一种是偏平式,也就是所以网页文件都存在网站根目录下。如果有很多文件放在根目录下,制作和维护起来都比较麻烦。大中型网站把文件都放在根目录下基本就无法管理了。扁平物理结构有一个优势,那就是很多人认为根目录下的文件比深层目录中的文件天生权重高一点。第二种是树形结构,称为金字塔结构。根目录下以目录形式分成多个产品分类(频

Public @ 2020-04-08 16:12:07

robots文件中屏蔽的为什么还可以收录?

我今天来给大家详细讲解下,先了解几个概念1、robots只是禁止抓取,不是禁止收录2、另外还有nofollow的作用不是不抓取这个链接,是不从这个链接传递权重了解这2个概念后,我们再来讨论怎么处理这类收录问题:robots写正确的同时,不要在任何一家收录的网站发外链,友链,也不要主动提交百度,这样才可以保证不被搜索引擎收录,为什么呢?大家百度查一下淘宝,如图:按照道理淘宝写了robots怎么还是收

Public @ 2021-04-26 16:09:29

robots.txt:如何让搜索引擎不要抓取没用的页面

| 什么是robots文件?Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。| 为什么要做robots文件?网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。| 如何制作 robots文件?编写robots.txt文件并上传到网站根目录。| 制作 robots.txt注意事项● 所有搜索引擎则用星号表示● All

Public @ 2019-03-13 16:09:27

更多您感兴趣的搜索

0.480065s