Categories


Tags


通过robots.txt文件屏蔽蜘蛛抓取不存在的后缀

通过网站日志分析,会发现搜索引擎蜘蛛抓取了一些网站上不存在的文件后缀,如:.php、.asp、.aspx等。

搜外网站后台日志分析结果如下图:

image.

搜外主站实际上不存在php后缀的URL地址。

可通过robots.txt文件禁止蜘蛛抓取不存在的后缀,减少出现404返回值。

在robots.txt文件填写屏蔽规则如下:

Disallow: /*.asp$

Disallow: /*.php$

Disallow: /*.aspx$

注意前面一个*,后面一个$,代表后缀。

参考搜外的robots.txt文件写法,点击这里

来源:搜外网


Public @ 2015-07-18 16:09:24

网站设置301重定向怎么操作?301设置需要注意的事项

网站的301重定向是很多程序员都知道的一种网页跳转技术,作为站长,相信对于301跳转的作用理解的更加透彻,网站301对于SEO优化的作用也是非常大的,那么在网站SEO优化中301跳转怎么才能用好呢?今天聚名网就来跟大家介绍一下吧!301重定向是一种很是重要的“自动转向”技术。网址重定向最为可行的一种法子。当用户或搜索引擎向网站处事器公布揭晓阅读哀告时,处事器返回的HTTP数据流中头信息(heade

Public @ 2013-03-01 16:09:39

Sitemap协议类型及包含范围

Sitemap协议类型有: 1. XML Sitemap:用于向搜索引擎提交网站的网页地址,让搜索引擎更好地抓取网站内容。 2. News Sitemap:用于将新闻文章的标题和链接提交给搜索引擎,以便它们可以快速索引新闻。 3. Image Sitemap:用于提交图片的URL和相关信息,帮助搜索引擎更好地索引和展示图片搜索结果。 4. Video Sitemap:用于提交视频的URL和

Public @ 2023-06-16 05:00:31

robots文件中屏蔽的为什么还可以收录?

我今天来给大家详细讲解下,先了解几个概念1、robots只是禁止抓取,不是禁止收录2、另外还有nofollow的作用不是不抓取这个链接,是不从这个链接传递权重了解这2个概念后,我们再来讨论怎么处理这类收录问题:robots写正确的同时,不要在任何一家收录的网站发外链,友链,也不要主动提交百度,这样才可以保证不被搜索引擎收录,为什么呢?大家百度查一下淘宝,如图:按照道理淘宝写了robots怎么还是收

Public @ 2021-04-26 16:09:29

更多您感兴趣的搜索

0.542328s