Categories


Tags


robots.txt概念和10条注意事项

robots.txt概念

如果我们网站内有某些特殊的文件不让搜索引擎收录,那怎么办?

答案是:使用一个叫做robots.txt的文件。

robots.txt文件告诉搜索引擎本网站哪些文件是允许搜索引擎蜘蛛抓取,哪些不允许抓取。

搜索引擎蜘蛛访问网站任何文件之前,需先访问robots.txt文件,然后抓取robots.txt文件允许的路径,跳过其禁止的路径。

总结:robots.txt是一个简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。

关于robots.txt文件的10条注意事项:

1、如果未创建robots.txt文件,则代表默认网站所有文件向所有搜索引擎开放爬取。

2、必须命名为:robots.txt,都是小写,robot后面加"s"。

3、robots.txt必须放置在一个站点的根目录下。

通过如https://www.seowhy.com/robots.txt 可以成功访问到,则说明本站的放置正确。

4、一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。

5、空格换行等不能弄错,可复制这个页面并修改为自己的。点击

6、有几个禁止,就得有几个Disallow函数,并分行描述。

7、至少要有一个Disallow函数,如果都允许收录,则写: Disallow:

如果都不允许收录,则写:Disallow: /  (注:只是差一个斜杆)。

8、允许有多个User-agent,如果对所有爬取蜘蛛生效,则用“*”星号表示。

9、robtos.txt文件内可以放上Sitemap文件地址,方便告诉搜索引擎Sitemap文件地址。

10、网站运营过程中,可以根据情况对robots.txt文件进行更新,屏蔽一些不要搜索引擎抓取的文件地址。

举例两个常见屏蔽规则:

User-agent: *  星号说明允许所有搜索引擎收录

Disallow: /search.html   说明 https://www.seowhy.com/search.html 这个页面禁止搜索引擎抓取。

Disallow: /index.php?   说明类似这样的页面https://www.seowhy.com/index.php?search=%E5%A5%BD&action=search&searchcategory=%25 禁止搜索引擎抓取。

来源:搜外网


Public @ 2019-12-20 16:09:22

301设置:一定要做的集中权重的方法

1. 确定风险限制:在设置好集中权重之前,首先应该确定一个风险限制,即股票组合投资的最大容差,通过筛选从而减少投资组合中股票偏离行业指数储备组合的可能性。 2. 集中权重:根据企业权重设定原则,最重要的是集中权重,即将一定数量的权利集中在一个行业板块或者一家企业上。 3. 调整权重:集中权重也可以细化到每一只股票的内容上,通过调整不同股票的权重,以达到透明度平衡,跨行业组合,从而使股票组合更

Public @ 2023-02-26 03:00:25

360搜索站长平台Sitemap提交流程

1.进入360搜索站长平台,点击左侧菜单栏的“Sitemap”选项。 2.点击“添加Sitemap”按钮。 3.填写Sitemap的相关信息,包括Sitemap的URL、名称、语言、文件类型等等,最后点击“保存”按钮。 4.返回Sitemap列表页面,将新添加的Sitemap展开,点击“立即提交”按钮。 5.等待搜索引擎爬虫抓取Sitemap,并开始对站点进行索引。 6.查看S

Public @ 2023-04-27 09:00:06

robots.txt文件的格式

robots文件往往放置于根目录下,包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL,or NL作为结束符),每一条记录的格式如下所示:"<field>:<optional space><value><optionalspace>"在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以

Public @ 2015-08-19 16:08:59

更多您感兴趣的搜索

0.433462s