Categories


Tags


robots简介

搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。

您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。

robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。 因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据。

Robots.txt协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。注意Robots.txt是用字符串比较来确定是否获取URL,所以目录末尾有和没有斜杠"/"这两种表示是不同的URL,也不能用"Disallow: *.gif"这样的通配符。

其他的影响搜索引擎的行为的方法包括使用robots元数据:

<meta name="robots" content="noindex,nofollow" />

这个协议也不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个元数据,不索引这个页面,以及这个页面的链出页面

robots.txt文件放在哪里?

robots.txt文件应该放在网站根目录下。举例来说,当robots访问一个网站时,首先会检查该网站中是否存在这个文件,如果机器人找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。

来源:360站长平台


Public @ 2022-05-30 16:09:18

博客文章间互相链接的考虑

读者SEOMax问:请问你在做内联的时候是随便做呢 还是有目的的我见你的内联词 都没有多大意义啊[[安慰自己,深有体会,]]还有就是一般都在文章的下部我在写博客帖子的时候,经常会在帖子之间互相链接。在做这些交叉链接的时候,有以下几个方面的考虑。方便读者参考其他帖子在帖子里谈到某个概念或某件事,如果有其他帖子有详细说明,就链接到那个帖子。主要是为了用户体验,这是在做交叉链接时最重要的考量。一般留言的

Public @ 2017-04-16 15:22:25

内部链接的规则

在我们建设内链的过程中应使用HTML文本链接,避免使用Flash、JS代码做内部链接。因为搜索引擎蜘蛛无法良好抓取Flash、JS代码中的链接。内部链接的URL使用绝对地址。绝对地址的链接能有效解决网址规范化问题。绝对路径和相对路径对比 绝对路径(Absolute Path)指带域名的文件的完整路径,比如:http://seo.xxxx.com/base/231.html相对路径(Relative

Public @ 2022-09-06 16:11:27

robots.txt文件的格式

robots文件往往放置于根目录下,包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:"<field>:<optional space><value><optionalspace>"在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常

Public @ 2012-09-17 16:08:56

robots.txt文件有什么必要?

robots.txt文件是一个文本文件,用于向搜索引擎和其他机器人网站爬虫指定哪些页面或内容可以被爬取,哪些页面或内容不能被爬取。它的主要作用是为了控制搜索引擎和其他机器人网站爬虫访问和抓取网站内容,保护网站的隐私和安全。如果一个网站不想被某些搜索引擎或爬虫访问、爬取和索引,就可以通过robots.txt文件来禁止它们。另外,robots.txt文件还可以防止一些机器人抓取出现线上攻击或滥用等安全

Public @ 2023-06-12 20:00:21

更多您感兴趣的搜索

0.561616s