Categories


Tags


robots.txt文件有什么必要?

什么是robots.txt文件?

搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。

如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。

robots.txt文件有什么必要?

从SEO的角度,robots.txt文件是一定要设置的,原因:

1、网站上经常存在这种情况:不同的链接指向相似的网页内容。这不符合SEO上讲的“网页内容互异性原则”。采用robots.txt文件可以屏蔽掉次要的链接。

2、网站改版或URL重写优化时原来不符合搜索引擎友好的链接需要全部屏蔽掉。采用robots.txt文件删除旧的链接符合搜索引擎友好。

3、一些没有关键词的页面,屏蔽掉更好。

4、一般情况下,站内的搜索结果页面屏蔽掉更好。

来源:搜外网


Public @ 2018-10-22 16:09:22

网站文章内链的一个思路

? 1. 合作友商内容交换:与其他网站合作,将友友商的文章链接到自己的网站中,友商也会将自己网站的文章链接到自己的网站中。 2. 将文章内容嵌入到另外一个文章中:在文章中插入一些对之前文章的引用,以提高文章的凝聚力和完整性。 3. 使用关键字:通过使用与话题相关的关键字和短语,来吸引读者驻足,使之回访自己的网站。 4. 使用内置链接:读者扫描文章时,可以使用内置链接及文章目录,引导读者至相应文章

Public @ 2023-03-02 04:00:19

阻止个人信息在搜索引擎中出现

个人信息一旦在网上发布,很有可能会被百度搜索引擎抓取,特别是在知名社交网站、专业网站上发布的内容。可能您并不希望这类个人信息出现在百度搜索结果中,以下方式可以帮助您阻止个人信息在搜索结果中出现。如果您是在其他网站上发布的内容:1、在社交网站中(例如人人网,开心网等),您可以针对个人信息设置浏览权限,例如只有朋友或者自己可以浏览;如果您不愿让陌生人看到某些照片或信息,则应该慎重考虑是否公开发布这些内

Public @ 2016-01-12 16:08:57

关于robots.txt的二三事

【Robots简介】robots.txt是一个协议,是搜索引擎访问网站时第一个要查看的文件,它存在的目的是告诉搜索引擎哪些页面能被抓取,哪些页面不能被抓取。当spider访问一个站点时,会首先检查该站点根目录下是否存在robots.txt,如果存在,spider会按照文件中的内容来确定访问的范围;如果该文件不存在,所有的spider将能够访问网站上所有没有被口令保护的页面。【具体介绍】1、User

Public @ 2017-02-13 16:09:19

更多您感兴趣的搜索

0.439636s