Categories


Tags


robots.txt文件有什么必要?

什么是robots.txt文件?

搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。

如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。

robots.txt文件有什么必要?

从SEO的角度,robots.txt文件是一定要设置的,原因:

1、网站上经常存在这种情况:不同的链接指向相似的网页内容。这不符合SEO上讲的“网页内容互异性原则”。采用robots.txt文件可以屏蔽掉次要的链接。

2、网站改版或URL重写优化时原来不符合搜索引擎友好的链接需要全部屏蔽掉。采用robots.txt文件删除旧的链接符合搜索引擎友好。

3、一些没有关键词的页面,屏蔽掉更好。

4、一般情况下,站内的搜索结果页面屏蔽掉更好。

来源:搜外网


Public @ 2018-10-22 16:09:22

网站文章内链的一个思路

内链:顾名思意就是在自己网站的内容中的相关文字加入链接,并且链接到网站内部的相关页面。合理的网站内空链接构造,能提高搜索引擎的收录与网站权重。相对外部链接,内部链接也很重要。传统方式以前我们做文章系统或新闻发布系统的时候,做文章内链(标签)的时候,通常是通过以下方式来实现的:数据库:article(文章表)字段(id, title, body, adddate, userid),keyword(内

Public @ 2012-09-14 16:11:25

什么是链接结构

网站结构的第二意义指的是链接结构,或称为逻辑结构,也就是网站内部链接形成的链接的网络图。比较合理的链接结构通常是树形结构。当然,对于搜索引擎来说更重要的是链接结构,而不是物理结构。不少人有误解,认为物理结构比较深的页面不容易被搜索引擎收录,比如说:http://www.seowhy.com/cat1/cat1-1-1/pageA.html如果这个页面在网站首页上有一个链接,对搜索引擎来说它就是一个

Public @ 2009-11-25 16:11:35

robots文件中屏蔽的为什么还可以收录?

我今天来给大家详细讲解下,先了解几个概念1、robots只是禁止抓取,不是禁止收录2、另外还有nofollow的作用不是不抓取这个链接,是不从这个链接传递权重了解这2个概念后,我们再来讨论怎么处理这类收录问题:robots写正确的同时,不要在任何一家收录的网站发外链,友链,也不要主动提交百度,这样才可以保证不被搜索引擎收录,为什么呢?大家百度查一下淘宝,如图:按照道理淘宝写了robots怎么还是收

Public @ 2021-04-26 16:09:29

360搜索对Robots协议的扩展

360搜索对Robots协议进行了扩展,增加了以下几个指令: 1. User-Agent:用于指定搜索引擎访问网站时使用的用户代理字符串,可以设置多个User-Agent。 2. Crawl-delay:用于指定搜索引擎访问网站时的延迟时间,单位为秒。可以设置针对不同的User-Agent的延迟时间。 3. Sitemap:用于指定网站的sitemap文件的地址,搜索引擎将通过该文件获取站点

Public @ 2023-05-29 17:00:21

更多您感兴趣的搜索

0.473791s