Categories


Tags


robots.txt文件有什么必要?

什么是robots.txt文件?

搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。

如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。

robots.txt文件有什么必要?

从SEO的角度,robots.txt文件是一定要设置的,原因:

1、网站上经常存在这种情况:不同的链接指向相似的网页内容。这不符合SEO上讲的“网页内容互异性原则”。采用robots.txt文件可以屏蔽掉次要的链接。

2、网站改版或URL重写优化时原来不符合搜索引擎友好的链接需要全部屏蔽掉。采用robots.txt文件删除旧的链接符合搜索引擎友好。

3、一些没有关键词的页面,屏蔽掉更好。

4、一般情况下,站内的搜索结果页面屏蔽掉更好。

来源:搜外网


Public @ 2018-10-22 16:09:22

怎么做301转向

1. 在服务器上配置:打开网站的服务器配置文件,添加301重定向规则,将旧的URL重定向到新的URL。具体方法根据不同的服务器而有所不同,需要咨询服务器管理员。 2. 使用重定向插件:如果网站使用的是WordPress等CMS系统,可以安装并启用重定向插件,然后在插件设置中添加301重定向规则。 3. 使用.htaccess文件:打开网站根目录下的.htaccess文件,并添加301重定向规则

Public @ 2023-06-25 02:50:10

什么是首选域设置

网站在做优化的时候有一个专业术语叫首选域,这个专业术语在很多SEO培训机构或者SEO行业前辈经验分享中都有提到过。那究竟什么是首选域的作用,网站如何设置首选域  什么是首选域呢?  网站的首选域类似于标准化URL,是搜索引擎索引中编制网页的域。在搜索引擎搜索结果中,指向网站的链接有www和非www网址格式。而所谓的首选域是我们希望网站在搜索结果中显示的格式。  一般情况下,搜索引擎认为域名带www

Public @ 2021-09-10 16:21:37

robots.txt:如何让搜索引擎不要抓取没用的页面

| 什么是robots文件?Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。| 为什么要做robots文件?网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。| 如何制作 robots文件?编写robots.txt文件并上传到网站根目录。| 制作 robots.txt注意事项● 所有搜索引擎则用星号表示● All

Public @ 2019-03-13 16:09:27

robots使用技巧

以下是一些使用robots.txt文件的技巧和最好的做法: 1. 不要放弃robots.txt - 一些网站管理员没有robots.txt文件,因为他们认为这是保护网站的安全措施,但事实上它可能会影响搜索引擎爬取。 2. 维护一个更新的robots.txt文件 - 确保您的robots.txt文件不是过时的。如果您从网站上删除了某些页面或文件夹,请务必更新文件以反映更改。 3. 不要使用ro

Public @ 2023-05-28 16:00:31

更多您感兴趣的搜索

0.443834s