Categories


Tags


robots使用误区

误区一:我的网站上的所有文件都需要蜘蛛抓取,那我就没必要在添加robots.txt文件了。反正如果该文件不存在,所有的搜索蜘蛛将默认能够访问网站上所有没有被口令保护的页面。

每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该做网站中添加一个robots.txt。

误区二:在robots.txt文件中设置所有的文件都可以被搜索蜘蛛抓取,这样可以增加网站的收录率。

网站中的程序脚本、样式表等文件即使被蜘蛛收录,也不会增加网站的收录率,还只会浪费服务器资源。因此必须在robots.txt文件里设置不要让搜索蜘蛛索引这些文件。

具体哪些文件需要排除, 在robots.txt使用技巧一文中有详细介绍。

误区三:搜索蜘蛛抓取网页太浪费服务器资源,在robots.txt文件设置所有的搜索蜘蛛都不能抓取全部的网页。

如果这样的话,会导致整个网站不能被搜索引擎收录。

来源:360站长平台


Public @ 2017-10-31 16:09:18

301重定向在网站排名优化中的应用

301重定向在网站排名优化中的应用URL是搜索引擎获取网站的入口。URL的长度和复杂性会影响网站的抓取和收录,也会影响网站的排名。如何优化URL和301重定向,以方便搜索引擎快速抓取收录?就像www.admin5.cn和admin5.cn,不管打开哪一个网址,所打开的网页内容都是相同的,但在搜索引擎的算法中,这是两个不同的网页。如果你不做域名重定向,主域名的权重会分配给其他域名,这一点是站长们需要

Public @ 2016-05-16 16:09:14

Apache IIS/.net 制作404页面

Apache 404 页面: 1. 创建一个名为“404.html”的文件,该文件将成为您的404错误页面。 2. 将此文件上传到您网站的根目录(或子目录,如果您希望针对特定子目录生成404页面)中。 3. 打开您网站的.htaccess文件并添加以下代码: ``` ErrorDocument 404 /404.html ``` 4. 现在,每当用户在您的网站上访问不存在的页面时,将自动重定

Public @ 2023-06-05 12:50:13

更多您感兴趣的搜索

0.106088s