Categories


Tags


robots.txt概念和10条注意事项

robots.txt概念如果我们网站内有某些特殊的文件不让搜索引擎收录,那怎么办?答案是:使用一个叫做robots.txt的文件。robots.txt文件告诉搜索引擎本网站哪些文件是允许搜索引擎蜘蛛抓取,哪些不允许抓取。搜索引擎蜘蛛访问网站任何文件之前,需先访问robots.txt文件,然后抓取robots.txt文件允许的路径,跳过其禁止的路径。总结:robots.txt是一个简单的.txt文件

Public @ 2019-12-20 16:09:22

如何解决网址规范化问题

解决网址规范化问题有以下几点方法:1.确保使用的CMS系统只产生规范化网址,无论是否有静态化。2.在Google管理员工具中设置首选域。3.所有内部链接保持统一,都指向规范化网址。4.使用canonical标签。5.使用301转向,把不规范化URL全部转向到规范化URL。6.提交给搜索引擎的XML网站地图中全部使用规范化网址。来源:搜外网

Public @ 2010-02-20 16:11:22

浅谈404问题

今天为什么要说一下404问题呢,最近看case过程中发现个很有意思的网站,该网站被灌了大量的垃圾信息,被其发现后及时地进行了删除,这一点是值得肯定的。通常情况下,正常网站将自动返回404状态码,搜索引擎进行更新并删除,避免对网站用户及搜索引擎带来负面影响。但问题来了,该网站只删除了内容,没有任何主体内容的页面被保存了下来,未做404处理。当然,存在一类网站只删除内容后返回正常200状态码,提醒一句

Public @ 2014-09-24 16:09:54

Apache IIS/.net 制作404页面

Apache为Apache Server设置 404错误页面的方法很简单,只需:(1)在.htaccess文件中加入如下内容:ErrorDocument 404 /notfound.php,将.htaccess文件上传到网站根目录。(2)制作一个404页面,随便您设计,命名为notfound.php,同样上传到网站根目录。注意:(1).切记不要将404错误转向到网站主页,否则可能会出现主页在搜索引

Public @ 2021-06-13 16:10:00

更多您感兴趣的搜索

0.439858s