Categories


Tags


浅谈404问题

今天为什么要说一下404问题呢,最近看case过程中发现个很有意思的网站,该网站被灌了大量的垃圾信息,被其发现后及时地进行了删除,这一点是值得肯定的。通常情况下,正常网站将自动返回404状态码,搜索引擎进行更新并删除,避免对网站用户及搜索引擎带来负面影响。但问题来了,该网站只删除了内容,没有任何主体内容的页面被保存了下来,未做404处理。当然,存在一类网站只删除内容后返回正常200状态码,提醒一句

Public @ 2014-09-24 16:09:54

robots里这样写,就能避免蜘蛛爬这个“index.htm”这个首页?

要避免搜索引擎蜘蛛爬取某个页面,可以在robots.txt文件中添加如下指令: User-agent: * Disallow: /index.htm 这样,所有搜索引擎蜘蛛都不会爬取网站的index.htm首页页面。注意,这并不代表该页面会从搜索结果中彻底移除,因为即使没有被索引,用户仍然可以在搜索结果中找到该页面。

Public @ 2023-06-09 00:50:07

更多您感兴趣的搜索

0.516839s