Categories


Tags


Robots文件是否支持中文目录

有同学问百度站长学堂一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?

工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。

同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2013-01-02 16:08:54

Apache IIS/.net 制作404页面

Apache服务器上创建404页面: 1. 创建一个新文本文件,命名为404.html(注意,扩展名必须为html)。 2. 打开这个文件,并添加如下代码: 404页面不在这里 抱歉,您正在寻找的页面不在这里 请尝试检查您输入的URL或联系网站管理员。 3. 保存文件并将其上传到您的网站根目录下的相

Public @ 2023-04-17 19:50:47

网站内部链接与权重如何分配才是最好

其实网站结构这块的优化需要解决的最重要问题包括收录以及页面权重分配。最经典是树形结构,是比较好的链接及权重分配模式。但是由于不同的网站采用的技术不同,要实现的功能、网站目的、运营思路都有可能不同,因此某些看起来是根据树形结构来做的网站,其实结构很奇怪。因此我们需要具体问题具体分析。 首先是解决重点内页的问题。一般来说,网站首页获得的内外部链接是最多的,权重最高。首页链接到一级分类页面,这

Public @ 2011-10-31 16:11:30

robots.txt文件的格式

robots.txt文件的格式为: User-agent: [user-agent-name] Disallow: [URL path] 其中,[user-agent-name]指代搜索引擎爬虫的名称,[URL path]指代禁止访问的URL路径。在文件中可以定义多条User-agent和Disallow规则,每一条规则占一行,每一对规则之间要有一个空行。示例: User-agent: *

Public @ 2023-05-28 01:50:08

robots文件中屏蔽的为什么还可以收录?

robots.txt 是一个标准,它通过提供一些规则,告诉搜索引擎爬虫哪些网页可以被爬取,哪些网页不应该被爬取。但是,一些搜索引擎爬虫可能会忽略这些规则,直接抓取它们想要的网页。 此外, robots.txt 文件的存在只是一个建议而不是命令。在一些情况下,搜索引擎爬虫可能会收录被 robots.txt 文件所屏蔽的网页,这有可能是因为发布这个网页的人想要让它被收录,也有可能是因为机器人误解了

Public @ 2023-04-24 07:50:07

更多您感兴趣的搜索

0.591956s