Categories


Tags


Robots文件是否支持中文目录

有同学问百度站长学堂一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?

工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。

同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2013-01-02 16:08:54

绝对路径的优点和缺点

绝对路径的优点是:1.网站有RSS输出时,内容会被一些Feed聚合网站抓取显示。同样,页面里指向原网站的链接会被保留。2.如果有人抄袭、采集你的文章,抄袭者比较懒,连页面里面的链接一起原封不动抄过去,绝对路径链接还会指向你的网站,增加网站外链权重。3.就算网页移动位置,里面链接还是指向正确URL。4.有助于预防和解决网址规范化问题。绝对路径的缺点是:1.代码比较多。2.除非链接是动态插入的,不然不

Public @ 2014-08-18 16:11:48

叨叨死链这回事儿

叨叨死链(Toast Dead Link)是一种网页中常见的死链接,常常会发送访客一个404错误页面,表明页面找不到了。它们通常是来源于旧网站上错误的链接,或是网站本身不小心也犯了错误,把问题给留下来。叨叨死链不仅造成了一些糟糕的用户体验,还可能会影响SEO,引起搜索引擎抓取信息失效,影响网站的整体排名。

Public @ 2023-02-25 00:00:16

robots协议

 Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫扫除规范”(RobotsExclusionProtocol),网站经过Robots协议通知查找引擎哪些页面可以抓取,哪些页面不能抓取  是查找引擎的一部分来定位和索引互联网上的每个可能答复查找恳求的网页,一般只在评论robots的HTML标签或许robots.txt文件的时分运用。

Public @ 2010-10-17 15:26:25

玩转robots协议

2013年2月8日北京市第一中级人民法院正式受理了百度诉奇虎360违反“Robots协议”抓取、复制其网站内容的不正当竞争行为一案,索赔金额高达一亿元,这可以看做2012年下半年“3B大战”的继续。在此次索赔案件中,百度称自己的Robots文本中已设定不允许360爬虫进入,而360的爬虫依然对“百度知道”、“百度百科”等百度网站内容进行抓取。其实早在2012年11月初,针对双方摩擦加剧的情况,在中

Public @ 2019-05-13 16:09:21

更多您感兴趣的搜索

0.504631s