Categories


Tags


百度站长平台robots工具升级公告

亲爱的网站管理员,

很高兴的告诉大家,百度站长平台robots工具全新升级,升级后能够实时查看网站在百度中已生效的的robots文件,并支持对robots进行语法及逻辑校验,有助于站长更清晰的管理网站的robots文件,避免错误的封禁搜索引擎。

功能亮点:

1、实时查看网站在百度中已生效的robots文件内容并可通知百度更新:

升级后的robots能够查看网站已生效的robots文件,同时会展现网站最新的robots文件。若当前生效的并非最新的robots内容,可在工具中点击“更新”提醒百度。

2、支持对robots文件进行语法及逻辑校验:

在robots工具—规则校验—填写robots规则—填写被实验的路径中,点击“校验”,会展现该路径是否能被成功被封禁、或者robots规则是否有语法错误。robots填写还支持从已验证网站直接导入robots内容。

robots工具地址:http://zhanzhang.baidu.com/robots/index

哪些情况下需要使用robots工具?

1、我的网站下有某个目录涉及到了隐私数据,不想被搜索引擎收录。

此时您可以使用robots工具—创建生成页面中,根据robots规则创建正确的robots文件,并将robots文件上传到网站顶级目录中。

robots1.png

2、我用robots封禁了网站的某目录,但依然被抓取,怎样查设置的robots文件是不是已生效?如果还未生效,怎样提醒百度更新?

查看网站已生效的robots文件:您可以在robots工具—robots检测—下拉列表选取站点域名,点击“检测”,就可查看网站已生效的robots文件,并同时会展现网站最新的robots文件。

提醒百度更新网站的robots文件:若已生效的robots文件不是最新的,那可在“robots检测”页面的下方“提交更新”处点击更新进行提醒。

robots2.JPG

3、我的网站设置robots文件,怎样判断设置的是否正确?

您可在robots工具—规则校验中, 对robots代码的语法及逻辑进行校验,并可校验路径是否被封禁。

(1)校验语法或逻辑错误:您可在robots工具—规则校验中,输入robots代码,点击“校验,会展现您所填写的Robots规则是否有语法错误。Robots填写还支持从已验证网站直接导入robots内容。

(2)校验路径是否被封禁:您可在robots工具—规则校验中,分别输入robots代码、需要校验的路径,点击“校验”,会额外展现该路径是否成功被封禁。

robots3.JPG

来源:百度搜索资源平台


Public @ 2016-06-12 16:09:01

网站的结构和导航设置应该注意什么?

每个网页都需要有合适的标题,网站首页标题建议使用站点名称或者站点代表的公司、机构名称;其余的内容页面,标题建议做成与正文内容的提炼和概括,建议格式“页面标题_站点名称”,这可以让您的潜在用户通过搜索引擎结果中的标题快速访问到您的页面。充分利用网站首页或者频道首页的 description 标签,提供此网页内容的概括说明,形式为<meta name="description"

Public @ 2018-04-30 16:12:04

网站一级目录如何制作,有什么作用 ?

1、网站一级目录的制作: (1)确定网站的主题,明确网站的定位与定位; (2)制定网站的大纲,分别考虑网站的主要的功能模块; (3)定义网站的一级目录,在各功能模块中合理划分下级目录; (4)在每个二级目录中根据功能模块制定三级及以下的多级目录。 2、网站一级目录的作用: (1)清晰明确、增强网站的友好性,为用户提供快捷、清晰的栏目分级; (2)促使网站首页和各个栏目更简洁,使网站在简明中更

Public @ 2023-03-03 00:00:17

Robots META标签的写法

Robots META标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。 content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。INDEX 指令告诉搜索机器人抓取该页面;FOLLOW 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;Robots Me

Public @ 2019-08-04 16:09:30

通过robots.txt文件屏蔽蜘蛛抓取不存在的后缀

通过网站日志分析,会发现搜索引擎蜘蛛抓取了一些网站上不存在的文件后缀,如:.php、.asp、.aspx等。搜外网站后台日志分析结果如下图:image.搜外主站实际上不存在php后缀的URL地址。可通过robots.txt文件禁止蜘蛛抓取不存在的后缀,减少出现404返回值。在robots.txt文件填写屏蔽规则如下:Disallow: /*.asp$Disallow: /*.php$Disallo

Public @ 2015-07-18 16:09:24

更多您感兴趣的搜索

0.397972s