Categories


Tags


robots.txt使用教程

用几个最常见的情况,直接举例说明:

1. 允许所有SE收录本站:robots.txt为空就可以,什么都不要写。

2. 禁止所有SE收录网站的某些目录:

User-agent: *

Disallow: /目录名1/

Disallow: /目录名2/

Disallow: /目录名3/

3. 禁止某个SE收录本站,例如禁止百度:

User-agent: Baiduspider

Disallow: /

4. 禁止所有SE收录本站:

User-agent: *

Disallow: /

5. 加入sitemap.xml路径


Public @ 2013-01-15 16:09:31

网站如何做好 301/302 跳转

概念解释301跳转是指页面永久性移走(永久跳转),通常叫做301跳转,也叫 301重定向 ,301转向。301跳转多用于旧网址在废弃前转向新网址以保证用户的访问,在诸多服务器中,均支持本跳转方法。302重定向又称之为暂时性转移(临时跳转),英文名称:302 redirect。 也被认为是暂时重定向 ,一条对网站浏览器的指令来显示浏览器被要求显示的不同的URL,当一个网页历过短期的URL的变化时使用

Public @ 2011-02-23 16:09:05

站点地图创建方法

1. 用所需软件打开网站:   打开一个文本编辑器,比如 Notepad 或者 Sublime Text,用来编辑 xml 文件; 2. 组织网站地图:   列出网站中每一个页面的具体地址,用符号 * 表示页面间的关联结构; 3. 用 xml 标准编写网站地图:   将网站地图的内容按照 xml 的规范编写;   主要的元素有,<urlset>,<url>,

Public @ 2023-03-02 11:48:25

Robots文件是否支持中文目录

有同学问百度站长学堂一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?工程师解答:Baiduspider

Public @ 2013-01-02 16:08:54

robot.txt在SEO中的作用

鉴于网络安全与隐私的考虑,搜索引擎遵循robots.txt协议。通过根目录中创建的纯文本文件robots.txt,网站可以声明不想被robots访问的部分。每个网站都可以自主控制网站是否愿意被搜索引擎收录,或者指定搜索引擎只收录指定的内容。当一个搜索引擎的爬虫访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果该文件不存在,那么爬虫就沿着链接抓取,如果存在,爬虫就会按照该文

Public @ 2023-01-27 16:09:31

更多您感兴趣的搜索

0.556553s