Categories


Tags


robots.txt语法教程

用几个最常见的情况,直接举例说明:

1. 允许所有SE收录本站:robots.txt为空就可以,什么都不要写。

2. 禁止所有SE收录网站的某些目录:

User-agent: *

Disallow: /目录名1/

Disallow: /目录名2/

Disallow: /目录名3/

3. 禁止某个SE收录本站,例如禁止百度:

User-agent: Baiduspider

Disallow: /

4. 禁止所有SE收录本站:

User-agent: *

Disallow: /

5. 加入sitemap.xml路径,例如:

来源:360站长平台


Public @ 2017-12-16 16:09:16

能否利用canonical标签陷害竞争对手?

今天再介绍一个黑帽负面SEO的想法:利用canonical标签陷害竞争对手。聊黑帽SEO绝不是建议读者做黑帽,优化正规网站的还是尽量别尝试,风险很大。但了解黑帽SEO方法,一是开拓思路,第二更重要的是,防范别人用负面SEO方法陷害自己。站长们认真观察的话一定会发现,负面SEO的尝试是一直在发生的。我这个小小的、谁也不得罪的SEO博客都经常被人制造巨量垃圾链接、制造大量敏感词搜索页面、刷跳出率等等,

Public @ 2019-01-30 16:11:18

禁止收录机制

有些时候,站长并不希望某些页面被抓取和收录,如付费内容、测试阶段的页面、复制内容页面等。网站上不出现链接,或者使用JavaScript、Flash链接,使用nofollow等方法都不能保证页面一定不会被收录。站长自己虽然没有链接到不想被收录的页面,其他网站可能由于某种原因出现导入链接,导致页面被收录。要确保页面不被收录,需要使用robots文件或Meta Robots标签。来源:搜外网

Public @ 2017-07-11 16:21:36

robots.txt文件的格式

robots.txt文件的格式为: User-agent: [user-agent-name] Disallow: [URL path] 其中,[user-agent-name]指代搜索引擎爬虫的名称,[URL path]指代禁止访问的URL路径。在文件中可以定义多条User-agent和Disallow规则,每一条规则占一行,每一对规则之间要有一个空行。示例: User-agent: *

Public @ 2023-05-28 01:50:08

更多您感兴趣的搜索

0.584587s