Categories


Tags


robots.txt:如何让搜索引擎不要抓取没用的页面

| 什么是robots文件?

Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。

| 为什么要做robots文件?

网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。

| 如何制作 robots文件?

编写robots.txt文件并上传到网站根目录。

| 制作 robots.txt注意事项

● 所有搜索引擎则用星号表示

● Allow(允许)和Disallow(不允许)优先级

● 至少屏蔽一个,可以屏蔽:搜索结果页面/404页面

● 记得将sitemap放到Robots文件中

● 可以陆续放入更多,而不是一次性决定所有

● 网站后台地址/图片地址/下载文件地址/错误链接(搜外网)


Public @ 2019-03-13 16:09:27

通过Canonical标签解决重复内容收录

Canonical标签是指在网页的HTML代码中添加一个链接指向该页面的主要版本,当页面有多个URL时,通过Canonical标签告诉搜索引擎哪个是主要版本,从而避免重复内容被收录。 例如,在网站中有一篇文章,URL分别是: http://www.example.com/article http://www.example.com/articles/123 http://www.examp

Public @ 2023-06-05 19:00:10

博客网站导航的制作

博客网站导航的制作需要遵循以下步骤: 1. 确定导航栏的位置和样式 确定导航栏的位置和样式,一般情况下,导航栏应该位于网站页面的顶部或侧边,同时要和网站整体的设计风格一致。 2. 确定导航栏的内容 确定导航栏的内容,一般来说,导航栏应该包含网站的主要版块和功能,例如首页、分类、标签、归档、关于我们等。 3. 设计导航栏的图标和颜色 设计导航栏的图标和颜色,可以采用简洁明了的图标和醒目的

Public @ 2023-04-28 03:50:12

百度搜索robots协议全新升级公告

尊敬的用户: 为了更好地保护您的隐私和内容权益,百度搜索已经全新升级了robots协议。该协议将更加严格地限制搜索引擎爬取您的网站内容,以保障您的权益。 更新后的robots协议针对以下内容进行了调整: 1.增加禁止搜索引擎爬取的网页类型,如登录页、支付页、个人信息页等。 2.增加网站所有者对搜索引擎爬取的细节设置,包括最大爬取频率、爬取深度、爬取延时等。 3.优化 robots.txt

Public @ 2023-04-17 05:00:13

更多您感兴趣的搜索

0.448945s