Categories


Tags


robots文件中屏蔽的为什么还可以收录?

我今天来给大家详细讲解下,先了解几个概念

1、robots只是禁止抓取,不是禁止收录

2、另外还有nofollow的作用不是不抓取这个链接,是不从这个链接传递权重

了解这2个概念后,我们再来讨论怎么处理这类收录问题:

robots写正确的同时,不要在任何一家收录的网站发外链,友链,也不要主动提交百度,这样才可以保证不被搜索引擎收录,为什么呢?

大家百度查一下淘宝,如图:

按照道理淘宝写了robots怎么还是收录,因为有大量的链接指向淘宝官网,而且这些外链可能权重都比较高,

全部都禁止了,依然收录了1亿多条链接

看到这里,是不是有感而发,我们怎么从百度导流到你的淘宝店!(来源:夫唯seo特训营)


Public @ 2021-04-26 16:09:29

URL如何优化?网站url链接形式这样去做,利于优化

URL该如何优化?方法如下:1、URL越短越好对于搜索引擎来说,只要URL不超过1000个字母,收录都没有问题。不过真地使用几百个字母的URL,用户看着费事。另外短的URL也利于传播,做链接时短的URL复制没有什么问题,长的复制也费劲,有时不能完整复制下来,容易出现404错误。2、避免太多参数尽可能地使用静态URL。如果技术上不能实现静态URL,那动态的URL必须减少参数。一般建议2~3个参数之内

Public @ 2016-11-17 16:12:00

为什么我的网站已经加了robots.txt,还能在百度搜索出来?

为什么我的网站已经加了robots.txt,还能在百度搜索出来?因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。如果您的拒绝被收录需求非常急迫,也可以通过反馈中心反馈请求处理。来源:百度搜索资源平台 百度搜索学堂

Public @ 2015-11-18 16:08:58

robots.txt语法教程

用几个最常见的情况,直接举例说明:1. 允许所有SE收录本站:robots.txt为空就可以,什么都不要写。2. 禁止所有SE收录网站的某些目录:User-agent: *Disallow: /目录名1/Disallow: /目录名2/Disallow: /目录名3/3. 禁止某个SE收录本站,例如禁止百度:User-agent: BaiduspiderDisallow: /4. 禁止所有SE收录

Public @ 2017-12-16 16:09:16

更多您感兴趣的搜索