为什么我的网站已经加了robots.txt,还能在搜狗搜索出来
- 威海Spider 威海sogou spider
- 1193
因为搜索引擎索引数据库的更新需要时间。虽然sogou spider已经停止访问您网站上的网页,但搜狗搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。
如果您的拒绝被收录需求非常急迫,也可以通过删除快照反馈请求处理。
Public @ 2018-01-11 15:38:56
因为搜索引擎索引数据库的更新需要时间。虽然sogou spider已经停止访问您网站上的网页,但搜狗搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。
如果您的拒绝被收录需求非常急迫,也可以通过删除快照反馈请求处理。
百度用于抓取网页的程序叫做Baiduspider - 百度蜘蛛,我们查看网站被百度抓取的情况主要是分析,网站日志里百度蜘蛛Baiduspider的活跃性:抓取频率,返回的HTTP状态码。如何查看网站被百度抓取的情况?查看日志的方式:通过FTP,在网站根目录找到一个日志文件,文件名一般包含log,下载解压里面的记事本,这即是网站的日志,记录了网站被访问和操作的情况。因为各个服务器和主机的情况不同,不
BaiDuSpider百度蜘蛛是百度搜索引擎的爬虫程序,负责抓取并建立Web页面的索引。百度蜘蛛会消耗服务器的流量和资源,对于一些限制流量的网站,可能会受到影响。为了控制百度蜘蛛的访问,可以使用robots.txt文件进行设置。 robots.txt文件是一种网站协议,用来告诉搜索引擎蜘蛛访问网站的规则。如果在网站根目录下没有设置robots.txt文件,搜索引擎蜘蛛将按照默认规则进行访问。为了
在您的网站的问题改正之后,点此提交申请解封
sogou spider 会根据网页的重要性和历史变化情况来动态调整更新时间,更新已经抓取过的页面。