Categories


Tags


为什么我的网站已经加了robots.txt,还能在百度搜索出来?

为什么我的网站已经加了robots.txt,还能在百度搜索出来?

因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。

如果您的拒绝被收录需求非常急迫,也可以通过反馈中心反馈请求处理。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2015-11-18 16:08:58

搜索引擎自己应该是可以检测协议死链(404、403等)的,为什么还需要站长提交?

答:搜索引擎的蜘蛛的确是能够对404页面进行识别,但是蜘蛛去被动的识别网站的死链可能需要较长的时间,不利于网站及时清理在搜索引擎中已收录的死链,所以我们才在站长平台设置了死链提交功能。请站长在处理站点死链的时候,一定要注意收集整理好,然后前往站长平台进行提交。提交后,一旦验证死链真实性,将会比较快速地从搜索引擎删除提交的数据。提交链接:http://zhanzhang.so.com/?m=Dead

Public @ 2014-05-22 15:36:59

robots.txt语法教程

robots.txt 是一个文件,它位于网站的根目录下,用于告诉搜索引擎和机器人哪些页面可以被访问或哪些不应该被访问。以下是 robots.txt 语法教程。 1. User-agent User-agent 表示搜索引擎或机器人的名称。当网站管理员想要禁止某个搜索引擎或机器人访问网站时,可以使用 User-agent 指定名称。 例如: User-agent: Googlebot Dis

Public @ 2023-06-06 11:00:18

robots.txt文件有什么必要?

robots.txt文件是一个文本文件,用于向搜索引擎和其他机器人网站爬虫指定哪些页面或内容可以被爬取,哪些页面或内容不能被爬取。它的主要作用是为了控制搜索引擎和其他机器人网站爬虫访问和抓取网站内容,保护网站的隐私和安全。如果一个网站不想被某些搜索引擎或爬虫访问、爬取和索引,就可以通过robots.txt文件来禁止它们。另外,robots.txt文件还可以防止一些机器人抓取出现线上攻击或滥用等安全

Public @ 2023-06-12 20:00:21

更多您感兴趣的搜索

0.462871s