怎么样让我的网页不被360搜索收录?
360搜索支持善意的搜索引擎Robots协议。
您可通过在网站根目录下放置Robots.txt 文件以建议360搜索搜爬虫不收录您网站的全部或部分内容。
如果希望360搜索搜尽快删除涉及您隐私/名誉的网页内容,可以通过我们的意见反馈页面进行提交,我们会尽快为您处理。
Public @ 2009-11-13 15:55:46
360搜索支持善意的搜索引擎Robots协议。
您可通过在网站根目录下放置Robots.txt 文件以建议360搜索搜爬虫不收录您网站的全部或部分内容。
如果希望360搜索搜尽快删除涉及您隐私/名誉的网页内容,可以通过我们的意见反馈页面进行提交,我们会尽快为您处理。
可能由以下原因造成:您的网站所在的服务器不稳定,Baiduspider在检查更新时抓取不到网页而被暂时去除。您的网站不符合用户的搜索体验。
可能是百度搜索到的网站是一个缓存页面,搜索结果会有一定延迟,导致不能看到最新内容。解决办法是,关闭缓存页面,直接输入网站地址到地址栏,或者重新搜索。
1. 在Robots.txt文件中添加抓取禁止索引指令:User-agent: Baiduspider ,Disallow: / 2. 在网站抓取反馈页面中禁止百度抓取:yu 抓取反馈页面 -> 新建反馈 -> 选择不抓取,并选择“所有搜索引擎” 3. 使用noindex标签,添加noindex标签meta可以明确地告知搜索引擎不抓取你的页面:
这种情况可能有多种原因。以下是可能导致百度只收录首页而不收录内页的原因: 1. 网站结构有问题:如果网站结构不合理,内部链接不足或者链接过于复杂,可能导致百度无法抓取到内页。 2. 内页质量不够高:百度会根据原创度、内容质量、页面质量等因素评估网页的价值,如果内页质量不够高,可能不会被收录。 3. 内页访问量不够高:如果内页的访问量不够高,百度可能不会将其优先收录。 4. 技术问题:如果网