Categories


Tags


为什么我的网站中的一些私密网页也会被百度收录?

Baiduspider对网页的抓取,是通过网页与网页之间的链接实现的。

网页之间的链接类型,除了站点内部的页面链接之外,还有不同网站之间的互相链接。因此,某些网页即便通过您的网站内部链接无法访问到,但是,如果别人的网站上有指向这些页面的链接,那么这些页面还是会被搜索引擎所收录。

百度Spider的访问权限,和普通用户是一样的。因此,普通用户没有权限访问的内容,Spider也没有权限访问。之所以看上去某些访问权限限制内容被百度收录,原因有两点:

  A. 该内容在Spider访问时是没有权限限制的,但抓取之后,内容的权限发生了变化

  B. 该内容有权限限制,但是由于网站安全漏洞问题,导致用户可以通过某些特殊路径直接访问。而一旦这样的路径被公布在互联网上,则Spider就会循着这条路径抓出受限内容

如果您不希望这些私密性内容被百度收录,一方面可以通过Robots协议加以限制;另一方面,也可以通过反馈中心反馈给我们进行解决。


Public @ 2020-06-19 15:55:52

360搜索站点子链数据填写说明

360搜索站点子链数据填写说明如下: 1.在360搜索站长平台中,点击左侧菜单栏的“推广管理”,选择“子链管理”。 2.点击“添加子链”按钮,输入需要添加的子链地址和相关信息,如示例: 子链地址:www.example.com/subpage 子链名称:示例网站子页面 子链描述:该子页面是示例网站的某一个具体页面,为用户提供详细的产品信息。 3.填写完毕后,点击“保存”即可添加子链数据

Public @ 2023-04-05 13:00:12

网站长期不收录的页面怎么解决?什么原因导致不收录?

1、内容重复内容得利包含两个方面,一是模板重复,二是文章重复。采集软件的普及让做网站太简单了,火车头、NICEWORD、爱聚合,各CMS的采集和自助建站功能让很多站长一夜之间创造成千上万的网页,再加上对采集规则的不灵活,伪原创一塌糊涂,互联网上高度得利的内容太多了。人都看腻了,难道百度蜘蛛还不吃腻?大家采来采去都是同一个东西,可能你下子就被百度收录了几百上千,但百度规劝重新进行筛选,如果都是千篇一

Public @ 2016-11-21 15:55:40

网站长期不收录的页面怎么解决?什么原因导致不收录?

以下是造成网站长期不收录的一些原因和解决办法: 1.robots.txt文件禁止收录。检查网站的robots.txt文件是否禁止了相应页面的收录。如果禁止了,需要修改该文件。 2.页面质量不高。如果页面质量不高、内容不充实、重复度高,那么搜索引擎就不会收录该页面。解决办法是优化网站内容、提高页面质量。 3.缺少外部引用链接。高质量的外部链接可以提升网站的可信度和排名,同时也是搜索引擎的一种收

Public @ 2023-03-30 23:00:41

更多您感兴趣的搜索

0.136248s