Categories


Tags


站点referer限制应增加豁免百度https

百度全站https后,发现有站点无法通过部分浏览器下的百度搜索引擎进行访问,如在ie浏览器中可以正常访问(百度referer的协议是http://www.baidu.com),而在chrome浏览器中无法正常访问(百度referer的协议是https://www.baidu.com)。原因是这些站点针对百度https协议头的referer做了限制处理。

referer限制:网站为了避免攻击或者防止盗图,往往对网站的不受欢迎请求referer做一些限制,如显示错误页面等手段。(下图是一个referer限制示例图)

23.png

在此提醒各位站长:如果之前已针对百度搜索做了referer限制,且默认的协议头是http,那么现在需要增加对https的豁免,否则就会导致搜索用户通过百度搜索引擎访问失败。

来源:百度搜索资源平台


Public @ 2011-02-24 16:07:11

百度站长平台反馈中心升级公告

尊敬的站长平台用户: 为更好地为您提供服务,我们将于2021年7月27日进行反馈中心升级优化,届时您将在反馈中心中体验到更快速、更高效、更便捷的服务。 此次升级优化将涉及反馈中心的整体功能和界面,包括用户发起的反馈和意见建议、平台回复和解决方案、公告和通知、反馈历史记录等。升级后的反馈中心将会拥有更人性化的操作,更直观的显示效果,同时也将增强安全性和稳定性。 我们将为您保留历史反馈,届时您的

Public @ 2023-06-22 06:50:19

百度站内搜索服务协议

发布日期:2015-06-01服务内容:利用百度的搜索引擎技术,帮助站点面向其用户提供站内搜索服务。为此,站长需要将百度提供的代码按照要求部署到自己的站点上,用户在这段代码对应的搜索框里输入关键词,百度返回与相应关键词相匹配的该站点结果。站长可以主动提交本站数据以用作搜索备选集合,也可以选择直接搜索百度已经抓取的本站数据,两种数据只能任选其一。站长对于主动提交的数据须保证数据的真实性、完整性及合法

Public @ 2014-08-18 16:07:10

百度搜索资源平台-Robots

使用说明1. robots.txt可以告诉百度您网站的哪些页面可以被抓取,哪些页面不可以被抓取。2. 您可以通过Robots工具来创建、校验、更新您的robots.txt文件,或查看您网站robots.txt文件在百度生效的情况。3. Robots工具目前支持48k的文件内容检测,请保证您的robots.txt文件不要过大,目录最长不超过250个字符。4. 如需检测未验证站点的robots设置,请

Public @ 2020-03-13 16:06:47

百度搜索上线关于补充站点名称的公告

百度搜索发布了关于补充站点名称的公告: 根据用户反馈和持续优化搜索的需要,百度搜索即日起支持用户在搜索结果中补充站点名称。 补充站点名称功能可以让用户对搜索结果中出现的某个页面,特别是品牌、机构或知名网站的某个页面进行站点名称的补充,提高了搜索结果的准确性和用户体验。同时对于站长来说,可加强品牌的认知和展现。例如,用户在搜索“百度”时,能够通过补充站点名称的方式明确表示想要查询百度知道或者百度

Public @ 2023-06-20 10:00:14

更多您感兴趣的搜索

0.509203s