Categories


Tags


头条搜索站长平台-sitemap异常原因解释

sitemap异常原因解释解决方法

爬虫被封禁可能是您的网站对Bytespider的UA或IP进行封禁建议您根据我们公布的UA和IP进行解封,第二天重新抓取之后会恢复正常

sitemap文件数据量过大可能是您的sitemap节点数量超过了5w个建议您拆分为几个小的sitemap文件

sitemap地址非法可能是您的sitemap地址不可访问或者存在xml和txt混合模式的数据建议您按照我们的要求提交sitemap地址

站点服务不可用我们请求您的网站3次后发现您的网站仍旧不可访问会暂时停止抓取,则返回该原因请您检查服务器是否可正常运转,如果正常,等正常调度后正常抓取

sitemap地址不存在可能是您的地址无法访问,返回404,我们获取不了任何信息请您排查sitemap地址链接,等正常调度后可恢复正常抓取

txt文件未发现有效链接可能是您的txt文件链接并非按照要求提供html链接请您按照我们的规范格式提交

xml文件数据量过大可能是您的xml文件大小超过10M,item数目超过1W个建议您拆分几个小的xml文件

来源:头条搜索站长平台


Public @ 2021-01-02 16:09:47

站点地图创建方法

1. 确定网站结构:首先需要确定网站的主要部分,例如首页、产品分类、文章分类、关于我们等等部分。 2. 创建列表:将每个部分的页面名称和 URL 地址列成列表,同时确定网站的层次结构,如何连接这些页面。 3. 添加链接:在每个页面的底部添加一个链接,指向站点地图页面,让用户可以访问站点地图。 4. 设计页面:设计一个清晰简洁易懂的页面,将列表添加到页面上。 5. 考虑 SEO:为站点地图添

Public @ 2023-06-22 14:50:15

玩转robots协议

2013年2月8日北京市第一中级人民法院正式受理了百度诉奇虎360违反“Robots协议”抓取、复制其网站内容的不正当竞争行为一案,索赔金额高达一亿元,这可以看做2012年下半年“3B大战”的继续。在此次索赔案件中,百度称自己的Robots文本中已设定不允许360爬虫进入,而360的爬虫依然对“百度知道”、“百度百科”等百度网站内容进行抓取。其实早在2012年11月初,针对双方摩擦加剧的情况,在中

Public @ 2019-05-13 16:09:21

Sitemap协议类型及包含范围

Sitemap协议是一种用于向搜索引擎提供网站结构信息的标准协议。其包含的内容包括网站中所有页面的URL、页面最后更新时间、页面更新频率等信息。 目前,Sitemap协议一共有以下两种类型: 1. XML Sitemap:用于描述网站的全部网页,包括网页的URL、标识、访问频率、权重等信息。XML Sitemap可以包含多个XML文件,但每个XML文件的大小不能超过50MB。 2. HTML

Public @ 2023-04-18 11:50:23

更多您感兴趣的搜索

0.480989s