Categories


Tags


叨叨死链这回事儿

经常有站长跑来问小so姐关于死链的问题,比如,我的网站有一些死链,会不会影响网站正常页面的收录;比如,除了404页面或者明显不能正常访问的页面,还有哪些属于死链范畴。

今天,小so姐就来和大家叨叨死链这回事儿。

【简要介绍】

死链其实可以分为三种:协议死链,内容死链,跳转死链。

协议死链,是指通过HTTP协议状态码明确表示网页已经无法访问,即页面打不开、服务器错误等。常见的如404、403、503状态等。

http协议状态码很多,但协议死链首推404,即未找到文件。该状态码通常蜘蛛一般能够识别出来,做相应的删除处理。

例如:

另外,通过一些工具查询状态码为404,就是典型的协议死链。

内容死链,一般是由于网站自身变化引起的,其表现状态为:页面可正常访问(其http状态码为200),但页面中无实质可用信息,对用户无价值。包括但不限于已过期的信息、已关闭的交易、已删除的帖子、空间被关闭等。具体示例可见下文。

针对此类页面,网站应该在明显位置直接给予提示文字,标明网页目前的状态。

内容死链示例:[/i]

[/i]

跳转死链,指网站将无价值的页面统一跳转到某一个页面,例如网站首页等,跳转前后的两个网页主体内容不同,不存在可替代的关系。

【常见疑问】

1、这么多死链类型,那我设置何种死链形态是最好的呢?

答:请站长注意,如果站点需要设置死链,请优先设置死链为协议死链404的状态!我们不建议用户将页面设置为http状态为200的内容死链,也不建议站长设置死链为跳转到首页的跳转死链形式!

2、搜索引擎自己应该是可以检测协议死链(404、403等)的,为什么还需要站长提交?

答:搜索引擎的蜘蛛的确是能够对404页面进行识别,但是蜘蛛去被动的识别网站的死链可能需要较长的时间,不利于网站及时清理在搜索引擎中已收录的死链,所以我们才在站长平台设置了死链提交功能。请站长在处理站点死链的时候,一定要注意收集整理好,然后前往站长平台进行提交。提交后,一旦验证死链真实性,将会比较快速地从搜索引擎删除提交的数据。

提交链接:http://zhanzhang.so.com/?m=DeadlinkSubmit&a=index

3、网站的死链,我不进行死链提交,会不会影响网站其他正常页面的收录?

答:网站存在过多死链,多少都会影响到用户的体验,影响正常页面的收录和展现。所以还望站长能够经常主动检测网站死链的情况,并积极进行提交。

来源:360站长平台


Public @ 2021-07-11 15:37:00

robots.txt文件的格式

robots文件往往放置于根目录下,包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL,or NL作为结束符),每一条记录的格式如下所示:"<field>:<optional space><value><optionalspace>"在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以

Public @ 2015-08-19 16:08:59

robots.txt文件有什么必要?

什么是robots.txt文件?搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。robots

Public @ 2018-10-22 16:09:22

如何避免和处理死链接?

1、网站改版最容易产生死链的改版之前的页面如果有价值尽量不要删除和修改Url,若需要更换域名或Url分配规则,那一定要将之前的url进行301跳转到对应的Url;若老的数据必须删除,那删除的所有页面Url要进行整理和提交死链。2、对发现的死链接如何处理将收集好的所有死链接粘贴到网站根目录的一个文档中,再把文档地址提交到百度资源平台-搜索服务-资源提交-死链提交--添加新数据--填写死链文件地址;若

Public @ 2017-11-05 15:36:52

更多您感兴趣的搜索

0.455109s