Categories


Tags


一站式解决网站死链问题

在网站日常运营,死链是难免会产生的,不仅影响了用户体验,也影响了搜索效果;针对这一现象,我们邀请了站长社区版主—三木为大家分享死链处理心得。

本文主要讲述死链对网站的影响;死链是如何产生的;如何发现死链;如何正确处理死链。

一、大量死链对搜索引擎来讲,有什么影响?

1、死链率过高,会影响搜索引擎对网站的评分。

2、搜索引擎对每个网站每天抓取的频次是限额的,若网站存在大量死链,会浪费掉抓取配额并影响其他正常页面的抓取。

3、过多死链对网站用户来讲也是体验不好的表现。

二、死链接是如何产生的?

1、网站内部添加了错误的内部链接

编辑失误或者程序员大意让页面产生了不存在的页面。

2、网站短暂无法访问

因为服务器、空间或程序问题导致网站短暂无法访问,产生大量返回码为5开头的服务器错误页面。

3、外部链接错误

用户或者站长在站外发布了错误URL;别的网站复制或采集了你们含有错误链接的页面。

4、爬虫提取了不完整的URL

个别爬虫在提取页面URL的时候,因为URL中有不规则字符或者URL与后边的文字链接起来,导致URL失效。

5、网站改版

如果你的网站已经改版或者将要改版,一定要注意死链问题,很多网站改版后,之前的老页面直接删除,导致了大量的死链接。

6、管理员删除页面

网站管理员删除被黑、广告、过时、被灌水页面导致很多死链接。

三、如何发现网站中存在的死链接?

1、百度站长工具中的抓取异常工具可以查看最近一个月产生的各种死链,并支持导出功能。

2、使用相关爬虫软件,比如Xenu,此类工具可以爬取全站所有链接并分析页面状态,分析完成后,支持导出功能,提取死链接即可。

3、在网站运营中,特别是论坛,经常需要删除某些页面,在删除页面时一定要记录对应的Url以便后期提交死链。

通过上述两种办法提取的死链列表,一定要经过删重和验证,比如用wps表格进行删除重复链接,然后再使用Http状态批量查询工具验证下是否确实是死链接。

四、如何避免和处理死链接?

1、网站改版最容易产生死链的

改版之前的页面如果有价值尽量不要删除和修改Url,若需要更换域名或Url分配规则,那一定要将之前的url进行301跳转到对应的Url;若老的数据必须删除,那删除的所有页面Url要进行整理和提交死链。

2、对发现的死链接如何处理

将收集好的所有死链接粘贴到网站根目录的一个文档中,再把文档地址提交到百度资源平台-搜索服务-资源提交-死链提交--添加新数据--填写死链文件地址;若大量死链具有一定的规则,如某个目录下全部为死链接,可提交规则死链。

相关注意事项:

1、在百度站长工具中提交死链前,一定要确保提交的死链数据不存在活链接。一旦存在活链,会显示提交失败导致无法删除。

2、由于很多网站程序问题,很多打不开的页面返回码并非404,这是一个大问题,比如明明是打不开的页面返回码是301、200、500,如果是200的话,会导致网站中出现不同URL获取相同内容。比如我的一个站,社区的帖子删除后,返回码却是500,后期发现了,立马进行了处理。大家尽量找出所有错误URL格式,并设置HTTP状态码为404。

3、把所有的错误页面找到后,一定要寻找此类页面URL相同特征,并且和正常页面的特征有区分,写对应规则到robots文件中,禁止蜘蛛抓取,就算你已经在站长工具中提交了死链,也建议robots封禁抓取。

4、robots只能解决蜘蛛不再抓取此类页面,但解决不了已经收录页面的快照删除问题,若你的网站被黑,删除了被黑页面,除了robots封禁被黑页面外,还应该将这些页面提交死链。提交死链是删除被黑页面快照的最快办法。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2014-05-03 15:36:54

K站

K站是一个网络社交平台,也是中国最大的ACG(动画、漫画、游戏)综合性社区之一。它提供了用户发布原创作品、分享ACG相关资讯、交流社区话题等功能。K站以ACG为核心内容,吸引了大量的动漫迷、游戏玩家、二次元文化爱好者等用户。在K站上,用户可以创建个人主页、发表动态、上传作品、加入社团等,与其他用户互动交流。 K站还设有一个特殊的虚拟角色系统,称为"扭蛋"。用户可以获得虚拟角色卡片并培养它们,与其

Public @ 2023-07-24 02:00:26

网站被镜像了怎么办?

1. 网站镜像意味着网站的某些内容和网页在某些外部网站上已被复制; 2. 如果网站被镜像,可以尝试联系复制网站的管理者,请求他们将网站镜像删除。 3. 可以给相关的搜索引擎提交侵权投诉,通知他们将网站镜像从搜索结果中移除; 4. 可以尝试使用一些反链程序和防盗链技术,以阻止网站镜像的复制,并保护网站的内容; 5. 同时可以在自己的网站上添加robots.txt文件,告诉爬虫程序不要爬取

Public @ 2023-02-27 06:00:23

搜索引擎自己应该是可以检测协议死链(404、403等)的,为什么还需要站长提交?

因为,搜索引擎对各类网页的抓取过程可能存在不可抗力的因素,比如网络延迟、缓存策略、主机垮掉等,可能会导致抓取异常,无法正常检测死链。这时就需要站长通过提交,及时通知搜索引擎,让其及时发现并修复死链。

Public @ 2023-03-03 04:48:09

死链对网站的影响

用户体验感:换位思考,当我们满怀期待地打开一个网址,收到的反馈确是”您访问的网址无效“或者”页面不存在“的结果,大部分用户都会直接关掉走人,而如果多次出现这种情况,则不仅会造成流量的流失也接对网站的信用产生了影响。耗费资源:搜索引擎爬虫在抓取网站的页面时不仅要耗费搜索引擎自己服务器的资源,也会对网站的服务器造成压力,而死链无论是对于搜索引擎还是网站本身,都是一场空,是在浪费资源。影响网站排名:搜索

Public @ 2017-10-30 15:56:19

更多您感兴趣的搜索

0.482918s