Categories


Tags


建立符合搜索抓取习惯的网站

编者按:前两周简要地给大家介绍了搜索抓取系统工作原理,根据该工作原理今天简要介绍一下如何建立网站是符合搜索引擎抓取系统习惯的。

1、简单明了的网站结构

Spider抓取相当于对web这个有向图进行遍历,那么一个简单明了结构层次分明的网站肯定是它所喜欢的,并尽量保证spider的可读性。

(1)树型结构最优的结构即“首页—频道—详情页”;

(2)扁平首页到详情页的层次尽量少,既对抓取友好又可以很好的传递权重。

(3)网状保证每个页面都至少有一个文本链接指向,可以使网站尽可能全面的被抓取收录,内链建设同样对排序能够产生积极作用。

(4)导航为每个页面加一个导航方便用户知晓所在路径。

(5)子域与目录的选择相信有大批的站长对此有疑问,在我们看来,当内容较少并且内容相关度较高时建议以目录形式来实现,有利于权重的继承与收敛;当内容量较多并且与主站相关度略差时建议再以子域的形式来实现。

2、简洁美观的url规则

(1)唯一性网站中同一内容页只与唯一一个url相对应,过多形式的url将分散该页面的权重,并且目标url在系统中有被滤重的风险;

(2)简洁性动态参数尽量少,保证url尽量短;

(3)美观性使得用户及机器能够通过url即可判断出页面内容的主旨;

我们推荐如下形式的url:url尽量短且易读使得用户能够快速理解,例如使用拼音作为目录名称;同一内容在系统中只产生唯一的url与之对应,去掉无意义的参数;如果无法保证url的唯一性,尽量使不同形式的url301到目标url;防止用户输错的备用域名301至主域名。

3、其他注意事项

(1)不要忽略倒霉的robots文件,默认情况下部分系统robots是封禁搜索引擎抓取的,当网站建立后及时查看并书写合适的robots文件,网站日常维护过程中也要注意定期检查;

(2)建立网站sitemap文件、死链文件,并及时通过百度站长平台进行提交;

(3)部分电商网站存在地域跳转问题,有货无货建议统一做成一个页面,在页面中标识有无货即可,不要此地区无货即返回一个无效页面,由于spider出口的有限性将造成正常页面无法收录。

(4)合理利用站长平台提供的robots、sitemap、索引量、抓取压力、死链提交、网站改版等工具。

如果大家对搜索抓取还有别的疑问,大家可以到[学堂同学汇][学习讨论] 《建立符合搜索抓取习惯的网站》讨论帖中发表自己的看法,我们的工作人员会关注这里并与大家进行探讨。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2021-12-30 16:12:04

robot.txt在SEO中的作用

Robots.txt 是一个网站管理员可通过在站点根目录中放置一个名为robots.txt的文件来让搜索引擎(及其爬虫)知道该如何来收录并处理某些目录或页面,并使索引过程更加有效更加规范。 Robots.txt 的作用是向搜索引擎解释网站中哪些目录和文件希望被搜索引擎收录、哪些不希望收录,以避免搜索引擎抓取到网站误差的内容。如果 robots.txt 被恰当地设置,可以有效提高收录质量和网站

Public @ 2023-03-03 03:00:14

什么是网站树状结构?

树状结构不是指的URL的层次,而是指的网站的结构,SEO优化网站结构一般来说网站结构为树状结构比较吸引搜索引擎喜欢,根目录下以目录形式分成多个产品分类,再每个产品分类放置属于这个分类的产品页面。举个例子:当你进入图书馆的时候,会看到图书馆以学科的内容分成几大类,每一大类下分许多小类,每一小类下再分子小类。最后,每一种书都可以分到某一个类目下,每一个类目都有一个类号 。同理搜索引擎希望网站的类目都是

Public @ 2019-12-22 16:12:10

网站结构有哪些类型1:什么是树状结构

我们都知道,搜索引擎喜欢的网站结构是树状结构,树状结构符合人们对知识的归类习惯。比如:图书馆的阅览室分为:自然科学阅览室、人文科学阅览室、报刊杂志阅览室。这几个阅览室内的书架又分为:自然科学阅览室:数学、物理、化学…人文科学阅览室:哲学、诗歌、小说…每个书架又会详细划分,比如数学有:高等数学、基础数学等。搜索引擎的数据库可以类比为一个超级图书馆,每个网站相当于这个超级图书馆某阅览室里的一个小书架。

Public @ 2019-06-10 16:12:09

更多您感兴趣的搜索

0.491548s