Categories


Tags


合理的网站结构优化

我们一直在谈论如何给网站做外部优化,比如如何增加外链、到那里推广,但很多站长朋友并不注重网站结构的优化,也就是内部优化,这方面我也很忽略。而这段时间卢松松一直在优化网站结构,也来谈谈如何做好网站结构的优化,本文列举了很多我常见的问题,希望对大家有用。

合理的网站结构优化 SEO优化 网站优化 SEO推广 第1张

(网站结构优化示意图)

1:URL规范化

URL规范化是指搜索引擎会挑选最合适的URL作为真正的网址的过程。例如,一个新站在你不做任何设置的情况下其实会出现4个URL,例如:

http://lusongsong.com

https://lusongsong.com/index.html

http://www.lusongsong.com

https://lusongsong.com/index.html

那么在搜索引擎收录时就会出现很多麻烦,比如出现重复页面,根据我的经验来看,我们可以做一次301重定向,让域名统一。但还不够,而Index.html依然会被收录,这时我们把站内链接统一改为根域名,很多站长会忽略Index.html这个问题。

如果逼不得已使用不同域名显示相同内容,我们使用使用rel="canonical"标签,加入的上面。详情移步到Google站长帮助说明,查看canonical用法。

2:相对路径与绝对路径

无论是导航、还是内容里的超链接,有的人用相对路径、有的用绝对路径,一下是实例:

相对路径:<a target="_blank" href="../reed/175.html">文字</a>

绝对路径:<a target="_blank" href="https://lusongsong.com/reed/175.html">文字</a>

根据我博客的观察来看,注重SEO优化的朋友使用绝对路径效果更好,尤其是图片如果使用绝对路径,搜索引擎很容易就收录你的站内图片,利于抓取。而且做RSS输出时,超链接同样会保留,容易引入流量。而相对路径节省代码不说,而且不容易被采集,但这是次要的。

3:文章用目录结构还是.html

很多站长认为目录的权重比.html权重高,所以文章部分也使用目录形式,卢松松绝对完全没有必要,而且我发现单篇流量很少的文章的目录还不如.html权重高。一些专题页使用目录结构是不错的选择。

4:文章内部链接一定要做好

内链、内链,我认为最关键的内链就在文章页,也就是正文中的链接,很多CMS程序都有自动插入关键词超链接的插件,但我觉得不如用手工方式插入超链接,一来是这样的内链更精准,二来是方便用户阅读其相关内容。

5:nofollow的使用

现在Google和百度都支持Nofollow,Nofollow是站长最常使用的标签之一了,在超链接中加入rel="canonical"标签,则表明网页权重不会专递到链接页,很多站长用这个来给新手做友情链接。

Nofollow在网站结构优化中也有很重要的作用,比如网站的“关于我们”、“帮助”和“广告说明”这些页面都是全站链接,完全是为了给用户看的,有没有权重都无所谓,所以我们可以在不需要自身专递权重的网页中加入Nofollow。

6:避免页脚堆积关键词

我见过很多网站为了做SEO,在页脚堆积了大量关键词,以为这样可以做好关键词优化,其实这种做法很可能被降权,因为搜索引擎已经能判断出这种做法了。

7:用二级目录还是二级域名

这个问题在之前的博文中已经讨论过了(到底是用二级域名还是二级目录?),有兴趣的朋友可以看看,简单来吧,如果你觉得新建立的网站和主网站差不多,就用二级目录,如果和主网站内容完全不同就用二级域名,比如松松软件站。

8:相关文章的使用

新人建站很容易犯的一个错误是添加无数Tag标签,我也这样干过,这样做的目的是为了提高相关文章的数量,我们知道相关文章无论是SEO优化还是对用户都有很大的好处,但很多不相关的文章进入相关文章列表,结果搜索同一个标签的时重复文章太多,导致Tags对用户体验毫无意义。

写在最后:

细节见真知合理的网站结构优化是正确表达网站的基本内容及其内容之间的层次关系,使得用户在网站中浏览时可以方便地获取信息,是增加用户体验最直接的一个途径,无论对用户还是对搜索引擎都有着非常重要的意义。

来源:卢松松博客


Public @ 2012-05-08 16:12:06

robot.txt在SEO中的作用

鉴于网络安全与隐私的考虑,搜索引擎遵循robots.txt协议。通过根目录中创建的纯文本文件robots.txt,网站可以声明不想被robots访问的部分。每个网站都可以自主控制网站是否愿意被搜索引擎收录,或者指定搜索引擎只收录指定的内容。当一个搜索引擎的爬虫访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果该文件不存在,那么爬虫就沿着链接抓取,如果存在,爬虫就会按照该文

Public @ 2023-01-27 16:09:31

哪些网站的目录需求运用robots.txt文件制止抓取

1. 银行和金融机构的网站,因为这些网站可能包含敏感信息,例如客户的个人和财务信息。 2. 医疗保健机构的网站,因为这些网站可能包含个人医疗信息。 3. 艺术、音乐和影片网站,因为这些网站可能包含受版权法保护的内容。 4. 政府网站,特别是警察局和情报机构的网站,因为这些机构的网站可能包含安全敏感信息。 5. 搜索引擎的漏洞报告网站,因为这些网站可能敏感地显示诸如数据库配置、文件位置等敏感

Public @ 2023-06-15 06:00:13

建立符合搜索抓取习惯的网站

编者按:前两周简要地给大家介绍了搜索抓取系统工作原理,根据该工作原理今天简要介绍一下如何建立网站是符合搜索引擎抓取系统习惯的。1、简单明了的网站结构Spider抓取相当于对web这个有向图进行遍历,那么一个简单明了结构层次分明的网站肯定是它所喜欢的,并尽量保证spider的可读性。(1)树型结构最优的结构即“首页—频道—详情页”;(2)扁平首页到详情页的层次尽量少,既对抓取友好又可以很好的传递权重

Public @ 2021-12-30 16:12:04

如何进行内容与结构优化

内容与结构的优化,在站内优化中占很大的比例,一般包括首页、栏目页内页和各种聚合页面的优化,分为以下四个方面:1、中间商品展示栏为所有商品图片增加alt"图片注释,注释直接调用商品名称即可。2、商品分类页在大型广告栏上方增加频道标题与简短描述般60~80个中文字为宜。为所有商品图片增加alt="图片注释,注释直接调用商品名称即可,这样做的好处是当图片不能完全显示的时候还能保持文字

Public @ 2015-04-10 16:12:07

更多您感兴趣的搜索

0.413911s