Categories


Tags


URL的优化

网站结构优化是SEO的主要工作之一,对大中型网站来说更是重点和难点。URL的优化是结构优化的基础内容。URL处理不好,经常造成页面收录问题,就更谈不上排名和流量了。其实URL的优化是相对简单的部分,因为是SEO自己完全可以掌控的,只需要注意一些细节。

下面总结几条关于URL优化的经验和技术要求。

1)域名的选择

如果是在五六年年前,我会告诉大家域名中最好放上关键词。不过现在建议大家域名中能放关键词最好,但不要为了放关键词把域名弄的很长,更不要为了放关键词注册带有连词符的域名。

再退一步,为让域名看得清楚,可以放一个连词符,但是不要为了堆积关键词而加连词符。

如果带有关键词的域名不好找,宁可选择一个容易品牌化的短的生僻词,或者新造的词。实际上,真正成为网上大品牌、大站的,极少是包含关键词的域名。有成为大品牌的野心的话,反倒不要用带关键词的域名。

2)描述性

整个URL包括域名,目录名和文件名,在可能的情况下,用具有描述性的单词,尤其是目录名和文件名。让用户看到URL,就可以大致了解这个网页是什么内容。

对中文网站来说,目录名使用简单的英文单词,大多数用户是可以理解的。文件名如果通过文章或产品名称生成,通常会比较长,转换为拼音恐怕易读性有问题,大部分情况下建议使用编号。

3)URL里面的关键词

在可能的情况下,目录名文件名可以放上一些关键词。Matt Cutts在他的一个帖子里面曾经暗示过,URL中的关键词多少对搜索引擎算法有用。

中文网站URL中包含关键词是否对排名没有定论,百度也没表示过意见。我估计即使有点作用,也是微乎其微,不必为了在URL里出现关键词而用中文URL,或用中文词的全拼。

4)URL不可太长

虽然可以考虑在URL中放关键词,但最好不要为了放关键词,而把目录名文件名弄的很长。

在可能的情况下,目录层次最好少一点。不要毫无意义地增加目录层次,比如有的网站把所有页面放进/html/目录下,看不出有任何好处。

虽然搜索引擎判断页面重要性是看网站的逻辑结构,而不是物理结构,目录层次少不一定意味着离首页近,但层次越少,用户看着越简洁。

5)用连词符

URL中目录名文件名单词之间最好用连词符-,不建议用下划线_,也不要用其他允许但很奇怪的字符,如逗号、引号之类。连词符会被Google当作空格处理。百度对待下划线和连词符似乎是一样,所以中文网站这两个都可以,但从清晰度和用户体验上看,我个人还是觉得连词符更好。

6)英文单词和拼音

对英文网站来说,当然URL中的描述性关键词比较好写。对中文网站可以考虑使用拼音。但是对比较长的词,用拼音就不容易读懂,这种情况下还是建议使用英文单词。

另外有的人把目录名、文件名里面放上中文字,这样的URL出现在浏览器地址栏和搜索结果页面的时候,有时候因为编码问题会显示为乱码。虽然搜索引擎可以辨识,但看起来很难看,不建议。

7)URL静态化

URL静态化几乎是必须的。别较真,不要争辩说有很多带有一两个问号的URL都收录的很好。能做的更好也很简单,就不要去跟做的不好的看齐。

8)子域名和目录

子域名在中文网站中很流行,因为百度排名有比较明显的首页优势,SEO们喜欢把尽量多的关键词放在首页上,内页能获得排名的机会很小。而子域名通常被当作独立网站的首页。

做英文网站通常还是建议使用目录,除非有特别需要的时候,最好不要使用子域名。使用目录可以集中权重,管理方便,Google对内页和首页是一视同仁的,内页排名超过大站首页的比比皆是。

2020年底左右开始,百度的首页优势也减少了,内页获得排名的比例有明显提升。

9)大小写

URL中最好统一全部使用小写字母,像Unix/Linux服务器大小写字母是不同处理的,也就是说Index.html和index.html是被当作两个不同的文件。如果一个目录下面的首页是Index.html,访问目录的时候就会出错。在其他情况下大小写混用也经常会造成混乱。

来源:seo每天一贴 Zac 昝辉


Public @ 2016-02-03 16:11:10

内部链接(站内链接)的优化

内部链接优化是指在同一网站内部进行链接的优化,目的是为了提高网站的用户体验和搜索引擎的友好度。以下是内部链接优化的几个方面: 1.关键词内部链接 在网站内部的文章中,通过给关键词添加链接的方式来提高网站的页面权重,也可以让用户更快地发现和阅读相关的文章。 2.增加网站导航 通过增加网站导航菜单,可以提高网站的用户体验和搜索引擎优化,减少用户的跳出率,提高网站的访问量和转化率。 3.注重链

Public @ 2023-06-22 10:50:21

关于robots.txt的二三事

1. Robots.txt是一个协议,用于控制搜索引擎爬虫的访问范围。 2. Robots.txt文件位于网站的根目录下,包含了一些指令告诉爬虫哪些页面可以访问,哪些页面需要限制访问。 3. Robots.txt文件并不会阻止所有爬虫的访问,只有支持Robots.txt协议的爬虫才会遵守文件中的指令。 4. Robots.txt文件中的指令可以根据不同的爬虫进行个性化设置,可以控制不同爬虫访

Public @ 2023-04-11 13:00:34

URL链接优化:网站各个页面采用怎样的URL符合SEO

| 概念解释动态链接:即指在URL中出现“?” 这样的参数符号,并以aspx、asp、jsp、php、perl、cgi为后缀的url。静态链接:是指网页地址或者网页链接中,不带有任何参数的URL。伪静态是指展示出来的是以html一类的静态页面形式,但其实是用ASP一类的动态脚本来处理的。通过浏览器访问地址和真的静态页面没区别。目录形式连接:https://tech.ifeng.com/c/8Ap2

Public @ 2011-12-15 16:12:01

一个页面多条URL链接对网站影响大吗?

很多的网站由于不懂SEO的优化,乱定义URL链接,或者更改URL链接,最终造成了‘一个页面多条URL的情况是非常常见的。最常见的是:伪静态链接、动态链接这样的。如果搜索引擎收录了非常多的‘混合’类型的链接,这样网站的评分就会被大幅度的降低了,这个时候最正确的方式:查看排名,如果排名中两个类型的链接都存在,那么就使用canonical标签来做权威链接的定义。如果只存在某一种类型的链接,那么就把另外一

Public @ 2011-04-11 16:11:11

更多您感兴趣的搜索

0.162576s