Categories


Tags


SEOer必看的URL优化方法

URL是统一资源定位符,对可以从互联网上得到的资源的位置和访问方法的一种简洁的表示,是互联网上标准资源的地址。

我们看到的互联网上的每个文件都有一个唯一的URL,它包含的信息指出文件的位置以及浏览器应该怎么处理它。

URL优化也需要讲究一些准则,按照以下方法优化下去,搜索引擎会更加喜爱你的网站哦。

URL优化方法

1、文件和目录的描述性名称一致

对英文网站来说,目录名称以及文件名应该具备一定的描述性,以便于用户知道这个URL大致是一个什么样的网页或者内容。

例如com/photoshop/ 看就知道是与Photoshop相关的网页。

2、URL越短越好

虽然对搜索引擎来说,只要URL不超过1000个字母收录起来都没问题,但是短URL更加有利于传播。

做链接时短URL复制很简单,长的却很难,有时不完整复制下来,容易出现404错误。

3、URL中包含关键词

URL中出现关键词也能提高URL的相关性,对搜索引擎的排名有一定帮助。

关键词出现得越靠前越好,也就是说出现在域名中最好,其次是出现在目录名中,效果最小的是出现在文件名中,不过切不可为了出现关键词而堆积。

4、目录或文件格式

采用目录形式的一个优点在于以后如果网站更换编程语言,URL可以不必变化,也不用经特殊处理。文件形式的URL可能文件扩展名会变化,除非做URL重写。

5、URL字母全部小写

URL字母全部小写容易人工输入,优点在于不会因为大小写掺杂而犯错。

6、目录层次尽量少

物理结构层次越少越好,分层越多的,目录层次也必然增多,尤其是静态化URL时,尽量使用比较少的目录层次,搜索引擎来比较喜欢目录层次少的页面。

7、连词符的使用

一般建议使用“-” 符号,如“健康减肥-减肥效果”,不要使用下划线或其他更为奇怪的字符。

8、避免太多参数

尽可能使用静态URL。如果不能实现静态URL,那动态URL须减少参数。一般建议2-3个参数之内。参数多不利于用户体验也不利于搜有可能造成收录问题。

来源:搜外网


Public @ 2019-07-16 16:11:14

搜索引擎的Robots协议

robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。通常认为,robots.txt文件用来搜索引擎对目标网页的抓取。robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。对于Google来说,使用robots也未必能阻止Google将网址编入索

Public @ 2018-04-08 16:09:21

中文链接影响SEO优化吗?

中文链接被搜索引擎抓取的时候是以‘转码’形式而出现的,而转码类型的URL链接短一点没事,但是如果中文URL太长,那么会造成转码URL也变的非常长,而较长的URL链接则是100%会影响搜索引擎抓取的。所以,我们正常在网站优化的过程中,尽量避免撰写中文URL链接,英文的、字母的是首选!来源:A5营销

Public @ 2011-07-26 16:05:02

更多您感兴趣的搜索

0.502254s