Categories


Tags


SEOer必看的URL优化方法

URL是统一资源定位符,对可以从互联网上得到的资源的位置和访问方法的一种简洁的表示,是互联网上标准资源的地址。

我们看到的互联网上的每个文件都有一个唯一的URL,它包含的信息指出文件的位置以及浏览器应该怎么处理它。

URL优化也需要讲究一些准则,按照以下方法优化下去,搜索引擎会更加喜爱你的网站哦。

URL优化方法

1、文件和目录的描述性名称一致

对英文网站来说,目录名称以及文件名应该具备一定的描述性,以便于用户知道这个URL大致是一个什么样的网页或者内容。

例如com/photoshop/ 看就知道是与Photoshop相关的网页。

2、URL越短越好

虽然对搜索引擎来说,只要URL不超过1000个字母收录起来都没问题,但是短URL更加有利于传播。

做链接时短URL复制很简单,长的却很难,有时不完整复制下来,容易出现404错误。

3、URL中包含关键词

URL中出现关键词也能提高URL的相关性,对搜索引擎的排名有一定帮助。

关键词出现得越靠前越好,也就是说出现在域名中最好,其次是出现在目录名中,效果最小的是出现在文件名中,不过切不可为了出现关键词而堆积。

4、目录或文件格式

采用目录形式的一个优点在于以后如果网站更换编程语言,URL可以不必变化,也不用经特殊处理。文件形式的URL可能文件扩展名会变化,除非做URL重写。

5、URL字母全部小写

URL字母全部小写容易人工输入,优点在于不会因为大小写掺杂而犯错。

6、目录层次尽量少

物理结构层次越少越好,分层越多的,目录层次也必然增多,尤其是静态化URL时,尽量使用比较少的目录层次,搜索引擎来比较喜欢目录层次少的页面。

7、连词符的使用

一般建议使用“-” 符号,如“健康减肥-减肥效果”,不要使用下划线或其他更为奇怪的字符。

8、避免太多参数

尽可能使用静态URL。如果不能实现静态URL,那动态URL须减少参数。一般建议2-3个参数之内。参数多不利于用户体验也不利于搜有可能造成收录问题。

来源:搜外网


Public @ 2019-07-16 16:11:14

robots.txt使用教程

robots.txt 是一个文本文件,用于指示搜索引擎爬虫哪些页面可以被抓取,哪些页面不应该被抓取。在建立一个网站时,可以通过 robots.txt 控制搜索引擎爬虫对网站的访问,以达到更好的SEO效果。以下是robots.txt的使用教程。 步骤1:新建 robots.txt 文件 在网站的根目录下,新建一个名为 robots.txt 的文本文件。 步骤2:编辑 robots.txt 文件

Public @ 2023-04-18 01:00:34

从基础到精通:认识网站301重定向的那些事

网站301重定向是指将旧的URL地址重定向到新的URL地址上,主要是为了避免搜索引擎和用户访问失效的页面,同时还可以保留原有的页面权重和排名。 以下是了解网站301重定向的一些基础知识: 1. 什么是301重定向? 301重定向是一种HTTP状态码,它平稳地将原始URL指向一个新的URL地址,使搜索引擎和用户自动跳转到新的页面。 2. 为什么需要301重定向? 301重定向可以帮助用户访

Public @ 2023-05-30 05:50:20

怎样优化URL有利于SEO

优化URL是做SEO的第一步,一个好的URL有这些特点:1、层次越少越好有的URL很深很长层次很多,这种URL就对SEO不是很友好,一个适合SEO的URL应该是3层:第一层域名、第二层定义当前页面属于什么性质、第三层是当前页面的ID。2、分类页采用目录形式,内容页采用内页形式网站的栏目页面、分类页面,采用目录形式的URL,如www.xxx.com/abc;网站的产品页面、新闻页面、内容页面,采用内

Public @ 2015-03-11 16:11:14

更多您感兴趣的搜索

0.657493s