Categories


Tags


URL链接优化:网站各个页面采用怎样的URL符合SEO

| 概念解释

动态链接:即指在URL中出现“?” 这样的参数符号,并以aspx、asp、jsp、php、perl、cgi为后缀的url。

静态链接:是指网页地址或者网页链接中,不带有任何参数的URL。

伪静态是指展示出来的是以html一类的静态页面形式,但其实是用ASP一类的动态脚本来处理的。通过浏览器访问地址和真的静态页面没区别。

目录形式连接:https://tech.ifeng.com/c/8Ap2l5UPFWR

                      https://zhuanlan.zhihu.com/p/267044941

页面形式连接:https://item.jd.com/12737659449.html

如果两种目录形式内容一样,那么,目录形式URL在排名上更有优势一点。并不是整个网站全部是目录形式URL更好,对网站来说,如果页面是分类或者栏目,本身是目录,可以采用目录形式链接,需要合理安排网站页面链接形式。

链接层级/链接长度:

一层形式链接:https://item.jd.com/12737659449.html

二层形式链接:https://zhuanlan.zhihu.com/p/267044941

一般建议做URL层级,应该在三层之内,链接太长对搜索引擎不友好,搜索引擎会把地址截掉,要控制在38个汉字(76个字节)之内。

带#号链接形式:域名+#+id,例如:https://miaosha.jd.com/#100004879997

很多大型网站为了统计各个链接重放效果,统计用户转化率。对搜索引擎来说,它会自动忽略#之后内容,不会导致首页权重流失。

| 推荐URL规则

栏目页面/分类页面

样式:xxx.com/abc/123

产品页面/文章页面

样式1:xxx.com/abc/123.html

样式2:xxx.com/123.html(搜外网)


Public @ 2011-12-15 16:12:01

robots.txt概念和10条注意事项

robots.txt概念如果我们网站内有某些特殊的文件不让搜索引擎收录,那怎么办?答案是:使用一个叫做robots.txt的文件。robots.txt文件告诉搜索引擎本网站哪些文件是允许搜索引擎蜘蛛抓取,哪些不允许抓取。搜索引擎蜘蛛访问网站任何文件之前,需先访问robots.txt文件,然后抓取robots.txt文件允许的路径,跳过其禁止的路径。总结:robots.txt是一个简单的.txt文件

Public @ 2019-12-20 16:09:22

网站误封Robots该如何处理

robots文件是搜索生态中很重要的一个环节,同时也是一个很细节的环节。很多站长同学在网站运营过程中,很容易忽视robots文件的存在,进行错误覆盖或者全部封禁robots,造成不必要损失!那么如果误操作封禁了robots怎么办?今天我们请到了厦门258网站运营负责人——郑军伟,为我们分享网站robots误封禁后该如何操作?【案例背景】网站开发2.0版本,技术选择了在线开发,为了避免搜索引擎抓取开

Public @ 2017-07-10 16:08:54

URL的优化

URL的优化可以通过以下几方面来实现: 1. 简洁明了:URL应该尽量简短,清晰地描述页面的内容。避免使用过长的URL,可使用关键词来描述页面的主题。 2. 使用关键词:在URL中使用关键词可以帮助搜索引擎更好地理解页面的内容。关键词应该与页面的主题相关,但不要过度堆砌关键词。 3. 使用连字符:在URL中使用连字符(-)来分割单词,而不要使用下划线或者空格。连字符可以提高URL的可读性,同

Public @ 2023-07-29 06:00:22

SEO优化为什么不建议使用中文域名?有哪些弊端?

中文URL对于国内搜索引擎的优化效果是肯定的,毕竟有很多现实的实例已经证明了这一点,只是子凡觉得中文可以适当的使用,但是如果不合理的使用其实也会带来一定的困扰吧!从事SEO行业的人都知道页面URL的处理是优化过程中一个非常重要组成部分,例如URL的伪静态、层级精简、树状结构等。这些细节的处理不仅对搜索引擎更友好,用户体验也会有一定的提升,因此这些对URL的处理必定是可以讨好搜索引擎的。而说到用户体

Public @ 2016-03-22 16:12:02

更多您感兴趣的搜索

0.396990s