Categories


Tags


301重定向怎么进行URL标准化设置?

经常会碰到这样的情况,其他网站链接你的站点时,会用下面的链接:

www.example.com

example.com/

www.example.com/index.html

example.com/index.php

而这样导致:你站点主域名的PR值分散到其他几个URL上。

如果你用301重定向把其他三个URL转到

www.example.com

PR也就集中在主域名:www.example.com 了。

301重定向怎么进行URL标准化设置?

设置.htaccess文件(只适用于linux系统,并需要虚拟主机支持。)

使访问example.com/的时候就会自动转到www.example.com

在.htaccess文件里写上以下代码即可。

RewriteEngine on

RewriteCond %{http_host} ^mydomain.com [NC]

RewriteRule ^(.*)$ http://www.mydomain.com/$1 [L,R=301]

来源:搜外网


Public @ 2017-10-08 16:11:15

搜索引擎的Robots协议

robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。通常认为,robots.txt文件用来搜索引擎对目标网页的抓取。robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。对于Google来说,使用robots也未必能阻止Google将网址编入索

Public @ 2018-04-08 16:09:21

URL是什么?URL里包含关键词对收录有帮助吗?

URL是什么URL是统一资源定位符,对可以从互联网上得到的资源的位置和访问方法的一种简洁的表示,是互联网上标准资源的地址。互联网上的每个文件都有一个唯一的URL,它包含的信息指出文件的位置以及浏览器应该怎么处理它URL结构由两部分组成,第一部分是协议,就是大家在网址前边看到的一串字母,最常见的就是HTTP和HTTps,一般在下图所示的位置。第二部分就是大家最常见的服务器名称或者IP地址,通俗点来说

Public @ 2013-12-29 16:11:13

如何避免大量重复URL被百度收录

以下是一些避免大量重复URL被百度收录的方法: 1. 使用canonical标签:在所有重复的URL中添加一个canonical标签,以指定主URL,这样百度就会把所有指向这个URL的链接都算作一个页面。 2. 使用301重定向:把所有重复的URL都指向主URL,这样百度就会把所有重定向过来的网页视为同一网页。 3. robots.txt文件:在robots.txt文件中添加Disallow

Public @ 2023-04-24 03:50:09

更多您感兴趣的搜索

0.533632s