Categories


Tags


301重定向怎么进行URL标准化设置?

经常会碰到这样的情况,其他网站链接你的站点时,会用下面的链接:

www.example.com

example.com/

www.example.com/index.html

example.com/index.php

而这样导致:你站点主域名的PR值分散到其他几个URL上。

如果你用301重定向把其他三个URL转到

www.example.com

PR也就集中在主域名:www.example.com 了。

301重定向怎么进行URL标准化设置?

设置.htaccess文件(只适用于linux系统,并需要虚拟主机支持。)

使访问example.com/的时候就会自动转到www.example.com

在.htaccess文件里写上以下代码即可。

RewriteEngine on

RewriteCond %{http_host} ^mydomain.com [NC]

RewriteRule ^(.*)$ http://www.mydomain.com/$1 [L,R=301]

来源:搜外网


Public @ 2017-10-08 16:11:15

robot.txt在SEO中的作用

Robots.txt 是一个网站管理员可通过在站点根目录中放置一个名为robots.txt的文件来让搜索引擎(及其爬虫)知道该如何来收录并处理某些目录或页面,并使索引过程更加有效更加规范。 Robots.txt 的作用是向搜索引擎解释网站中哪些目录和文件希望被搜索引擎收录、哪些不希望收录,以避免搜索引擎抓取到网站误差的内容。如果 robots.txt 被恰当地设置,可以有效提高收录质量和网站

Public @ 2023-03-03 03:00:14

如何利用robots.txt对wordpress博客进行优化

1、禁止索引 /wp-admin:用于管理wordpress网站的控制面板,不允许百度收录,避免流量分散。 User-agent: * Disallow: /wp-admin/ 2、禁止索引/wp-includes:WordPress中的核心文件,利用文件禁止百度爬行,提高访问速度。 User-agent: * Disallow: /wp-includes/ 3、禁止索引/wp-c

Public @ 2023-03-02 23:00:12

如何避免大量重复URL被百度收录

以下是一些避免大量重复URL被百度收录的方法: 1. 使用canonical标签:在所有重复的URL中添加一个canonical标签,以指定主URL,这样百度就会把所有指向这个URL的链接都算作一个页面。 2. 使用301重定向:把所有重复的URL都指向主URL,这样百度就会把所有重定向过来的网页视为同一网页。 3. robots.txt文件:在robots.txt文件中添加Disallow

Public @ 2023-04-24 03:50:09

关于URL组成部分的指南

URL是一个网站标识符,它由多个组成部分组成。下面是有关每个URL组成部分的指南: 1. 协议:URL使用的网络协议。常用的协议是HTTP、HTTPS、FTP、SSH、TELNET等。 2. 主机名:URL指向的主机的名称或IP地址。例如,www.example.com或192.168.1.1。 3. 端口号:指定与主机通信的端口号。如果没有指定端口号,则使用默认端口号。 HTTP的默认端口

Public @ 2023-06-22 13:00:14

更多您感兴趣的搜索

0.528327s