Categories


Tags


301重定向怎么进行URL标准化设置?

经常会碰到这样的情况,其他网站链接你的站点时,会用下面的链接:

www.example.com

example.com/

www.example.com/index.html

example.com/index.php

而这样导致:你站点主域名的PR值分散到其他几个URL上。

如果你用301重定向把其他三个URL转到

www.example.com

PR也就集中在主域名:www.example.com 了。

301重定向怎么进行URL标准化设置?

设置.htaccess文件(只适用于linux系统,并需要虚拟主机支持。)

使访问example.com/的时候就会自动转到www.example.com

在.htaccess文件里写上以下代码即可。

RewriteEngine on

RewriteCond %{http_host} ^mydomain.com [NC]

RewriteRule ^(.*)$ http://www.mydomain.com/$1 [L,R=301]

来源:搜外网


Public @ 2017-10-08 16:11:15

禁止搜索引擎收录的方法

1. 什么是robots.txt文件?搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。请注意,仅当

Public @ 2015-10-28 16:08:55

如何使用Robots避免蜘蛛黑洞?

蜘蛛黑洞:蜘蛛黑洞指的是网站通过极低的成本运营,制造出大量和内容相识但参数不同的动态URL ,像一个无限循环的“黑洞”将蜘蛛困住,蜘蛛花费太多的时间在网站,浪费了大量资源抓取的网页为无效网页。如果你的网站存在蜘蛛黑洞现象,尽快的处理好,蜘蛛黑洞不利于网站的收录,也会影响搜索引擎对网站的评分。如何使用Robots避免蜘蛛黑洞?如何利用Robots避免蜘蛛黑洞操作:普通的筛选结果页基本都是使用静态链接

Public @ 2014-02-24 16:09:26

怎样优化URL有利于SEO

优化URL是做SEO的第一步,一个好的URL有这些特点:1、层次越少越好有的URL很深很长层次很多,这种URL就对SEO不是很友好,一个适合SEO的URL应该是3层:第一层域名、第二层定义当前页面属于什么性质、第三层是当前页面的ID。2、分类页采用目录形式,内容页采用内页形式网站的栏目页面、分类页面,采用目录形式的URL,如www.xxx.com/abc;网站的产品页面、新闻页面、内容页面,采用内

Public @ 2015-03-11 16:11:14

更多您感兴趣的搜索

0.428574s