Categories


Tags


网站改版中关于robots.txt文件问题

zbwsmile 提问于 3年 之前

zac老师好,非常感谢你无私的正确的分享对我的SEO工作方面的帮助!

我的站点状况:我有一个老的PC站点(例:www.oldPC.cn,当时还没有对应的WAP站点)进行了网站改版,当时的做法是全站301到新的域名(例:www.newPC.com)下。目前建立一个独立的移动m站(例:m.newPC.com)。通过百度的site语句发现,如果site:m.newPC.com会直接展示原来的PC域名(www.oldPC.cn)。前几天刚把老域名在百度站长里更新了网站改版,正在观察。

我的问题是:oldPC站点的www.oldPC.cn/robots.txt 访问时也被301跳转到www.newPC.com/robots.txt 。我目前觉得这个不正常,网络上百度谷歌都没有相关说明,想得到您的分析与建议,另外如果zac老师或者其他同行看到我的网站描述有什么建议也欢迎交流,响应式移动站点可能最近开发这里做不了。谢谢!

1 个回答

Zac 管理员 回答于 3年 之前

网站换域名时,旧域名robots文件不要自动转向到新域名下的robots文件,并且旧域名robots文件最好删除所有抓取限制,这样搜索引擎在旧域名上的抓取都会被识别到转向至新域名。

zbwsmile 回复于 3年 之前

“旧域名robots文件最好删除所有抓取限制”,是什么意思?我目前操作是全部Disallow了

Zac 管理员 回复于 3年 之前

意思就是全部要allow,全部允许抓取,和你做的正相反。你disallow的话,搜索引擎不能抓,那怎么看到转向到新URL了呢?

Ella 回复于 2年 之前

zac老师,如果不换域名,只是换协议,从HTTP到HTTPS呢?robots文件需要跳转吗?

来源:SEO每天一贴 Zac 昝辉


Public @ 2013-10-12 15:53:42

TF-IDF分词加权算法有用吗?

TF-IDF分词加权算法是一种常用的文本挖掘算法,可以衡量一个词语在文本中的重要程度。该算法基于词频(TF)和逆文档频率(IDF)两个因素进行计算,并对每个词语进行加权处理,以便在文本检索和分类等领域使用。 这个算法是有用的,因为它可以帮助提高文本处理任务的准确性和效率。例如,在搜索引擎中,TF-IDF算法可以通过识别文档中的重要关键词来提高搜索结果的相关性和准确性。而在文本分类任务中,该算法可

Public @ 2023-06-28 06:00:27

百度为什么不收录我的站点?

搜索引擎为什么不收录我的站点呢?因为搜索引擎进行网站索引和排名过程是完全程序自动化的,所以:搜索引擎不会因为一些细小的网站错误而直接删除你的站点,如:某个页面出现乱码。搜索引擎不会因为主观问题而删除你的站点,如:网页上出现对百度不友好的言词。你的情况绝不是特例,其他的网站也会出现你这个情况。只要符合搜索引擎的索引条件,一般情况下是会被收录的。对于新站,百度一般需要一周到一个月的时间才能在搜索结果上

Public @ 2014-11-08 15:55:30

现在的形势做个人博客还有前途和意义吗?

岩兔站 提问于 3年 之前想问下ZAC现在做个人博客还行不行。我也忘了当时为什么突然想起开始做网站,然后就建了岩兔站。最开始每天更一篇,到现在没了热情,一星期才能写一篇。网站也没特别做过SEO,就是写写文章,到现在有将近1年时间,收录和访问量也在慢慢增长,但最近更的少了,增长势头也几乎停止了。之前看过一篇文章,写的就是个人博客无论文章的数量和质量都比不过公司化运行的大网站,刚才又看了新站两个月有更

Public @ 2011-06-24 15:54:08

一个页面对应两个URL正常吗?是否影响优化?

一个页面对应两个URL并不正常,称为重复内容问题。这可能会影响搜索引擎优化,因为搜索引擎无法确定哪一个URL是主要的,因此会分散页面的权重和流量。 可以通过在网站中使用301重定向或使用"rel=canonical"标签来解决这个问题。通过301重定向,可以将所有其他URL重定向到主要URL上,"rel=canonical"标签告诉搜索引擎哪一个URL是主要的。这些措施可以确保页面只有一个URL

Public @ 2023-04-16 06:50:07

更多您感兴趣的搜索

0.424922s