Categories


Tags


网站改版中关于robots.txt文件问题

zbwsmile 提问于 3年 之前

zac老师好,非常感谢你无私的正确的分享对我的SEO工作方面的帮助!

我的站点状况:我有一个老的PC站点(例:www.oldPC.cn,当时还没有对应的WAP站点)进行了网站改版,当时的做法是全站301到新的域名(例:www.newPC.com)下。目前建立一个独立的移动m站(例:m.newPC.com)。通过百度的site语句发现,如果site:m.newPC.com会直接展示原来的PC域名(www.oldPC.cn)。前几天刚把老域名在百度站长里更新了网站改版,正在观察。

我的问题是:oldPC站点的www.oldPC.cn/robots.txt 访问时也被301跳转到www.newPC.com/robots.txt 。我目前觉得这个不正常,网络上百度谷歌都没有相关说明,想得到您的分析与建议,另外如果zac老师或者其他同行看到我的网站描述有什么建议也欢迎交流,响应式移动站点可能最近开发这里做不了。谢谢!

1 个回答

Zac 管理员 回答于 3年 之前

网站换域名时,旧域名robots文件不要自动转向到新域名下的robots文件,并且旧域名robots文件最好删除所有抓取限制,这样搜索引擎在旧域名上的抓取都会被识别到转向至新域名。

zbwsmile 回复于 3年 之前

“旧域名robots文件最好删除所有抓取限制”,是什么意思?我目前操作是全部Disallow了

Zac 管理员 回复于 3年 之前

意思就是全部要allow,全部允许抓取,和你做的正相反。你disallow的话,搜索引擎不能抓,那怎么看到转向到新URL了呢?

Ella 回复于 2年 之前

zac老师,如果不换域名,只是换协议,从HTTP到HTTPS呢?robots文件需要跳转吗?

来源:SEO每天一贴 Zac 昝辉


Public @ 2013-10-12 15:53:42

中英文网站用同一域名,对SEO有什么影响?

问题:国内客户用户访问到中文内容,国外客户访问到英文内容,但进入的都是www.xxx.com,请问这种情况会影响百度SEO吗?回答:不建议使用混合的形式做显示,会100%影响到网站排名效果,而且是‘坏’的影响!国外域名可以使用子域名来做,这样就不会有影响了!来源:A5营销

Public @ 2016-10-04 15:25:28

如何解决百度spider无法抓取的问题?

1. 检查 Robots.txt 文件:确保 Robots.txt 文件中没有阻止百度蜘蛛访问您的网站。您可以使用“robots.txt 分析器”来检查文件是否正常工作。 2. 确保网站可访问:确保您的网站可以访问,并且没有被服务器防火墙或CDN屏蔽。 3. 站点结构优化:确保您的网站结构清晰,页面链接符合标准。由于百度蜘蛛是基于链接方式爬行的,所以优化网站内部链接是提高抓取效率的关键。 4

Public @ 2023-04-08 08:50:38

seo如何进阶提升?

1. 持续学习和更新技能:不断学习最新的 SEO 知识和技能,学习其他数字营销领域的知识,如社交媒体营销,内容市场营销等,来拥有更全面的数字营销知识。 2. 深入了解搜索引擎算法:SEO 算法在不断发展和更新,了解搜索引擎算法和特定的排名因素是提高 SEO 技能的关键。 3. 优化网站用户体验:随着用户体验在搜索引擎排名中的重要性不断提高,进行网站优化,提高用户满意度是非常关键的。 4. 数

Public @ 2023-04-19 16:50:37

新建网站可以创建二级域名吗?

woshijiuxian 提问于 3年 之前老师请问,新创建一个网站,可以开通二级域名吗?对于seo有何影响?之前听说开通二级域名会分散权重,是这样的吗?还有就是网站开通二级域名需要具备什么条件吗?2 个回答Zac 管理员 回答于 3年 之前技术上,任何域名都可以开通二级域名,不需要具备什么条件,和新站老站也没有任何关系。从SEO角度,二级域名本身并不会分散权重,但通常把内容放在二级域名要很慎重,

Public @ 2017-06-04 15:53:50

更多您感兴趣的搜索

0.126839s