Categories


Tags


为什么我们网站查看的快照页面对应的是移动端?

daisylong 提问于 3年 之前

为什么我们站google收录的页面,查看快照,全部对应的是移动端页面。我们已经把移动端页面和PC端页面做了跳转。应该是PC端对应的收录页面是PC端。难道是Google的快照已经开始收录一定端了?但是我看其他站人家都是正常的。这是我们的站:www.raiditem.com.希望老师解答下。

4 个回答

Zac 管理员 回答于 3年 之前

建议你读一下Google移动优先索引这篇帖子。简单说,Google以前是索引PC页面为主,现在已经正式转向移动页面索引为主。

2018年,Google分批讲符合条件的网站转为移动优先索引。到目前为止,大约一半网站已经转移到移动优先索引。你的网站是否已经转了,要看Google Search Console里的通知。

转为移动优先索引的网站,Google抓取、索引的就是移动页面为主了,排名也是以移动页面为标准,快照当然也只有移动页面的了。所以你要先检查网站是否已经转到mobile first index。

daisylong 回答于 3年 之前

谢谢老师的回复。我已经读了你说的,按照上面提到的操作了,然后把移动站添加到Google站长工具里面,第二天就收到mobile first index 的通知。我还有一个问题。现在是不是自适应的网站google 更喜欢一些。 如果我们做了独立站,是不是移动端的SEO部署跟PC的需要不一样了?

Zac 管理员 回复于 3年 之前

虽然从排名角度,独立移动站和响应式设计没有区别,但Google貌似还是偏向响应式设计一些。响应式设计会使优化更简洁直接,比如mobile first index这件事,响应式设计就很自然,就一个版本,所以都会无缝转移。独立移动站就比较复杂了,有的网站移动端和PC端内容、结构都不一样,就没办法转为mobile first index,但长远来说,Google一定会偏向移动索引,独立移动站就比较难办了。移动端和PC端内容、结构一样的话,那为什么还要做独立移动站呢?还不如做成响应式。

Zac 管理员 回复于 3年 之前

移动端的SEO和PC端没有大的差别,只是要确保用户在手机上能快速打开页面,能顺利看清文字,能使用,就行了。

孙明 回答于 3年 之前

请问老师,收录移动端或pc端在排名方面是否有所不同?收录哪个会更好一些?我们用一个同一个操作系统做出来的两个网站,一个网站快照的是手机端,另一个是电脑端,这种情况是什么原因造成的呢?

小蜜 回答于 3年 之前

其实算是正常的。

来源:SEO每天一贴 Zac 昝辉


Public @ 2018-06-14 15:54:03

频繁修改页面标题会被降权吗?

本文是“那些似是而非的SEO观念”系列之三。之一:过去10年来,SEO技术没什么大变化之二:外链现在依然是SEO的最重要部分之一修改标题可能被降权这种观点其实不知道从哪来的,更没看到有什么切实证据。好多年前就实验过,修改标题并不会导致被降权。但多年过去了,看到网上还是有不少人建议不要轻易改标题。修改标题不会被降权首先,可以肯定地说,修改标题并不会被降权。不然为客户提供SEO服务的就全瞎了,标题一改

Public @ 2022-06-11 16:04:46

百度快照都是空白的或者抓取不全是怎么回事,影响排名吗?

前几天有个站长问我,说网站很多页面的快照都是空白的,这怎么办,会不会影响排名!回答:快照空白肯定是会影响排名的,快照空白的主要因素如下:1、页面太大,蜘蛛抓取困难,比如存在大量大图,或者JS文件,或者大量文本JS。2、网站的服务器不稳定,导致的抓取异常。3、页面可能存在一些跳转导致!4、封禁了蜘蛛!5、使用某些不靠谱的高防服务器。来源:A5营销

Public @ 2013-05-29 15:34:31

请问如何查询和分析网站外链?

田田 提问于 3年 之前Zac老师您好,百度的外链分析工具更新时间一直停留在去年,目前有什么外链查询工具可以准确查询网站外链的吗?另外,如何分析外链的效果呢?2 个回答Zac 管理员 回答于 3年 之前目前没有能“准确“查询外链的工具,最多只能大概查询一下。市场上的外链查询工具无非是那几个:Ahrefs、Majestic、Moz Link Explorer、SEMRush,都是国外的,所以查询中文

Public @ 2020-03-08 15:54:04

站内搜索漏洞造成的影响要怎样才能算清理干净呢

muriel 提问于 3年 之前1220 我的一个shopify网站因为站内搜索漏洞被攻击,具体表现是在ahrefs上发现大量垃圾外链指向网站内带有search?q 的页面。导致网站ahrefs排名下降严重。目前情况如下: 1. robots文件中有禁止抓取2. 我们做了站内搜索页面的跳转,如果搜索的是垃圾内容,站内没有内容与之对应,则会跳转到404页面。3.在search页面做了noindex。

Public @ 2015-04-30 15:53:43

更多您感兴趣的搜索

0.657673s