Categories


Tags


关于谷歌收录的问题

kuriko 提问于 3年 之前

1.用site指令查网站收录情况的时候,同样的搜索内容,Google.com的搜索结果比Google.jp(我们是做日本市场的)的收录量多了一倍,请问这是为什么?两者的差额数据算作被谷歌收录吗?

2.影响收录的因素,除了原创内容,技术上有没有需要特别注意的地方呢?

期待您的回复,多谢!

1 个回答

Zac 管理员 回答于 3年 之前

和其它查询一样,site:指令的结果依然是个搜索结果,所以返回的结果就涉及排名算法,其中就会包含各种过滤、惩罚之类的,比如重复内容页面也许就被去掉了。而不同语种、不同国家的Google版本大多会有算法的不同,核心排名算法是一样的,但肯定会针对不同语种做些调整。这种算法的差别大概是造成site:指令结果数不一样的原因。

更准确的查询收录数的方法是看Google Search Console里的数据,还给出了随时间变化的曲线,还列出了各种可能的错误,可以看各目录收录情况等等,有用的多。

影响收录的原因大致包括:

域名权重,权重高能带动的页面数越多,权重低,爬行深度可能不够,收录也受影响。

网站链接结构,包括主导航、过滤条件、翻页、交叉链接等等。要收录,至少先要被发现。大网站这是个不好调整的问题。

sitemap.xml文件提交和及时更新。发现页面的辅助途径。

抓取配额是否足够。和服务器负载、页面打开速度、网站权重、无效页面的多少等相关。

robots文件、noindex、nofollow、canonical标签、301转向、JS的组合使用,要很清楚各自功能,不要产生冲突。

来源:SEO每天一贴 Zac 昝辉


Public @ 2012-08-19 16:04:07

网站每天采集内容会降权吗

问题:我的网站没有原创,用火车头采集会降权吗?回答:搜索引擎不要求网站一定做原创,只要求提供优质内容,所以不做原创不会降权!但是如果只是‘纯粹的克隆’形式的采集站,那么就没有生存的必要了。要知道:内容的选择性,很重要!这篇内容是不是有转载的必要?为什么要做采集。你把多个网站的优质内容聚合下,一样可以。来源:A5营销

Public @ 2014-05-29 15:38:25

Baiduspider无法正常抓取

安小雨 提问于 3年 之前Baiduspider无法正常抓取,服务器错误:爬虫发起抓取,httpcode返回码是5XX1 个回答Zac 管理员 回答于 3年 之前这个貌似没什么好回答的。500或5XX错误就是服务器错误,检查服务器,问工程师、程序员啊,为什么会返回5XX错误。这个和搜索引擎算法、和SEO都没有别的关系了,完全是服务器问题。来源:SEO每天一贴 Zac 昝辉

Public @ 2012-08-04 16:04:01

长尾关键词通过二级栏目下的文章获得排名?

合肥良马科技 提问于 3年 之前为什么很多长尾关键词通过二级栏目下的文章获得排名,搜索引擎不打击呢?我猜应该是通过黑帽技术,利用这些二级栏目高权重,方便收录,获得快速排名的优势。4 个回答Zac 管理员 回答于 3年 之前没看明白,用二级栏目下的文章页面获得长尾词排名,搜索引擎为什么要打击?关键词在网站的分布就应该是这样的啊。首页做查询量最大、难度通常也最高的几个词。查询量、难度次一级的放在目录首

Public @ 2012-12-16 15:53:17

更多您感兴趣的搜索

0.572095s