Categories


Tags


复制内容如何让搜索引擎快速收录呢?

Rock 提问于 12月 之前

像淘宝,天猫都是用robots.txt协议禁止搜索引擎抓取收录。这样的话我把淘宝天猫的产品及产品介绍详情复制出来,放到自己网站上。测试过是收录的,就是收录量太少,我用的Wordpress程序做网站,而且基本的seo也会去做,sitemap也向搜索引擎提交过地址。相比不是淘宝天猫复制的网站内容就收录快。现在的问题淘宝天猫复制出来的内容收录量太少,收录也非常缓慢。请问下zac,有木有什么好的建议和方法。

3 个回答

Zac 管理员 回答于 12月 之前

淘宝天猫的内容别的地方不一定就没有,如果别的地方早就有了,你再复制过来,一样是复制内容。

搜索引擎并没有办法知道你是复制淘宝天猫的,还是自己写的,只能判断是否重复。

冯耀宗 回答于 12月 之前

1、首先我认为robots只是一个协议,并不能禁止搜索引擎爬取,所以搜索引擎数据库很有可能有淘宝天猫的网页数据,只是没办法,要遵守协议,不敢放出来而已。

2、搜索引擎其实很想收录淘宝、天猫的内容,毕竟他们的页面是高质量比较高,品牌也比较强,只是淘宝天猫不想依赖百度,所以当初选择断臂求生。把百度禁了。

3、如果你的站点品牌比较大,百度其实和希望你去把淘宝天猫的内容转载过来,毕竟他想收录淘宝天猫,但淘宝天猫不允许,但你帮百度转过来,这对百度是个好事情,但如果说你不是大品牌的网址,那可能有点麻烦,比较淘宝天猫都是电商页面,涉及到产品搜索引擎管控相对而言都比较严格,毕竟担心你小网站抄真详情页卖假货。

来源:SEO每天一贴 Zac 昝辉


Public @ 2015-06-17 16:04:22

关于博客分页noindex

问题 博客分页noindex是搜索引擎优化的一项重要技术手段,其作用是避免搜索引擎索引过多内容,以及防止搜索结果中出现重复内容。 博客分页noindex主要通过使用robots.txt、x-robots-tag和meta标签等方式来实现,具体可以在 robots.txt 文件中加入以下代码: User-agent: * Disallow: /page/* 这样,当搜索引擎读取网站代码时,就

Public @ 2023-02-25 02:24:17

RandFish访谈Matt Cutts

RandFish : Hi Matt, 欢迎来到RandFish的访谈,非常荣幸邀请到你在座! Matt Cutts : 您好,谢谢您的邀请。我很高兴能参加您的访谈。 RandFish : 非常好!首先让我们来聊聊您在搜索引擎优化(SEO)领域的研究和经验。您认为哪些技术对于了解搜索引擎有帮助? Matt Cutts : 我认为没有一个万能的技术能够让你完全了解搜索引擎,但是有一些方法可

Public @ 2023-02-28 01:48:24

如何解决百度spider无法抓取的问题?

1. 检查 Robots.txt 文件:确保 Robots.txt 文件中没有阻止百度蜘蛛访问您的网站。您可以使用“robots.txt 分析器”来检查文件是否正常工作。 2. 确保网站可访问:确保您的网站可以访问,并且没有被服务器防火墙或CDN屏蔽。 3. 站点结构优化:确保您的网站结构清晰,页面链接符合标准。由于百度蜘蛛是基于链接方式爬行的,所以优化网站内部链接是提高抓取效率的关键。 4

Public @ 2023-04-08 08:50:38

关键词排名不能稳定的原因是什么?

1. 竞争激烈:如果您的关键词要被多个网站竞争,您的排名就不可能长期稳定。 2. 搜索算法变化:搜索引擎是不断更新和改进其算法,以更好地为用户提供有用的结果。这意味着,您的排名可能会受到这些更改的影响。 3. 网站优化不足:如果您的网站没有优化得足够好,那么您的排名就不可能长期稳定。 4. 本地搜索结果的变化:如果您的关键词是针对本地搜索的,搜索结果的变化可能会在您的排名上造成波动。 5.

Public @ 2023-04-25 16:00:16

更多您感兴趣的搜索

0.442192s