Categories


Tags


robots.txt文件有什么必要?

什么是robots.txt文件?

搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。

如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。

robots.txt文件有什么必要?

从SEO的角度,robots.txt文件是一定要设置的,原因:

1、网站上经常存在这种情况:不同的链接指向相似的网页内容。这不符合SEO上讲的“网页内容互异性原则”。采用robots.txt文件可以屏蔽掉次要的链接。

2、网站改版或URL重写优化时原来不符合搜索引擎友好的链接需要全部屏蔽掉。采用robots.txt文件删除旧的链接符合搜索引擎友好。

3、一些没有关键词的页面,屏蔽掉更好。

4、一般情况下,站内的搜索结果页面屏蔽掉更好。

来源:搜外网


Public @ 2018-10-22 16:09:22

搜狗资源平台-Sitemap提交帮助

功能说明提交Sitemap工具可以向搜狗提交网站Sitemap文件,帮助搜狗spider抓取您的网站。目前Sitemap采用邀请制,您可在此工具下选择已验证的站点,并观察站点是否已被邀请。Sitemap提交后,搜狗搜索会根据Sitemap了解网站中的网址及关于每个网址的其他元数据(上次更新的时间、更改的频率等)。注意事项1.sitemap采用邀请制,当您的网站存在原创或不可替代内容或不能被搜狗sp

Public @ 2021-11-12 16:09:46

JavaScript链接的作用

由于JavaScript可以创造很多吸引人的视觉效果,有些网站喜欢使用JavaScript脚本生成导航。这也是严重的蜘蛛陷阱之一。据观察,有的搜索引擎在技术上可以获得JavaScript脚本中包含的链接,甚至可以执行脚本并跟踪链接,但对权重低的网站,搜索引擎觉得没必要,不会费那个劲。所以网站上的链接必须使用最简单标准的HTML链接,尤其是导航系统。用CSS做导航同样可以实现很多视觉效果。JavaS

Public @ 2010-01-14 16:21:35

百度搜索robots协议全新升级公告

Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。9月11日,百度搜索robots全新升级。升级后robots将优化对网站视频URL收录抓取情况。仅当您的网站包含不希望被视频搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。如您

Public @ 2017-06-06 16:09:00

更多您感兴趣的搜索

0.383823s