Categories


Tags


360搜索对Robots协议的扩展

360搜索根据站长们的反馈,会陆续推出扩展的Robots协议命令。这些命令将能帮助站长们提高和360搜索爬虫沟通的效率,减少站长们维护Robots协议文件的技术成本。

360搜索首个扩展命令是:indexpage,站长们可以使用此命令告知360搜索哪些网页经常更新。360搜索会根据站长的指示以及自己的算法,智能调整爬虫抓取频率,实现对您网站新内容的更高频率抓取。

在命令中可以使用*、$等通配符。

示例:

使用通配符的

Indexpage: http://bbs.360safe.com/forum-*-1.html$

Indexpage: http://ent.sina.com.cn/*/roll.html

不用通配符的:

Indexpage: http://roll.tech.sina.com.cn/internet_all/index.shtml

Indexpage: http://roll.tech.sina.com.cn/it/index.shtml

Indexpage: http://roll.tech.sina.com.cn/tele/index.shtml

Indexpage: http://roll.tech.sina.com.cn/discovery/index.shtml

Indexpage: http://roll.tech.sina.com.cn/elec/index.shtml


Public @ 2019-02-15 16:09:33

再谈Canonical标签

Canonical标签是用于指定网页主要内容的URL地址。它是一种标记语言标签,通过这个标签,可以告诉搜索引擎要把多个类似内容的页面合并成一个主要内容相同的页面,减少搜索引擎对同一内容的多个页面进行索引,避免重复内容的出现。通过设置Canonical标签,可以提高网站的SEO效果,降低网站被搜索引擎降权的风险。同时,Canonical标签也有利于网站内部链接的优化,提高网页被搜索引擎收录的几率。

Public @ 2023-04-25 07:00:06

内部链接(站内链接)的优化

1. 链接相关性:优化内部链接时,需要考虑链接之间的相关性。内部链接应该帮助读者更好地理解内容,而不是简单地为了链接而链接。 2. 锚文本:锚文本是指链接的显示文字。优化内部链接时,应该使用有意义的锚文本,而不是简单的“点击此处”或“了解更多”。锚文本应该涵盖链接指向的页面的主要主题。 3. 快速连接:内部链接应该简洁明了,直接指向相关的主题/页面,不要让读者反复点击才能找到他们需要的信息。

Public @ 2023-04-28 18:00:18

关于robots.txt的二三事

1. Robots.txt是一个协议,用于控制搜索引擎爬虫的访问范围。 2. Robots.txt文件位于网站的根目录下,包含了一些指令告诉爬虫哪些页面可以访问,哪些页面需要限制访问。 3. Robots.txt文件并不会阻止所有爬虫的访问,只有支持Robots.txt协议的爬虫才会遵守文件中的指令。 4. Robots.txt文件中的指令可以根据不同的爬虫进行个性化设置,可以控制不同爬虫访

Public @ 2023-04-11 13:00:34

更多您感兴趣的搜索

0.431756s