360搜索对Robots协议的支持
360搜索支持Robots协议的主要命令,以下为具体说明:
1. user-agent
360搜索各产品的爬虫user-agent为:
- 网页搜索 360Spider
- 图片搜索 360Spider-Image
- 视频搜索 360Spider-Video
2. Allow
站长可通过Allow命令指定建议收录的文件、目录 。
3. Disallow
站长可通过Disallow命令指定不建议收录的文件、目录。
360搜索支持Robots协议的主要命令,以下为具体说明:
1. user-agent
360搜索各产品的爬虫user-agent为:
- 网页搜索 360Spider
- 图片搜索 360Spider-Image
- 视频搜索 360Spider-Video
2. Allow
站长可通过Allow命令指定建议收录的文件、目录 。
3. Disallow
站长可通过Disallow命令指定不建议收录的文件、目录。
ETag是一种HTTP协议中的实体标签,用于标记某个资源的版本号。它在浏览器与服务器之间起到了缓存控制的作用,提高了网页的加载速度和用户的浏览体验。下面是ETag使用效果对比和经验分享: 1. 提高缓存命中率:当用户再次访问同一资源时,浏览器会向服务器发送请求,服务器会比较资源的ETag值与请求头中的If-None-Match值是否一致。如果一致,则返回状态码304 Not Modified,表
1. 确定网站导航的关键词:根据网站的主题和内容,确定网站导航的关键词,把这些关键词放在导航栏中,以利于搜索引擎的识别。 2. 为导航分类命名:把导航栏中的分类用关键词来命名,并保持简洁清晰,不用过多的词汇,以方便用户和搜索引擎的识别。 3. 利用面包屑导航:在网站中使用面包屑导航,可以增强用户体验,也可以便于搜索引擎了解网站结构,从而提高网站的排名。 4. 避免使用Flash和图片导航:F
| 什么是robots文件?Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。| 为什么要做robots文件?网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。| 如何制作 robots文件?编写robots.txt文件并上传到网站根目录。| 制作 robots.txt注意事项● 所有搜索引擎则用星号表示● All
360搜索根据站长们的反馈,会陆续推出扩展的Robots协议命令。这些命令将能帮助站长们提高和360搜索爬虫沟通的效率,减少站长们维护Robots协议文件的技术成本。360搜索首个扩展命令是:indexpage,站长们可以使用此命令告知360搜索哪些网页经常更新。360搜索会根据站长的指示以及自己的算法,智能调整爬虫抓取频率,实现对您网站新内容的更高频率抓取。在命令中可以使用*、$等通配符。示例: