Categories


Tags


360搜索对Robots协议的扩展

360搜索对Robots协议进行了扩展,增加了以下几个指令: 1. User-Agent:用于指定搜索引擎访问网站时使用的用户代理字符串,可以设置多个User-Agent。 2. Crawl-delay:用于指定搜索引擎访问网站时的延迟时间,单位为秒。可以设置针对不同的User-Agent的延迟时间。 3. Sitemap:用于指定网站的sitemap文件的地址,搜索引擎将通过该文件获取站点的所有URL。 4. Host:用于指定网站的主机名,可以避免因为DNS变化导致搜索引擎爬虫无法访问网站。 5. Clean-param:用于指定需要从URL中移除的参数,搜索引擎在访问网站时会忽略URL中包含的这些参数。 6. Noindex-nofollow:用于指定不需要被搜索引擎收录或链接的页面。 这些指令的使用可以让网站管理员更加灵活地控制搜索引擎爬虫的访问行为,以达到更好的SEO效果。

Public @ 2023-05-29 17:00:21

360搜索站长平台Sitemap提交流程

要提交Sitemap到360搜索站长平台,您可以按照以下流程操作: 1. 登录360搜索站长平台。如果您还没有账号,可以直接使用360账号登录。 2. 在站长平台首页,点击左侧菜单栏的“网站管理”。 3. 在网站管理页面,找到您需要提交Sitemap的网站,点击网站名称进入网站详情页面。 4. 在网站详情页面,点击左侧菜单栏的“站点地图”。 5. 在站点地图页面,点击“新建地图”按钮。

Public @ 2023-07-28 07:00:21

360搜索站长平台Sitemap提交流程

360搜索站长平台Sitemap提交流程如下: 1. 登录360搜索站长平台,进入站长工具页面。 2. 在左侧菜单栏中选择“站点管理”,然后点击页面中央的“添加站点”按钮。 3. 在弹出的新页面中,填写您的网站信息,包括网站名称、网站地址、网站分类等内容,然后点击“立即添加”按钮。 4. 成功添加站点后,返回站长工具页面,点击左侧菜单栏中的“站点管理”,找到您刚刚添加的网站,点击“管理”,

Public @ 2023-05-28 09:00:17

360搜索对Robots协议的扩展

360搜索对Robots协议进行了扩展,增加了以下几个指令: 1. User-Agent:用于指定搜索引擎访问网站时使用的用户代理字符串,可以设置多个User-Agent。 2. Crawl-delay:用于指定搜索引擎访问网站时的延迟时间,单位为秒。可以设置针对不同的User-Agent的延迟时间。 3. Sitemap:用于指定网站的sitemap文件的地址,搜索引擎将通过该文件获取站点

Public @ 2023-05-29 17:00:21

Robots.txt 文件应放在哪里?

obots.txt 文件必须放在网站的根目录。放在子目录的 Robots.txt 文件搜索引擎不能爬取到,所以不会起任何作用。如:https://www.seowhy.com/robots.txt    是有效的。https://www.seowhy.com/a/robots.txt  是无效的。以下3种情况需要注意:1、如果手机网站采用的是m.的二级域名,要给手机网

Public @ 2018-08-20 16:09:23

更多您感兴趣的搜索

0.477525s