Categories


Tags


【院长帮帮忙】第四期:URL构成越简单越平常越好

SEO不是事后工作,在站点在建设之初就要考虑到如何对搜索引擎友好。在院长看来,与其出手阔绰、花大价钱买个域名,不如找个经验丰富的SEO人员在站点结构等基础工作上多下工夫——这期院长帮帮忙,说的正是一个大家容易忽略的细节问题:url构成。先说结论吧:url构成(或者叫url规则)越简单越平常,百度处理起来越顺畅,越容易正确生效。

院长收到的case是这样的,站长反应:跳转适配的PC页和移动页,内容可以做到一一对应,通过移动适配工具提交了规则适配,但一直无法正确生效。

示例链接:http://www.123456.cn/zjj/teacher/p1ll111001

示例正则式:

http://www.123456.cn/(\w+)/teacher/p1ll(\d+)——

http://m.123456.cn/teacher/${1}/s${2}

院长在检查了页面对应的确无误的情况下,请工程师查看,结论如下:移动适配部门在计算PC站点的pattern(规则)时,分割符没有考虑ll,导致计算出的数据有问题。简单说,此站点每个URL中都出现的、极少有网站使用的ll干扰了适配计算,导致适配无法正确生效。

工程师解释说,“在考虑分隔符时,出于成本的考虑,只顾及到了常见的url分隔符,像ll这种非常罕见的,暂时没有考虑,后续升级时再统一安排。

可能很多同学觉得,单从这个case讲是百度的一个badcase——我个人也承认这一点。但大家应该都知道,世上没有十全十美的策略,任何一个接近完美的策略都是不断迭代的结果。在我们日常的生活和工作中,也往往都会利用“最小成本获得最大收益”的思维来解决问题,百度的工程师也不例外。所以请给我们的策略一些时间,同时建议大家在搭建网站结构、制作URL时,尽量避开非主流设计,追求简单美即可。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2016-05-05 15:22:03

关于robots.txt的二三事

1. Robots.txt是一个协议,用于控制搜索引擎爬虫的访问范围。 2. Robots.txt文件位于网站的根目录下,包含了一些指令告诉爬虫哪些页面可以访问,哪些页面需要限制访问。 3. Robots.txt文件并不会阻止所有爬虫的访问,只有支持Robots.txt协议的爬虫才会遵守文件中的指令。 4. Robots.txt文件中的指令可以根据不同的爬虫进行个性化设置,可以控制不同爬虫访

Public @ 2023-04-11 13:00:34

网站导航如何SEO优化?

网站导航指什么?一般情况下,网站的栏目、文章分类、“您当前位置”等称为网站导航。比如 www.seowhy.com 这个网站的网站导航指:左侧文章分类、顶部功能分类、以及每篇文章的类别说明。网站导航的目的:告诉浏览者网站的主要内容和功能。告诉浏览者他们所在网站的位置。告诉浏览者他们访问过的页面。本站访问过的页面,链接变为紫色。网站导航如何SEO优化?在页脚添加一行关键词,并指向相应的页面。比如本站

Public @ 2011-06-16 16:11:45

服务器限制外网访问造成主动推送失败

《院长帮帮忙》栏目开始运营以后受到了广大站长欢迎,院长每天都会收到各种问题求助。为了更多站长获得收益,我们从中选取了最具有代表性的问题展现给大家。项目背景:和讯网参加星火计划2.0内测,按照站长平台主动提交技术说明代码,共提交两次,均返回报错。下面我们分享下整个case的排查过程:一、提交执行过程首先,按照链接主动提交的技术标准进行提交,具体内容参照《主动链接提交》。1、第一次提交代码curl -

Public @ 2010-01-13 15:22:08

【院长帮帮忙】我的网站排名为什么突然下降?(第十期)

这可能有多种原因。首先,你的网站可能是被别的网站抢占了搜索引擎的排名名次。这样会导致你的网站降下来。其次,你可能遭到了网络攻击,病毒或者反爬虫等恶意攻击,这会影响你网站的表现。此外,如果你的网站更新不及时或者没有及时维护,搜索引擎会认为你的网站内容不新,因此会把你网站降低排名。

Public @ 2023-03-03 05:00:10

更多您感兴趣的搜索

0.524549s