Categories


Tags


数据分析:如何追踪访客初始来源

了解网站的运营情况、了解用户构成是保证网站健康持续发展的重要基础,所以看数据做分析是网站优化人员每日必做的工作。上周平台发布了《网站分析白皮书(站长版)》,本周小编又发现了一篇非常好的实战型文章《在Google Analytics中如何跟踪访客的初始来源》,作者马骏是已获得GOOGLE Analytics IQ认证的网站访客行为分析师,得知平台要转载此文章后很贴心地将原文中的英文内容都做成了中文的,同时结合国内实际情况添加了一些相当贴心的内容——如何顺利使用Gogle Analytics工具。下面便是正文,希望给广大站长以帮助。

关于Google Analytic

Google Analytics是世界上使用最广的网站分析工具。世界上最受欢迎的一万个网站中的三分之二都在使用它(来源:wikipedia)。在中国Google Analytic的数据获取虽然不用翻墙,但是访问Google Analytic网站却需要。你可以使用自带此技能的百度浏览器访问Google Analytic。

了解访客来源

我们在网站分析的工作中时常问到的一个问题是“这个访客第一次访问我们网站是通过什么方式?”或许是每个站长内心都有些“处女情结”吧,但是这也不无道理。第一次访问,是用户开始接触你的品牌和服务的那一个时刻。在这一时刻他眼里留下的第一印象将很大程度决定你是否能让他进行第二次、第三次、第n次访问。访问来源有多种,但大致有这些:

? 直接访问(direct):用户直接输入网址、收藏夹、邮件客户端、手机app、用户从本地点击链接(excel、QQ聊天)等。

? 推介访问(referral):用户从其他网站点击链接访问。

? 自然搜索(organic search):用户从搜索引擎的搜索结果访问。

? 广告链接(paid search):用户从SEM的推广访问。

? 邮件访问(email):用户从线上邮箱访问。

? 社交访问(social):用户从新浪微博、脸书、推特等社交网络访问。

? 显示广告(display):用户从显示广告访问。

下图是Google Analytics中进行访问渠道分组的界面,你可以自主进行设置。设置完后就可以在报告>流量获取>所有流量>渠道中查看。

↑进行访问渠道分组,更改默认设置

那么我们想得到最初始的访问来源应该怎么做呢?当然是当访客第一次访问的时候保存他的访问来源了。很多时候一个HTTP访问中HTTP头部都会有一个referrer(引荐),我们要做的就是将它保存。如何用GA实现呢?我们分两步来做:

1,首先建立一个自定义维度

先解释下什么是自定义维度。自定义维度就是我们对某次行为(Hit),某次访问(Session),或者某个用户(User)新增一个数据列。对于某次点击,我们可以把坐标位置新增为维度;对于某次访问,我们可以把是否登录新增为维度;对于某个用户,我们可以把他是否已婚新增为一个维度。自定义维度是对网站分析工具的补充,它可以让你关联更多的数据到你的报表。

在今天这个例子中,我们建立一个自定义维度叫做UserOrigin,这个自定义维度需要用户级别(User-Level),这样这个维度就会一直保存在用户浏览器的cookie中。你可以通过管理>媒体资源>自定义定义>自定义维度来新建。

2,其次是建立一个高级过滤器

高级过滤器可以让你免去写JavaScript的麻烦,我们通过这个例子来介绍。同样在管理>查看>过滤器中建立一个叫做Collect User Origin的高级过滤器。具体设置如下:

↑高级过滤捕获初始访问源

当访问开始时,将访问的引荐的内容保存到UserOrigin。切记覆盖输出字段(Override Output Field)一定要勾掉。这样一旦赋值之后就不再更改。只要用户初始访问不是直接访问(引荐为空),我们都可以对用户的来源进行记录。并且一旦记录,不再更改。

这虽然不完美,但是解决了我们很大的问题,即我们终于知道用户到底从哪里来了。不完美的原因就在于我们前面提到的分类中的直接访问和一些技术原因,如302跳转,浏览器限制,https跳转。当发生这些情况时,我们拿不到引荐的数据。

3,如何查看保存的数据呢?

对于每一个行为、访问、用户你都可以通过查看UserOrigin这个自定义字段找到他们第一次(引荐)访问时的来源。选择次级维度,或者自定义一个报表即可查看。

举一反三

最后,我们用这个例子还可以延伸出其他用法:

1. 我们可以保存搜索字词(Search Term)看用户最初是搜索哪个关键字进行访问的,这里注意是站内搜索。

2. 我们可以保存广告系列来源(Campaign Source)看用户最初是通过哪个推广计划访问的,你可以用网址构建工具来跟踪。下图便是网址构建工具的截图:

3. 我们可以保存页面标题(Page Title)或者广告系列目标网址(Campaign Target URL)看用户最初看到的页面是哪个页面。

写在最后

几乎所有的网站分析工具都是基于cookie进行的,使用cookie就有一定局限性,比如跨设备,多浏览器,QR码等等。我们保存的初始访问也局限于此。GA的cookie会在浏览器上保留两年,从时间上来讲是够用了。如果你要更精确地统计和保存用户初始来源,你可以考虑在数据库中为你的注册会员新增一个字段,再通过GA的User-ID功能进行集成。

相关内容讨论请移步【学堂同学汇】《数据分析:如何追踪访客初始来源》讨论帖

来源:百度搜索资源平台 百度搜索学堂


Public @ 2020-09-06 16:21:48

头条搜索Bytespider基本流程

1. 抓取网页每个独立的搜索引擎都有自己的网页抓取程序爬虫(Spider)。爬虫顺着网页中的超链接,从这个网站爬到另一个网站,通过超链接分析连续访问抓取更多网页。被抓取的网页被称之为网页快照。由于互联网中超链接的应用很普遍,理论上,从一定范围的网页出发,就能搜集到绝大多数的网页。2. 处理网页搜索引擎抓到网页后,还要做大量的预处理工作,才能提供检索服务。其中,最重要的就是提取关键词,建立索引库和索

Public @ 2022-03-13 15:38:59

搜索引擎检索系统概述

前面简要介绍过了搜索引擎的索引系统,实际上在建立倒排索引的最后还需要有一个入库写库的过程,而为了提高效率这个过程还需要将全部term以及偏移量保存在文件头部,并且对数据进行压缩,这涉及到的过于技术化在此就不多提了。今天简要给大家介绍一下索引之后的检索系统。检索系统主要包含了五个部分,如下图所示:索引&检索.jpg(1)Query串切词分词即将用户的查询词进行分词,对之后的查询做准备,以“1

Public @ 2011-11-07 16:21:49

搜索引擎是怎么删除重复网页的

搜索引擎是通过比较网页URL,内容和相关属性来删除重复网页的,具体步骤如下: 1. 搜索引擎收集器(Crawler)会在网络上发现新网页并收集,此时会有一定概率发现相同的网页,并添加到收集器的索引中去。 2. 收集器会识别新的网页,把重复的网页排除。 3. 然后,搜索引擎把新索引serves给布置在 Indexer(索引器)中,执行深入索引,会把相同内容的文章及URL排除,仅保留一条记录

Public @ 2023-02-24 23:12:24

搜索引擎工作原理

搜索引擎是一种用来搜索巨大的获取到的信息的技术,它根据用户输入的关键字或问题,再搜索索引库中获取到的信息,以便提供相关网站页面、新闻文档、图片和其他形式的信息来回答用户提出的问题。 搜索引擎的一般工作原理是,将信息经过索引化存在索引库中,用户通过输入一定的关键字搜索时,搜索引擎从索引库中搜索符合条件的结果项并返回;或者通过抓取网页技术在搜索引擎开发过程中,根据搜索引擎的网络爬虫技术逐一抓取网

Public @ 2023-02-24 00:23:15

更多您感兴趣的搜索

0.491255s