Categories


Tags


数据分析:如何追踪访客初始来源

了解网站的运营情况、了解用户构成是保证网站健康持续发展的重要基础,所以看数据做分析是网站优化人员每日必做的工作。上周平台发布了《网站分析白皮书(站长版)》,本周小编又发现了一篇非常好的实战型文章《在Google Analytics中如何跟踪访客的初始来源》,作者马骏是已获得GOOGLE Analytics IQ认证的网站访客行为分析师,得知平台要转载此文章后很贴心地将原文中的英文内容都做成了中文的,同时结合国内实际情况添加了一些相当贴心的内容——如何顺利使用Gogle Analytics工具。下面便是正文,希望给广大站长以帮助。

关于Google Analytic

Google Analytics是世界上使用最广的网站分析工具。世界上最受欢迎的一万个网站中的三分之二都在使用它(来源:wikipedia)。在中国Google Analytic的数据获取虽然不用翻墙,但是访问Google Analytic网站却需要。你可以使用自带此技能的百度浏览器访问Google Analytic。

了解访客来源

我们在网站分析的工作中时常问到的一个问题是“这个访客第一次访问我们网站是通过什么方式?”或许是每个站长内心都有些“处女情结”吧,但是这也不无道理。第一次访问,是用户开始接触你的品牌和服务的那一个时刻。在这一时刻他眼里留下的第一印象将很大程度决定你是否能让他进行第二次、第三次、第n次访问。访问来源有多种,但大致有这些:

? 直接访问(direct):用户直接输入网址、收藏夹、邮件客户端、手机app、用户从本地点击链接(excel、QQ聊天)等。

? 推介访问(referral):用户从其他网站点击链接访问。

? 自然搜索(organic search):用户从搜索引擎的搜索结果访问。

? 广告链接(paid search):用户从SEM的推广访问。

? 邮件访问(email):用户从线上邮箱访问。

? 社交访问(social):用户从新浪微博、脸书、推特等社交网络访问。

? 显示广告(display):用户从显示广告访问。

下图是Google Analytics中进行访问渠道分组的界面,你可以自主进行设置。设置完后就可以在报告>流量获取>所有流量>渠道中查看。

↑进行访问渠道分组,更改默认设置

那么我们想得到最初始的访问来源应该怎么做呢?当然是当访客第一次访问的时候保存他的访问来源了。很多时候一个HTTP访问中HTTP头部都会有一个referrer(引荐),我们要做的就是将它保存。如何用GA实现呢?我们分两步来做:

1,首先建立一个自定义维度

先解释下什么是自定义维度。自定义维度就是我们对某次行为(Hit),某次访问(Session),或者某个用户(User)新增一个数据列。对于某次点击,我们可以把坐标位置新增为维度;对于某次访问,我们可以把是否登录新增为维度;对于某个用户,我们可以把他是否已婚新增为一个维度。自定义维度是对网站分析工具的补充,它可以让你关联更多的数据到你的报表。

在今天这个例子中,我们建立一个自定义维度叫做UserOrigin,这个自定义维度需要用户级别(User-Level),这样这个维度就会一直保存在用户浏览器的cookie中。你可以通过管理>媒体资源>自定义定义>自定义维度来新建。

2,其次是建立一个高级过滤器

高级过滤器可以让你免去写JavaScript的麻烦,我们通过这个例子来介绍。同样在管理>查看>过滤器中建立一个叫做Collect User Origin的高级过滤器。具体设置如下:

↑高级过滤捕获初始访问源

当访问开始时,将访问的引荐的内容保存到UserOrigin。切记覆盖输出字段(Override Output Field)一定要勾掉。这样一旦赋值之后就不再更改。只要用户初始访问不是直接访问(引荐为空),我们都可以对用户的来源进行记录。并且一旦记录,不再更改。

这虽然不完美,但是解决了我们很大的问题,即我们终于知道用户到底从哪里来了。不完美的原因就在于我们前面提到的分类中的直接访问和一些技术原因,如302跳转,浏览器限制,https跳转。当发生这些情况时,我们拿不到引荐的数据。

3,如何查看保存的数据呢?

对于每一个行为、访问、用户你都可以通过查看UserOrigin这个自定义字段找到他们第一次(引荐)访问时的来源。选择次级维度,或者自定义一个报表即可查看。

举一反三

最后,我们用这个例子还可以延伸出其他用法:

1. 我们可以保存搜索字词(Search Term)看用户最初是搜索哪个关键字进行访问的,这里注意是站内搜索。

2. 我们可以保存广告系列来源(Campaign Source)看用户最初是通过哪个推广计划访问的,你可以用网址构建工具来跟踪。下图便是网址构建工具的截图:

3. 我们可以保存页面标题(Page Title)或者广告系列目标网址(Campaign Target URL)看用户最初看到的页面是哪个页面。

写在最后

几乎所有的网站分析工具都是基于cookie进行的,使用cookie就有一定局限性,比如跨设备,多浏览器,QR码等等。我们保存的初始访问也局限于此。GA的cookie会在浏览器上保留两年,从时间上来讲是够用了。如果你要更精确地统计和保存用户初始来源,你可以考虑在数据库中为你的注册会员新增一个字段,再通过GA的User-ID功能进行集成。

相关内容讨论请移步【学堂同学汇】《数据分析:如何追踪访客初始来源》讨论帖

来源:百度搜索资源平台 百度搜索学堂


Public @ 2020-09-06 16:21:48

了解搜索引擎来进行SEO

搜索引擎的工作的过程非常复杂,而简单的讲搜索引擎的工过程大体可以分成三个阶段。爬行和抓取:搜索引擎蜘蛛通过跟踪链接访问页面,获取页面HTML代码存入数据库。预处理:搜索赢球对抓取来的页面数据文字进行文字提取、中文分词、索引等处理,以备排名程序调用。排名:用户输入关键字后,排名调用索引库数据,计算相关性,然后按一定格式生成搜索结果页面。爬行和抓取爬行和抓取是搜索引擎工作的第一步,完成数据收集任务。蜘

Public @ 2018-03-18 16:21:53

搜索引擎怎样抓到你?

搜索引擎通常通过以下方式来抓取您的网页内容: 1. 网站提交:您可以将您的网站提交给各大搜索引擎,以便搜索引擎了解您的网站存在。 2. 网络爬虫:搜索引擎使用自己的网络爬虫程序,定期检索并抓取互联网上的内容。当您的网站被网络爬虫访问时,搜索引擎就可以抓取您的网页内容。 3. 外部链接:如果您的网站被其他网站所链接,搜索引擎可以通过这些链接进入您的网站并抓取您的网页内容。 4. 社交媒体:如

Public @ 2023-06-07 04:00:10

搜索引擎体系结构

搜索引擎基本结构一般包括:搜索器、索引器、检索器、用户接口等四个功能模块。1、搜索器:搜索器也叫网络蜘蛛,是搜索引擎用来爬行和抓取网页的一个自动程序,在系统后台不停歇地在互联网各个节点爬行,在爬行过程中尽可能快的发现和抓取网页。2、索引器。它的主要功能是理解搜索器所采集的网页信息,并从中抽取索引项。3、检索器。其功能是快速查找文档,进行文档与查询的相关度评价,对要输出的结果进行排序。4、用户接口。

Public @ 2018-03-04 16:22:54

搜索引擎是怎么删除重复网页的

搜索引擎是通过比较网页URL,内容和相关属性来删除重复网页的,具体步骤如下: 1. 搜索引擎收集器(Crawler)会在网络上发现新网页并收集,此时会有一定概率发现相同的网页,并添加到收集器的索引中去。 2. 收集器会识别新的网页,把重复的网页排除。 3. 然后,搜索引擎把新索引serves给布置在 Indexer(索引器)中,执行深入索引,会把相同内容的文章及URL排除,仅保留一条记录

Public @ 2023-02-24 23:12:24

更多您感兴趣的搜索

0.423415s