如何做好用户增长活动中的数据分析
笔者结合自己的用户增长活动经验,分享了以下内容——数据化思维的价值、行之有效的分析流程、项目中数据异常的监测、排查、处理。
数据分析是做用户增长的一项基本技能,然而每次想好好学习下,看到的资源不是7天精通Excel就是20天进阶SQL,甚至于Python必知必会……
工欲善其事必先利其器,确实没错,但工具也是为具体目标而服务的嘛。为了学习技能而学习技能只会更加焦虑。
那么问题来了,对于大部分小伙伴究竟要把数据分析学到什么程度呢?
这张图是我根据数据分析技能,使用频率和学习成本画的,里面Excel在使用频率上应该是使用的最多的,可能每个人每天都会打开Excel;基础操作大家应该都会,复杂一些的百度一下教程花个几十分钟也可以做出来。
Excel可以解决80%的数据分析问题,剩下的如果是非高频需求,可以使用工具或者描述清楚需求让技术小伙伴帮忙处理。
如果是一些非常高频的数据运营&产品岗,还是要学一下相关编程语言的,但Excel应该数据分析中性价比最高的工具了,本篇文章中的数据分析工具也主要以Excel 为主。
本文主要分为三个部分,如图所示:
由于篇幅有限,本文不会涉及太多Excel技巧,不过这里给大家推荐一本相关书籍《谁说菜鸟不会数据分析》。
这本书在Excel技巧方面讲的很全面,大家有空可以翻一遍,不用刻意去记忆,脑子里大概有个印象,遇到问题知道在哪里查找就好。
数据化思维的价值
(1)数据让我们更了解用户
从项目角度来看:“ 数据让我们更了解用户 ”。
在线上很多时候就像一个黑盒子,我们不知道用户在里面做什么,而通过数据就像把盒子里面装了监控一样。
通过数据可把这个盒子变得透明化,数据越全盒子越透明。但是考虑到成本,一般只做关键事件的埋点、关键页面访问、关键按钮点击。
通过数据我们可以发现用户在这个黑盒子里面遇到的问题——如发现转化率低,那么是不是用户遇到了障碍不知道怎么操作,还是决策门槛太高了?
从个人成长方面,数据化思维也是一个很好的工具,叮当在刚开始做用户增长项目时很焦虑。
(2)从数据中发现问题,提高成长效率,指导决策
小叮当的48个“金币”:把一天的时间每半个小时分为一个模块,每天记录在各时间段做的事件类型,每周进行汇总分析
从个人成长方面,数据化思维也是一个很好的工具,叮当在刚开始做用户增长项目时很焦虑。感觉每天都很忙,经常11点,甚至凌晨下班,但是又感觉自己好像什么都没有做。
然后就整理了一个表格以半小时为一个单位记录自己在做的事情,周末汇总生成图表。
分析了几天发现了两个问题:
- 一感到压力就想拖延,拿起手机刷朋友圈。
- 大部分时间都在建活动群和管理志愿者,写文案。
后来就想了两个解决方案:
- 特别注意,每次自己想拖延拿起手机刷朋友圈的话就把手机丢到抽屉里。
- 梳理每个事件的流程+计时,优化建群的流程和志愿者管理协作流程。
在项目中的数据分析,一般可以分为两部分: 一般的数据分析 (从数据埋点,收集,清洗,分析……)和项目中的 数据异常情况处理。
- 一般数据分析中比较偏向静态,基于我们设计好的方案,去搭建数据分析模型;应用场景更多是从0到1,或者阶段性根据数据分析调整方向。
- 异常处理是动态的,更多是基于项目中的实际问题出发去解决问题,中间也会有更多我们没有考虑到的点需要探索。
数据分析流程
静态的数据分析流程挺像是黄金工艺品的诞生过程:
做数据分析我们首先要明确目的和思路,就像淘金一样,首先要先找到矿脉。
基本流程是:确定目的,定义指标,拆解指标,构建模型。
- 确定目的: 你是想了解这些数据的情况呢(基础指标),还是想根据这些数据验证一些想法(复合指标,及指标背后的用户行为)明确目的才好定义要分析的指标。
- 定义指标: 一般数据指标分3种类型(维度,基础数据,复合数据)对于基础指标可以直接统计。
- 拆解指标: 复合指标则需要拆解(一般用户公式法和拆解影响因素)。
- 构建模型: 模型是指能够对事物产生重要影响的关键要素组合而数据模型就是你这样项目中需要的关键数据,一般我会先梳理用户路径的流程数据,然后再把其他的关键数据加上(如红包数据)。
(简单数据模型)
(拖动时间轴图表中的数据会变化)
(常用指标定义)
不同的团队,不同的人对指标的定义也不一样,在写埋点文档或者数据分析报告的时候 一定要备注“指标定义”。
这个步骤也就是数据统计,以下是常用的3种数据统计方式:
- 可以直接看到的可以手动整理,当然这种是比较慢的。
- 第二种是通过工具提高下效率(如建群宝,WeTool……),也可以通过渠道码统计到一些直接看,看不到的数据。
- 最后就是数据埋点了,如果上一步构件好数据模型的话,这里直接把需要的相关数据给到技术就好了。
挖完矿挖到的原矿石肯定不能直接丢到炉子里吧,这里需要做下简单的处理。
数据处理一般分为清洗,转化,提取,计算,这4个部分。
数据清洗是为了保证数据的有效性,经常遇到的就是数据中有空值的问题。
可能是在统计的时候没有考虑到,或者是因为其他原因丢失了。
这时候如果与这个空值互相影响的数据比较全的话可以通过计算得到,但是如果不全的话只能去掉了;或者得出的值只能做一个参考。
数据转化主要是转化格式,单位……确保这些是统一的。
上图中的数据是之前做的一次红包活动数据,技术导出数据后,叮当怎么算都觉得不对,问了一下才知道,原来技术给的数据是以“分”为单位的,而叮当是按“元”计算的。
数据转化:数据比较少的时候直接框选就可以了,数据比较多的时候可以用户透视表提取需要的数据。
最后涉及到复合数据的可以根据公式计算(加减乘除可以解决大部分问题)。
文不如表,表不如图,把数据视觉化,更容易让人理解,也更加容易感知到价值。
就像黄金一样,一个同样重量的金块,锻造成工艺品,肯定比单纯的金块给人的价值感更强。
数据异常处理
最后就是关于数据异常的处理这一块了。
1)活
动上线&渠道推广后2小时注意看客服会话消息,只要有用户反馈入口的地方都每个几分钟看一下,上线过了这几个小时之后可以降低点查看的频率,不过也要注意盯着。
上面这个截图就是,中间上线期间通过用户反馈,发现一点技术小Bug,及时处理了,没有造成推广流量的浪费。
2)监控数据模型中的核心数据异常
如果时间确实忙不过来,或者上线比较急没有做好准备可以优先监控核心数据(如:红包类的活动获客成本就是非常核心的数据)。
“评估”就是评估数据异常影响程度。如果影响比较大就暂停活动及时止损;如果影响比较小,就暂停其他的推广动作,排查原因。
如图:这个是,活动刚上线40分钟遇到了羊毛党工具支付接口,几十分钟被撸走将近100+元,发现问题后,叮当立刻就把活动下线,同时让技术做接口攻击拦截。
如图:在活动期间用户给我发截图,用户开了几个1毛的红包,账户里才增加3分钱。
然后我赶紧查了下用户列表,这个时间段的用户信息,发现大概20个左右的用户是这样的。
跟技术反馈了下,技术说是这里单位除了点小问题,十几分钟就可以改好,然后改完后就给这几个用户一个人补了4毛钱。
很多时候在排查原因的时候就可以找到问题,设计方案,如果还找不出来的话,可以通过拆解指标来挖掘问题。
上图是叮当在2019年1月做的一次红包拉新红包,上线后通过内部渠道推广平均一个老用户可以带16~20新用户。
1月24号开始投放一些外部的小程序渠道,但发现投放之后用户增长并没有太大变化。
后来就通过渠道,推广时间,红包金额,活动路径简单拆解了这个数据异常的问题。
如:之前一个活动支付接口被攻击下线调整,再次上线后叮当就计算出一个用户一天之内可能获得的最大红包金额,在商户号中设置“大额出款提醒”一旦单个用户提现金额超过这个数值,就可以在微信收到模板消息提示及时处理。
以上流程只是给大家一些思考的方向,并不是每次都需要把流程全部走完的。
作者:小叮当v2.0,前零一裂变用户增长项目负责人。最近在找电商平台或者教育行业的用户增长方向工作,坐标深圳,微信zxxp153。
本文由 @小叮当v2.0 原创发布于人人都是产品经理。未经许可,禁止转载。
题图来自Unsplash,基于CC0协议
作者暂无likerid, 赞赏暂由本网站代持,当作者有likerid后会全部转账给作者(我们会尽力而为)。Tips: Until now, everytime you want to store your article, we will help you store it in Filecoin network. In the future, you can store it in Filecoin network using your own filecoin.
Support author:
Author's Filecoin address:
Or you can use Likecoin to support author: