2023年B端体验度量衡:用户行为监控篇_第1页
2023年B端体验度量衡:用户行为监控篇_第2页
2023年B端体验度量衡:用户行为监控篇_第3页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

B端体验度量衡:用户行为监控篇在实际项目流程之中,通常设计师的的话语权不高,这个来源于大家对于设计师本身的刻板印象(只会追求视觉好看)。但是显示状况好多设计师也不懂业务,所谓的设计的动身点就只有视觉。我也是盼望能关心到同行们拿到话语权。

01为什么我们要学体验度量衡?

针对项目前期中期后期,体验度量衡有不同的作用。项目前期主要是找设计目方向,找到合适的业务目标确定设计目标从而能劝说别人认同自己的想法。

项目中期主要经常场景是制定目标以及之后的向上级要资源,设计过程中不光涉及到页面设计还涉及到了团队资源(用户调研,开发资源支持等等),每一项资源调用和协作都要讲清晰业务上的“必要性”劝说别人来跟你进行协作。

项目后期主要场景是拿设计结果(不论正负),来为设计进行证明自身设计的价值。常常性是用来进行复盘和职位晋升报告(向上报告),为自己争取更多的话语权。

02B端常见的体验度量衡

常见的体验度量衡主要是分为4类:

使用度/路径使用效率检测CES/NPS业务指标使用度/路径检测包括:

PVUV操作步数使用效率检测包括:

完成率完成效率CES和NPS包括:

净省力度(CES)净推举值(NPS)业务指标就比较多了,例子:

GMV/PMV续费率月活/周活/日活客服成本设计/开发成本针对不同业务/阶段/目的/功能/流程选择不同的指标,这个需要结合业务去谈。

根据数据进行区分:使用度/路径检测和使用效率属于用户行为监控,CES和NPS属于体验度量衡指标,GMV/续费率等属于业务指标。篇幅有限,这一篇主要是讲用户行为监控。

03用户行为监控

用户行为监控物理映射的是实际生活中的监控摄像头,监控用户的行为/时间/步骤/位置/人数/从哪里来/去了哪里/接下来要去哪里的等等状况。

本质是通过埋点,检测用户的扫瞄,操作系统的各类数据。通常分成3类监控使用频率,监控使用效率以及性能监控。

1.使用频率监控

1)常见参数

频率监控的常用参数:

pv:用户进入页面或者功能的次数UV:进入到功能或者是功能的用户数,通常基于PV进行查重曝光率:首屏进入到用户视野中的次数/使用次数,通常在监控曝光率的埋点是监控功能的点击率留意点:实际工作中许多人误把只要功能被用户看到了就算一个次数(例如选项卡未选的候),其实这是一个误区这会导致最终统计的错误影响到最终设计的结果。

2)埋点前需要做什么?

埋点之前有个埋点评审,通常要说明:

为什么要埋点?——这里主要是讲卖点对于业务/用户/商业的价值埋什么点?——这里会给一个表格,分为模块,功能,字段。开发会转化为KEY的值(详细开发去操作)怎么做?——开发区完成埋点对于产品经理和设计师的意义不同。假如是产品经理发起的埋点主要是针对新上线功能的使用频率,假如是设计师的话更多状况是流程或者是功能的优化。

留意点:开发有力量把全部的点给埋上,但是埋点贵精不贵多,埋点过多的话会让开发怀疑你埋点的意义是什么,而且在后期拿到数据的时候也会由于数据过多导致分析的难度增加。所以在埋点之前肯定要想好为什么要埋点。

如何建立筛选维度也是一个很需要思索的事情。

3)如何建立筛选维度

常见的埋点参数(请依据你的业务和目的进行选择):

时间-必要字段:要不然需要的是从项目1.0到现在的全部时间段PV/UV:这个详细的要看业务商家ID:这里依据业务可以变化,比如电商里面的商家ID,视频产品里面中的发布者ID等等主营类目:依据主营业务进行,比如淘宝就是电商用户ID:常见的是表格业内的筛选,不同的角色有不同的的字段权限,用户甚至可以自定义模板。工作台也是能依据角色来进行区分,不同的角色有不同的工作台。来源标记:例如文章的来源等等详细的要看你的业务类型/处在的阶段/埋点的目的等等信息进行自己推断。

4)第三方BI平台

建立BI分析平台需要肯定的资金和技术的作为基础,往往一些公司没有多余的能BI分析平台,所以第三方BI平台随之诞生。比较出名气的:神策百度移动统计(主要针对移动端)、友盟、腾讯MTA。

一些公司担忧数据泄露又不缺少建立的条件,所以会自己建立BI平台。

2.使用效率监控

1)常见参数

监控使用效率主要参数是两个完成率和完成效率,分别的计算公式是:

完成率=完成结果页PV/新建页面PV*100%完成效率(完成时长的倒数)=访问结果页的时间刻度-完成表单页的时间刻度接下来分解两个参数的取值范围以及实际状况可能会遇到的误区。

2)完成率

完成率常见的误区是实际工作中有些用uv(进入功能/页面的人数,基于PV去重)代替PV,导致测试出来的数据并不精确     。造成的这个缘由有:

用户可能会多次打开或者是多次关闭页面完成率是基于任务完成度进行计算的,任务完成才是关键uv是独立访问,通常基于PV进行去重,但是无法统计任务的个数3)完成效率

计算公式:

完成效率(完成时长倒数)=访问结果页时长-访问表单页面刻度

通常取值范围:

中位数:可以免受最大值或者最小值等极端状况的影响众数:消失最多次数的数据汇报小技巧:对上级进行汇报的时候,汇报比较大的数字。比如:修改前操作时间是5分钟,修改后是2分钟。根据完成利率的计算就是提高60%,完成效率150%。那你赞找完成效率去汇报,上级会更满足。

4)性能监控

性能监控主要是监控前端页面的响应速度,作为设计师只能发起体验项目,无法进行执行,帮到的忙不多。

通常的推断标准2-5-10原则:

2:首页2秒内响应速度,假如是官网的状况下需要更快的反应速度5:一般的的页面响应速度要在5秒以内10:简单的查询以及表单页面响应速度要在10秒以内一点超过这个这个标准用户就会也许率离开。

04测试周期以及数据对比

常规的测试周期:

7日:主要是针对营销活动等需要短期数据的进行测试,从而验证运营活动是否达到立项之前的目标14日或者是30日:常用于B端新功能的测试周期使用真实项目中,有一些项目总是急着要去数据验证,上线后1个月就需要验证需求/设计的必要性。作为一个打工人可以理解这个问题,由于在公司里面许多时候是依靠数据验证自己的价值以及在升值加薪时候的用。

但是这里没有考虑到用户学习新功能需要一段时间(常规是一个月),在用户学习的过程中某些数值会降低(完成率或者是完成效率),而会导致测试的精确     性失真从而导致回滚。所以,通常数据对比的隔月的旧数据进行对比。

重点再安利一遍“不要用下一个月的数据进行验证”,而是用隔月的数据进行验证!!比如7月底上线的功能,验证的数据应当是是9月的数据。

05总结

从整体来讲学会体验度量衡能让我们的设计验证是否符合用户跟场景,以及在做向上管理的时候有不错的效果。其中完成率跟完成效率能实施对用户行为的监控而获

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论