优化A/B测试不仅仅是程序员的事,设计师也能玩

简介:

A/B 分类测试

A/B分类测试使得网站可以通过比较同一网页的不同设计,来决定其中哪些设计将产生最好的结果。在A/B测试中用到的指标是微观和宏观的转化率。

随着那些不需要太多开发协助和技术资源就能运作A/B测试的工具的出现,A/B测试已经变得愈加常见。这个方法本在市场营销从业者中有着很稳的立脚点,而因为成本相对较低,它也正在越来越广泛地被用户体验设计师们所运用。

许多大型电子商务网站如谷歌及亚马逊都以“总在测试中”而著称——他们在任何时候都同时进行着多组A/B测试。

优化A/B测试不仅仅是程序员的事,设计师也能玩

(来自Netflix分享ppt)

无用输入,无用输出(GIGO)
使用恰当时,A/B测试是一个非常强大的工具。然而以下三种情形下的A/B测试还是会有潜在的问题:

1)当所要测试的设计元素并没有很好地体现设计意图。

糟糕的设计会导致糟糕的转换率——显而易见。但是,每个设计都是一个产品概念的后续执行,因而通过设计的实施来评判一个产品概念本身的优劣是很可笑的。通常要经过许多次设计尝试才能充分地体现出真正的设计意图。

比如说,从理论上讲,增加对某一选项的说明会增加其被选择的可能性,然而如果这条描述表达得像一则广告,用户就可能会无视。这个增加选项的说明的设计意图是对的,但其表达形式却是错的。因此设计意图和设计结果的偏差可能会是致命的。

当设计元素本身并不能告诉你问题的源头在哪。对问题起因的错误推测,也会让你在错误的设计元素上浪费时间,因为该元素并非是该问题背后真正的原因。即便修改这个设计元素也不能真正解决问题,因为你的切入点一开始就错了。

比如,你可能猜测一个贷款申请提交转化率低是因为流程的页面太多了,所以你把它浓缩到一个页面里,但是你仍看不到任何转化率的提升。你忽略的是,用户真正的问题是找不到贷款利率,而他们点进申请页面其实是为了找贷款利率。

2)当设计只是设计者的主观猜想。

使用A/B测试时你只能从已提供的设计选项中找到最佳的那个。如果这些选项是基于主观经验和意见的话,谁又能说这个测试包含了最优的设计呢?

3)这些A/B测试实验过程当中的瑕疵可以通过用户研究来减少。

即使只实施了些许的用户研究,我们仍能获取一些极其宝贵的有关于转化率问题的潜在原因的线索。

发现真正原因,定义更好的设计
发现(造成转化率低的)真正原因,定义更好的(用于测试的)设计。

“实验可以证实一个理论,但实验永远无法创造出一个理论。 ”——爱因斯坦

要保证A/B测试执行得好,需要定义以下这几步:

优化A/B测试不仅仅是程序员的事,设计师也能玩

你可以先集中全部精力建立一套致因体系,并罗列设计元素的可能性,然后用A/B方法把他们全部测试一遍:这是最直接了当却不免有一些鲁莽的方法。不经深思熟虑的 A/B测试等同于把想法往墙上扔然后看哪个能黏住。不幸的是,你做不起这样的测试:这样大规模地测试会增大用户放弃操作的几率,并且使总体验变糟糕。

当你等着从大量A/B测试像抽中彩票一样找到最好的方案,用户可能已经转而使用了他们第二选择的产品,他们可能最终认定你的网站是失败的,以后再也不会来了。你需要缩小假设的数量范围,并且小心谨慎、高效地部署你的A/B测试;为达到此目的,我们推荐使用用户研究的方法。

提升最优化测试的用户体验研究方法
优化A/B测试不仅仅是程序员的事,设计师也能玩

1)定义用户意图和可能反对的理由

理解人们为何访问、是否能成功访问、和他们为何会离开,是相当重要的。

如果你错误地假设了人们访问网站的原因,那么你的设计假设将不能够反应用户对环境的感知。没有做过调查就对用户离开的原因做假设是很危险的。

举个例子,假定你假设访问者没有做意想中的操作(买单)是因为价格太高,你于是将价格降低,边际利润就受到了打击。如果人们真正不买账的原因不是价格,而是他们不理解你提供的服务能解决什么,那么你就大错特错了。

让我们来看看Netflix是怎么做的:

Netflix就做了一个很有趣的A/B测试来了解影响转化率的因素。Netflix的主页上展示了大量的影视作品,然而不同用户所看到的是不一样的。作为其A/B测试的一部分,这是该公司对用户提供的个性化推荐。不仅如此,Netflix更对看到同一个影视产品推荐的用户进行了分批测试。他们让视觉设计师重新设计了不同版本的影视剧海报,并将这一变量用于A/B测试。得到的结果是,即便是同一个作品,不同的海报仍会造成不同的转化率。这就印证了造成用户离开或点击的理由是多样化的。

因此不要局限于那些明显的理由,而要深掘用户可能关注的点。有时候用户说的不一定是他们所做的,所以往往观察比问卷调查能提供更为真实的用户使用倾向。

优化A/B测试不仅仅是程序员的事,设计师也能玩(图片来自Netflix博客)

优化A/B测试不仅仅是程序员的事,设计师也能玩(图片来自Netflix博客;右上的两张标注的图片显著地提高了转化率)

2)发现界面的缺陷

如果你忽视了重大的可用性问题,比如让人难以理解的交互流程,或容易造成误解的微交互,那么你可能不会从不断的A/B测试中获得转化率的提升,因为你的设计并没有应对问题的根源。

举个例子:如果你提供的填空题中有几项要求的信息是用户不方便或不愿意提供的,那么仅仅靠更改提交按键的颜色来做A/B测试是不会有效提升转化率的,反而是浪费力气。理解低转化率的真正原因才是执行智慧、成功的测试的关键。

如何发掘界面的缺陷:可用性测试(远程主持或免主持,或当面)可以快速进行并可在五个左右用户的帮助下就揭露网站近85%的重大缺陷。

3)衡量网站的可寻性

测试导航标签和菜单设计能披露可寻性的问题。但是,糟糕的可寻性可以并且应该在实施A/B测试之前就确认,这直接影响了信息架构和站内导航。

如何衡量可寻性:树图测试可以在不影响任何界面设计的情况下测量一个已有的或设定的信息架构。树图测试会告诉你标签、链接分组、页面层级及命名系统是否直观。如果你在纠结如何命名网站中的区块、页面、链接以及标签,树形测试能帮你找出最有问题的命名,并帮你设计出能改善可寻性的新标签。树图测试可以用Optimal Workshop开发的Treejack这样的工具进行,它生成可用于测试信息架构的任务。

优化A/B测试不仅仅是程序员的事,设计师也能玩

3)测试前先”铺好路”

最简单的方法,就是开始在A/B测试前,先把那些可能会影响用户操作的绊脚石解决掉。一般几个小时的测试即能揭露几乎所有你网站上特别糟糕的设计。更为复杂和完善的用户研究当然益处更多,但不要忽视了最基本的审查清理工作。

对A/B测试而言,你当然希望所要测试的目标元素不会受到其它可用性问题的干扰,而是能被用户更好的体验到。所以开始测试前先做一次“路障清理”吧。

结语
结合不同方法最大化转化率。

A/B测试是一个绝妙的工具,却时常不幸被误用。如果用A/B测试替代用户研究,那么测试中的设计选项本质上只是主观猜测。你可以通过结合用户研究来更精准的找到问题起因、提出更符合现实的假设,从而为更好的测试结果提供更大的可能。

英文原文:Jennifer Cardello, Define Stronger A/B Test Variations Through UX Research.

本文编译:霍诗雨(点融黑帮),来自点融DDC设计团队的交互设计师,曾在纽约大学研习艺术史。热爱游戏,信仰中医,关注时事。

本文由@点融黑帮(ID:DianrongMafia)原创发布于36Kr,未经许可,禁止转载。

A/B 分类测试

A/B分类测试使得网站可以通过比较同一网页的不同设计,来决定其中哪些设计将产生最好的结果。在A/B测试中用到的指标是微观和宏观的转化率。

随着那些不需要太多开发协助和技术资源就能运作A/B测试的工具的出现,A/B测试已经变得愈加常见。这个方法本在市场营销从业者中有着很稳的立脚点,而因为成本相对较低,它也正在越来越广泛地被用户体验设计师们所运用。

许多大型电子商务网站如谷歌及亚马逊都以“总在测试中”而著称——他们在任何时候都同时进行着多组A/B测试。

(来自Netflix分享ppt)

无用输入,无用输出(GIGO)

使用恰当时,A/B测试是一个非常强大的工具。然而以下三种情形下的A/B测试还是会有潜在的问题:

1)当所要测试的设计元素并没有很好地体现设计意图。

糟糕的设计会导致糟糕的转换率——显而易见。但是,每个设计都是一个产品概念的后续执行,因而通过设计的实施来评判一个产品概念本身的优劣是很可笑的。通常要经过许多次设计尝试才能充分地体现出真正的设计意图。

比如说,从理论上讲,增加对某一选项的说明会增加其被选择的可能性,然而如果这条描述表达得像一则广告,用户就可能会无视。这个增加选项的说明的设计意图是对的,但其表达形式却是错的。因此设计意图和设计结果的偏差可能会是致命的。

当设计元素本身并不能告诉你问题的源头在哪。对问题起因的错误推测,也会让你在错误的设计元素上浪费时间,因为该元素并非是该问题背后真正的原因。即便修改这个设计元素也不能真正解决问题,因为你的切入点一开始就错了。

比如,你可能猜测一个贷款申请提交转化率低是因为流程的页面太多了,所以你把它浓缩到一个页面里,但是你仍看不到任何转化率的提升。你忽略的是,用户真正的问题是找不到贷款利率,而他们点进申请页面其实是为了找贷款利率。

2)当设计只是设计者的主观猜想。

使用A/B测试时你只能从已提供的设计选项中找到最佳的那个。如果这些选项是基于主观经验和意见的话,谁又能说这个测试包含了最优的设计呢?

3)这些A/B测试实验过程当中的瑕疵可以通过用户研究来减少。

即使只实施了些许的用户研究,我们仍能获取一些极其宝贵的有关于转化率问题的潜在原因的线索。

发现真正原因,定义更好的设计

发现(造成转化率低的)真正原因,定义更好的(用于测试的)设计。

“实验可以证实一个理论,但实验永远无法创造出一个理论。 ”——爱因斯坦

要保证A/B测试执行得好,需要定义以下这几步:

你可以先集中全部精力建立一套致因体系,并罗列设计元素的可能性,然后用A/B方法把他们全部测试一遍:这是最直接了当却不免有一些鲁莽的方法。不经深思熟虑的 A/B测试等同于把想法往墙上扔然后看哪个能黏住。不幸的是,你做不起这样的测试:这样大规模地测试会增大用户放弃操作的几率,并且使总体验变糟糕。

当你等着从大量A/B测试像抽中彩票一样找到最好的方案,用户可能已经转而使用了他们第二选择的产品,他们可能最终认定你的网站是失败的,以后再也不会来了。你需要缩小假设的数量范围,并且小心谨慎、高效地部署你的A/B测试;为达到此目的,我们推荐使用用户研究的方法。

提升最优化测试的用户体验研究方法

1)定义用户意图和可能反对的理由

理解人们为何访问、是否能成功访问、和他们为何会离开,是相当重要的。

如果你错误地假设了人们访问网站的原因,那么你的设计假设将不能够反应用户对环境的感知。没有做过调查就对用户离开的原因做假设是很危险的。

举个例子,假定你假设访问者没有做意想中的操作(买单)是因为价格太高,你于是将价格降低,边际利润就受到了打击。如果人们真正不买账的原因不是价格,而是他们不理解你提供的服务能解决什么,那么你就大错特错了。

让我们来看看Netflix是怎么做的:

Netflix就做了一个很有趣的A/B测试来了解影响转化率的因素。Netflix的主页上展示了大量的影视作品,然而不同用户所看到的是不一样的。作为其A/B测试的一部分,这是该公司对用户提供的个性化推荐。不仅如此,Netflix更对看到同一个影视产品推荐的用户进行了分批测试。他们让视觉设计师重新设计了不同版本的影视剧海报,并将这一变量用于A/B测试。得到的结果是,即便是同一个作品,不同的海报仍会造成不同的转化率。这就印证了造成用户离开或点击的理由是多样化的。

因此不要局限于那些明显的理由,而要深掘用户可能关注的点。有时候用户说的不一定是他们所做的,所以往往观察比问卷调查能提供更为真实的用户使用倾向。

(图片来自Netflix博客)

(图片来自Netflix博客;右上的两张标注的图片显著地提高了转化率)

2)发现界面的缺陷

如果你忽视了重大的可用性问题,比如让人难以理解的交互流程,或容易造成误解的微交互,那么你可能不会从不断的A/B测试中获得转化率的提升,因为你的设计并没有应对问题的根源。

举个例子:如果你提供的填空题中有几项要求的信息是用户不方便或不愿意提供的,那么仅仅靠更改提交按键的颜色来做A/B测试是不会有效提升转化率的,反而是浪费力气。理解低转化率的真正原因才是执行智慧、成功的测试的关键。

如何发掘界面的缺陷:可用性测试(远程主持或免主持,或当面)可以快速进行并可在五个左右用户的帮助下就揭露网站近85%的重大缺陷。

3)衡量网站的可寻性

测试导航标签和菜单设计能披露可寻性的问题。但是,糟糕的可寻性可以并且应该在实施A/B测试之前就确认,这直接影响了信息架构和站内导航。

如何衡量可寻性:树图测试可以在不影响任何界面设计的情况下测量一个已有的或设定的信息架构。树图测试会告诉你标签、链接分组、页面层级及命名系统是否直观。如果你在纠结如何命名网站中的区块、页面、链接以及标签,树形测试能帮你找出最有问题的命名,并帮你设计出能改善可寻性的新标签。树图测试可以用Optimal Workshop开发的Treejack这样的工具进行,它生成可用于测试信息架构的任务。

3)测试前先”铺好路”

最简单的方法,就是开始在A/B测试前,先把那些可能会影响用户操作的绊脚石解决掉。一般几个小时的测试即能揭露几乎所有你网站上特别糟糕的设计。更为复杂和完善的用户研究当然益处更多,但不要忽视了最基本的审查清理工作。

对A/B测试而言,你当然希望所要测试的目标元素不会受到其它可用性问题的干扰,而是能被用户更好的体验到。所以开始测试前先做一次“路障清理”吧。

结语

结合不同方法最大化转化率。

A/B测试是一个绝妙的工具,却时常不幸被误用。如果用A/B测试替代用户研究,那么测试中的设计选项本质上只是主观猜测。你可以通过结合用户研究来更精准的找到问题起因、提出更符合现实的假设,从而为更好的测试结果提供更大的可能。

英文原文:Jennifer Cardello, Define Stronger A/B Test Variations Through UX Research.

本文编译:霍诗雨(点融黑帮),来自点融DDC设计团队的交互设计师,曾在纽约大学研习艺术史。热爱游戏,信仰中医,关注时事。

本文由@点融黑帮(ID:DianrongMafia)原创发布于36Kr,未经许可,禁止转载。

本文转自d1net(转载)

相关文章
|
22天前
|
安全 Linux 测试技术
提升龙蜥内核测试能力!探究持续性模糊测试优化实践
清华大学软件学院对Anolis OS使用靶向模糊测试方法将测试工作引向修改的代码,进而提高对业务代码的测试能力。
|
3月前
|
存储 测试技术 持续交付
自动化测试与持续集成/持续交付(CI/CD):优化软件开发流程的利器
自动化测试与持续集成/持续交付(CI/CD)是现代软件开发中至关重要的环节,通过将自动化测试与持续集成/持续交付相结合,可以实现开发流程的高效优化,提高软件质量和交付速度。本文将探讨自动化测试与CI/CD的概念、原理及其在软件开发中的重要性,以及如何实施这些技术以提升团队的协作效率和软件交付质量。
57 1
|
5月前
|
人工智能 自然语言处理 安全
【网安AIGC专题10.19】论文3代码生成:ChatGPT+自协作代码生成+角色扮演(分析员、程序员、测试员)+消融实验、用于MBPP+HumanEval数据集
【网安AIGC专题10.19】论文3代码生成:ChatGPT+自协作代码生成+角色扮演(分析员、程序员、测试员)+消融实验、用于MBPP+HumanEval数据集
109 0
|
3月前
|
监控 数据可视化 Java
jvm性能调优实战 - 31从测试到上线_如何分析JVM运行状况及合理优化
jvm性能调优实战 - 31从测试到上线_如何分析JVM运行状况及合理优化
53 1
|
监控 NoSQL 前端开发
软件测试|Mongodb的分页优化及索引使用
软件测试|Mongodb的分页优化及索引使用
378 0
软件测试|Mongodb的分页优化及索引使用
|
1月前
|
敏捷开发 分布式计算 测试技术
深入理解软件测试中的自动化框架选择与优化策略
【2月更文挑战第29天】 在软件开发的生命周期中,测试环节扮演着至关重要的角色。随着敏捷开发和持续集成的普及,自动化测试成为确保软件质量和加快产品上市速度的关键手段。本文将探讨在构建自动化测试框架时面临的挑战,分析不同类型自动化框架的特点及其适用场景,并提出一系列优化策略,旨在帮助测试工程师提高测试效率,确保测试结果的准确性。
21 0
|
1月前
|
敏捷开发 分布式计算 数据管理
探索自动化测试在持续集成环境中的优化策略
【2月更文挑战第18天】 在高速迭代的软件开发过程中,自动化测试已成为确保产品质量和加快交付速度的关键。本文深入探讨了自动化测试在持续集成(CI)环境中面临的挑战,并提出了一系列优化策略。通过对测试流程、工具选择和测试数据管理等方面的细致分析,旨在为软件测试人员提供实用的改进方法,以提高自动化测试的效率和准确性。
|
6月前
|
人工智能 程序员 测试技术
AI人工智能时代,测试岗位程序员的未来:十个角度的探讨
AI人工智能时代,测试岗位程序员的未来:十个角度的探讨
90 0
|
8月前
|
人工智能 自然语言处理 程序员
《游戏测试》编写 Prompt 将成为程序员的必修课
《游戏测试》编写 Prompt 将成为程序员的必修课
|
8月前
|
Java Spring
优化测试执行顺序:解析 Java 中的 @Order 注解
在软件开发中,测试的执行顺序有时候是至关重要的,尤其是在涉及依赖关系或状态共享的情况下。Java 中的 `@Order` 注解为开发人员提供了一种简便的方式来控制测试方法的执行顺序,确保测试按照指定的顺序运行。本文将带您深入探索 Java 中的 `@Order` 注解,揭示其作用、用法以及在实际开发中的应用场景。