测试团队的一次复盘实践

简介: 测试团队的一次复盘实践


不论是PDCA理论,还是敏捷中的回顾会,都特别注重回顾复盘这个环节,如何有效地开展一次复盘活动,以便个人或者团队做出针对性的改进呢?本文结合笔者在之前团队做的复盘活动,做个总结并分享。

01

复盘源于古老的东方思维,这种思维不仅仅是一种思考和管理的工具,更是一种文化。这个词最早来源于棋类术语,也称“复局”,指对局完毕后,复演该盘棋的记录,以检查对局中着法的优劣与得失关键。

 

复盘不是一次性的“行为艺术”,它是一种持续性、连贯性、递进式的旋转向上的动作。这个行为可以一人参与,可以多人参与,但原则上是所有与之相关联的人和事都要参与。并且复盘的关键在于及时、迅速、有效、反复。


复盘的4个流程:

收集信息:收集与事件相关的数据、文件、记录等。
分析原因:分析事件发生的原因,找出问题所在。
总结经验:总结复盘过程中得到的经验教训,记录下来。
制定改进方案:根据经验教训制定改进方案,并实施。

 

营造安全环境:这个是开展复盘活动的基石。如果不能营造一个良好的氛围,复盘活动很容易陷入推脱、反驳、甩锅的状态中,从而失去了复盘的意义。


保持客观:尽可能客观地分析事件,避免主观臆断。在分析事件原因时,不要过于主观,而是要根据事实和数据分析。


全面分析:考虑到所有的因素和影响,不只是显而易见的因素。在进行复盘时,需要全面分析事件,包括影响事件发生的外部因素和内部因素。


细节把控:注重细节,找出细微的问题。在分析事件原因时,需要仔细甄别细节,找出存在的细微问题,并制定相应的解决方案。


多角度思考:从不同的角度思考问题,寻找更好的解决方案。在进行复盘时,需要多角度思考,分析事件的各种可能性和影响,并寻找更好的解决方案。

02

以笔者在之前做的某次团队质量活动复盘为例,背景是这样的:

经过几个迭代的内部测试,产品即将进入UAT环境让用户参与验收测试,但是在UAT环境中发现了大量的问题,交付质量不容乐观,为此,团队需要做一次复盘总结,发现并改进问题。作为负责人,我做了以下活动:


收集问题:把基于各测试环节的缺陷情况做了一个横向对比,会发现大量的缺陷在UAT测试时才被发现(打码的是各个不同的业务系统)。对UAT做了一轮针对性的缺陷分类,并提出了复盘会的主题:为什么我们自己发现不了缺陷。

 

在开复盘会前,作为负责人,需要针对性地做一些准备工作,而不能等到在会上再去梳理这些问题,事先需要做足功课。

 

 

分析原因:利用大白纸,分团队进行讨论并分析原因是什么,结合5W1H和鱼骨图,团队自行分析根因是什么,如何解决,后续的预防方案是什么等等。

 

经过充分、客观的讨论,我们最终做出了如下的一些结论:

 

 

测试用例没有引发团队的重视,各子项目的测试负责人对测试用例和测试报告没有很好的落地,导致测试人员无法有效地发现缺陷。

针对功能缺失、功能优化、设计问题这三类的缺陷,本质上是一类问题,就是需要质量如何保障,在测试后期,团队的产品和业务还在确认流程、业务逻辑,导致的质量偏差。

 

针对接口类问题,我们也进行了深入的原因分析,最终作出了对应的要求,对一些链路比较长的测试,大家也可以参考这种做法。

 

其他的问题就不一一展示了,各子系统也做出了对应的思考和改进项。

 

思考得再多,没有行动项也是没有意义的。在复盘会的后半部分,我们需要总结出改进项并落地执行,针对本次复盘会,我们制定出了如下的行动项:

 

 以上,就是整个复盘会的全流程案例,由于保密的原因,部分细节没有展示出来,但不影响阅读,每个团队的问题也不一样,需要根据实际情况进行分解。在整个复盘活动中,作为负责人,要密切注意讨论氛围,不要让会议走向推脱、反驳、甩锅的状态中,这点非常考验负责人的经验和能力。

 

03

复盘的意义在于通过复盘,能够更好地认识自己,发现问题,改进方法,提高工作效率。核心有两点:安全的环境和可落地的改进项。前者可以让团队更充分地去发现根本问题,而不是表面问题,后者可以让复盘会得到价值最大化,没有改进项的复盘会是没有意义的。


相关文章
|
2月前
|
人工智能 自然语言处理 测试技术
从人工到AI驱动:天猫测试全流程自动化变革实践
天猫技术质量团队探索AI在测试全流程的落地应用,覆盖需求解析、用例生成、数据构造、执行验证等核心环节。通过AI+自然语言驱动,实现测试自动化、可溯化与可管理化,在用例生成、数据构造和执行校验中显著提效,推动测试体系从人工迈向AI全流程自动化,提升效率40%以上,用例覆盖超70%,并构建行业级知识资产沉淀平台。
从人工到AI驱动:天猫测试全流程自动化变革实践
|
2月前
|
数据采集 存储 人工智能
从0到1:天猫AI测试用例生成的实践与突破
本文系统阐述了天猫技术团队在AI赋能测试领域的深度实践与探索,讲述了智能测试用例生成的落地路径。
从0到1:天猫AI测试用例生成的实践与突破
|
3月前
|
Java 测试技术 API
自动化测试工具集成及实践
自动化测试用例的覆盖度及关键点最佳实践、自动化测试工具、集成方法、自动化脚本编写等(兼容多语言(Java、Python、Go、C++、C#等)、多框架(Spring、React、Vue等))
181 6
|
3月前
|
人工智能 边缘计算 搜索推荐
AI产品测试学习路径全解析:从业务场景到代码实践
本文深入解析AI测试的核心技能与学习路径,涵盖业务理解、模型指标计算与性能测试三大阶段,助力掌握分类、推荐系统、计算机视觉等多场景测试方法,提升AI产品质量保障能力。
|
3月前
|
人工智能 自然语言处理 测试技术
AI测试平台的用例管理实践:写得清晰,管得高效,执行更智能
在测试过程中,用例分散、步骤模糊、回归测试效率低等问题常困扰团队。霍格沃兹测试开发学社推出的AI测试平台,打通“用例编写—集中管理—智能执行”全流程,提升测试效率与覆盖率。平台支持标准化用例编写、统一管理操作及智能执行,助力测试团队高效协作,释放更多精力优化测试策略。目前平台已开放内测,欢迎试用体验!
|
4月前
|
人工智能 资源调度 jenkins
精准化回归测试:大厂实践与技术落地解析
在高频迭代时代,全量回归测试成本高、效率低,常导致关键 bug 漏测。精准化测试通过代码变更影响分析,智能筛选高价值用例,显著提升测试效率与缺陷捕获率,实现降本增效。已被阿里、京东、腾讯等大厂成功落地,成为质量保障的新趋势。
|
4月前
|
搜索推荐 Devops 测试技术
避免无效回归!基于MCP协议的精准测试影响分析实践
本文揭示传统测试的"孤岛困境",提出MCP(Model Context Protocol)测试新范式,通过模型抽象业务、上下文感知环境和协议规范协作,实现从机械执行到智能测试的转变。剖析MCP如何颠覆测试流程,展示典型应用场景,并提供团队落地实践路径,助力测试工程师把握质量效率革命的新机遇。
|
4月前
|
人工智能 缓存 自然语言处理
大模型性能测试完全指南:从原理到实践
本文介绍了大模型性能测试的核心价值与方法,涵盖流式响应机制、PD分离架构、五大关键指标(如首Token延迟、吐字率等),并通过实战演示如何使用Locust进行压力测试。同时探讨了多模态测试的挑战与优化方向,帮助测试工程师成长为AI系统性能的“诊断专家”。
|
6月前
|
人工智能 Java 测试技术
SpringBoot 测试实践:单元测试与集成测试
在 Spring Boot 测试中,@MockBean 用于创建完全模拟的 Bean,替代真实对象行为;而 @SpyBean 则用于部分模拟,保留未指定方法的真实实现。两者结合 Mockito 可灵活控制依赖行为,提升测试覆盖率。合理使用 @ContextConfiguration 和避免滥用 @SpringBootTest 可优化测试上下文加载速度,提高测试效率。
359 5
|
7月前
|
缓存 测试技术 API
RESTful接口设计与测试实践
通过理解和实践上述原则和步骤,你就可以设计和测试你的RESTful接口了。最后,它可能会变成你为优化系统性能和用户体验所使用的重要工具,因为好的接口设计可以使得从服务器端到客户端的通信更加直接和有效,同时提升产品的使用体验和满意度。如此一来,写一个好的RESTful接口就变成一种享受。
247 18