需求开发人日评估

简介: 需求开发人日评估

前言

随着敏捷开发在国内的风靡,越来越多的团队开始推行敏捷开发,这其中有一个关键事项就是:工时的人日评估。简单来说就是:项目经理会让开发人员自己评估自己负责的模块大概需要的开发周期。

人日,即按照1人几天完成,如1/人日:表示这个需求需要1个人1天完成,如果有2个人一起做,可能就是0.5天(需求开发一般1+1 < 2,因为有代码合并的兼容性要处理)。

如何粗略评估开发人日

对于需求的人日评估,根据笔者的过往经历,假设开发是3人日,其余情况则做相对应的调整

开发周期:3人日,接口设计、数据库设计、代码开发

自测周期:1人日,约开发周期的0.3~0.5倍

联调周期:2人日,约开发周期的0.5倍,要充分考虑接口重新设计的可能性

测试周期:2人日,基本等同于联调周期,这个阶段有大量的前后端BUG需要修复

发布周期:2H左右,自动化部署平台一键部署或者Linux环境下上传jar包人工部署

常见需求开发人日参考

  • Excel导入导出:2人日
  • 单表增删改查:1人日
  • 跨服务业务逻辑
  • 远程服务调用(OpenFeign/Dubbo):3人日,需考虑对方给出接口的时间
  • 远程服务消费(MQ):3人日,需考虑对方给出MQ的时间
相关文章
|
敏捷开发 Dubbo Java
需求开发人日评估
随着敏捷开发在国内的风靡,越来越多的团队开始推行敏捷开发,这其中有一个关键事项就是:工时的人日评估。简单来说就是:项目经理会让开发人员自己评估自己负责的模块大概需要的开发周期。 人日,即按照1人几天完成,如1/人日:表示这个需求需要1个人1天完成,如果有2个人一起做,可能就是0.5天(需求开发一般1+1 < 2,因为有代码合并的兼容性要处理)。
935 1
|
测试技术 Docker 容器
自动化质量评估维度
上篇文章讲了下关于终端自动化的一个探索《终端自动化测试探索之路》,今天来聊聊关于自动化质量评估的维度,包括UI和接口。
757 0
|
4天前
|
敏捷开发 监控 数据可视化
看板项目评估的应用技巧:如何提高项目评估的准确性与效率
项目管理在现代企业中至关重要,看板作为一种直观、灵活的视觉化任务管理工具,能有效提升项目评估与团队协作的效率。本文探讨了看板的基本概念、发展及其在项目评估中的应用,特别是通过可视化进度管理、任务优先级与资源调配、识别与解决瓶颈、提升沟通协作及持续反馈优化等方面,展示了看板如何帮助团队更好地管理项目进度,优化资源分配,提高整体工作效率。
36 14
看板项目评估的应用技巧:如何提高项目评估的准确性与效率
|
16天前
|
机器学习/深度学习 算法 UED
在数据驱动时代,A/B 测试成为评估机器学习项目不同方案效果的重要方法
在数据驱动时代,A/B 测试成为评估机器学习项目不同方案效果的重要方法。本文介绍 A/B 测试的基本概念、步骤及其在模型评估、算法改进、特征选择和用户体验优化中的应用,同时提供 Python 实现示例,强调其在确保项目性能和用户体验方面的关键作用。
25 6
|
18天前
|
机器学习/深度学习 算法 UED
在数据驱动时代,A/B 测试成为评估机器学习项目效果的重要手段
在数据驱动时代,A/B 测试成为评估机器学习项目效果的重要手段。本文介绍了 A/B 测试的基本概念、步骤及其在模型评估、算法改进、特征选择和用户体验优化中的应用,强调了样本量、随机性和时间因素的重要性,并展示了 Python 在 A/B 测试中的具体应用实例。
25 1
|
5月前
|
UED
如何评估LabVIEW需求中功能的必要性和可行性
如何评估LabVIEW需求中功能的必要性和可行性
34 2
如何评估LabVIEW需求中功能的必要性和可行性
|
测试技术
如何评估软件测试的质量风险?记住这5个核心关键点
如何评估软件测试的质量风险?记住这5个核心关键点
336 0
|
机器学习/深度学习 算法
评估系统或算法质量的重要指标
准确性(Accuracy):衡量系统或算法输出结果与真实结果之间的接近程度。通常使用分类准确率、回归误差等指标来评估。 精确率(Precision)和召回率(Recall):主要用于评估分类模型的性能。精确率衡量预测为正例的样本中实际为正例的比例,召回率衡量实际为正例的样本中被正确预测为正例的比例。
304 4
|
机器学习/深度学习 JSON 自然语言处理
可复现、自动化、低成本、高评估水平,首个自动化评估大模型的大模型PandaLM来了
可复现、自动化、低成本、高评估水平,首个自动化评估大模型的大模型PandaLM来了
620 0
|
测试技术 API 持续交付
持续测试成熟度模型
持续测试成熟度模型
319 0
持续测试成熟度模型