python客户的流失率分析和预测

简介: python客户的流失率分析和预测

1  一、实验目的

1.1  1、掌握逻辑回归的模型及分类模型评估指标。

1.2  2、掌握决策树分类模型。

2  二、实验内容

2.1  1、本次实验是电信客户的流失率分析和预测。

2.2  2、通过分析用户的套餐、通话、流量、行为、合约、关联购买、使用月数等情况。

2.3  3、对用户是否会流失进行分析,并预测一些用户的流失可能性。

2.4  4、后期可以根据用户所关联的情况,推出一些新的政策或活动进行挽留。

3  三、 实验流程

使用 python 建立逻辑回归分类模型,主要分为以下几个步骤完成:

3.1  1、加载数据,查看数据大小,数据形式

1. import pandas as pd 
2. data=pd.read_excel("./data/实验3data.xlsx")# 加载数据
3. data.shape# 查看数据大小
data.head()# 查看数据形式

3.2  2、异常值处理(额外通话时长,额外流量)

1. data.额外通话时长[data.额外通话时长<=0]=0
2. data.额外流量[data.额外流量<=0]=0
3. print(data["额外流量"])
4. print(data["额外通话时长"])
5. data

3.3  3、删除用户 ID 列,查看数据是否存在 Null

1. data.drop('ID',axis=1,inplace=True)
2. data

3.4  4、查看数据类型

data.dtypes# 查看数据类型

3.5  5、查看数据基本信息

data.info()         # 打印摘要
data.describe()      # 描述性统计信息
data.values          # 数据 <ndarray>
data.to_numpy()       # 数据 <ndarray> (推荐)
data.shape           # 形状 (行数, 列数)
data.columns         # 列标签 <Index>
1. data.columns.values  # 列标签 <ndarray>
2.
data.index           # 行标签 <Index>
data.index.values    # 行标签 <ndarray>
data.head(5)         # 前n行
data.tail(5)       # 尾n行
data.memory_usage()                # 占用内存(字节B)

3.6  6、计算流失用户比例,并画饼图

1. User_info=data.groupby(by="流失用户")["流失用户"].count()
2. User_info=pd.DataFrame(User_info)
3. User_info
1. import pyecharts.options as opts
2. from pyecharts.charts import Pie
3. 
4. x_data = [ "流失", "未流失"]
5. y_data = [3146,882]
6. 
7. c=(
8.     Pie(init_opts=opts.InitOpts(width="160px", height="100px"))
9.     .add(
10.         series_name="访问来源",
11.         data_pair=[list(z) for z in zip(x_data, y_data)],
12.         radius=["50%", "70%"],
13.         label_opts=opts.LabelOpts(is_show=False, position="center"),
14.     )
15.     .set_global_opts(legend_opts=opts.LegendOpts(pos_left="legft", orient="vertical"))
16.     .set_series_opts(
17.         tooltip_opts=opts.TooltipOpts(
18.             trigger="item", formatter="{a} <br/>{b}: {c} ({d}%)"
19.         ),
20. # label_opts=opts.LabelOpts(formatter="{b}: {c}")
21.     )
22. #     .render("doughnut_chart.html")
23. 
24. )
25. c.render_notebook()

3.7  7、分类统计套餐金额、改变行为、服务合约、关联购买、集团用户、流失用户数量,并画条形图

In [23]:

1. Tc_info=data.groupby(by=["套餐金额","流失用户"])["流失用户"].count()
2. Tc_info=pd.DataFrame(Tc_info)
3. Tc_info
1. Change_info=data.groupby(by=["改变行为","流失用户"])["流失用户"].count()
2. Change_info=pd.DataFrame(Change_info)
3. Change_info
1. Server_info=data.groupby(by=["服务合约","流失用户"])["流失用户"].count()
2. Server_info=pd.DataFrame(Server_info)
3. Server_info
1. Relevance_info=data.groupby(by=["关联购买","流失用户"])["流失用户"].count()
2. Relevance_info=pd.DataFrame(Relevance_info)
3. Relevance_info
1. 
2. import numpy as np 
3. r=np.array(Relevance_info)
4. list_t=r[::2]
5. list_f=r[1::2]
6. list_t.tolist()
1. Group_info=data.groupby(by=["集团用户","流失用户"])["流失用户"].count()
2. Group_info=pd.DataFrame(Group_info)
3. Group_info
4. # Group_info["流失用户"]

3.8  8、画出套餐金额、改变行为、服务合约、关联购买、集团用户与流失用户对比关系条形图

1. from pyecharts.charts import Bar
2. from pyecharts.faker import Faker
3. from pyecharts.globals import ThemeType
4. 
5. c = (
6.     Bar({"套餐金额与客户流失条形图": ThemeType.MACARONS})
7.     .add_xaxis(['套餐金额:1','套餐金额:2','套餐金额:3'])
8.     .add_yaxis("流失", [3065,76,5])
9.     .add_yaxis("未流失",[756,106,20])
10.     .set_global_opts(
11.         title_opts={"text": "套餐金额与客户流失条形图", "subtext": "各套餐中流失与未流失"}
12.     )
13. #      .render("套餐金额与客户流失条形图.html") 
14. )
15. c.render_notebook()

后期补上建模评估,模型改进部分,感谢理解!


相关文章
|
9天前
|
缓存 Rust 算法
从混沌到秩序:Python的依赖管理工具分析
Python 的依赖管理工具一直没有标准化,主要原因包括历史发展的随意性、社区的分散性、多样化的使用场景、向后兼容性的挑战、缺乏统一治理以及生态系统的快速变化。依赖管理工具用于处理项目中的依赖关系,确保不同环境下的依赖项一致性,避免软件故障和兼容性问题。常用的 Python 依赖管理工具如 pip、venv、pip-tools、Pipenv、Poetry 等各有优缺点,选择时需根据项目需求权衡。新工具如 uv 和 Pixi 在性能和功能上有所改进,值得考虑。
62 35
|
2月前
|
机器学习/深度学习 数据采集 TensorFlow
使用Python实现智能食品消费模式分析的深度学习模型
使用Python实现智能食品消费模式分析的深度学习模型
145 70
|
17天前
|
机器学习/深度学习 数据可视化 数据挖掘
使用Python实现基于矩阵分解的长期事件(MFLEs)时间序列分析
在现代数据分析中,高维时间序列数据的处理和预测极具挑战性。基于矩阵分解的长期事件(MFLEs)分析技术应运而生,通过降维和时间序列特性结合,有效应对大规模数据。MFLE利用矩阵分解提取潜在特征,降低计算复杂度,过滤噪声,并发现主要模式。相比传统方法如ARIMA和深度学习模型如LSTM,MFLE在多变量处理、计算效率和可解释性上更具优势。通过合理应用MFLE,可在物联网、金融等领域获得良好分析效果。
34 0
使用Python实现基于矩阵分解的长期事件(MFLEs)时间序列分析
|
10天前
|
数据采集 数据可视化 数据挖掘
金融波动率的多模型建模研究:GARCH族与HAR模型的Python实现与对比分析
本文探讨了金融资产波动率建模中的三种主流方法:GARCH、GJR-GARCH和HAR模型,基于SPY的实际交易数据进行实证分析。GARCH模型捕捉波动率聚类特征,GJR-GARCH引入杠杆效应,HAR整合多时间尺度波动率信息。通过Python实现模型估计与性能比较,展示了各模型在风险管理、衍生品定价等领域的应用优势。
136 65
金融波动率的多模型建模研究:GARCH族与HAR模型的Python实现与对比分析
|
19天前
|
数据可视化 算法 数据挖掘
Python时间序列分析工具Aeon使用指南
**Aeon** 是一个遵循 scikit-learn API 风格的开源 Python 库,专注于时间序列处理。它提供了分类、回归、聚类、预测建模和数据预处理等功能模块,支持多种算法和自定义距离度量。Aeon 活跃开发并持续更新至2024年,与 pandas 1.4.0 版本兼容,内置可视化工具,适合数据探索和基础分析任务。尽管在高级功能和性能优化方面有提升空间,但其简洁的 API 和完整的基础功能使其成为时间序列分析的有效工具。
66 37
Python时间序列分析工具Aeon使用指南
|
15天前
|
机器学习/深度学习 运维 数据可视化
Python时间序列分析:使用TSFresh进行自动化特征提取
TSFresh 是一个专门用于时间序列数据特征自动提取的框架,支持分类、回归和异常检测等机器学习任务。它通过自动化特征工程流程,处理数百个统计特征(如均值、方差、自相关性等),并通过假设检验筛选显著特征,提升分析效率。TSFresh 支持单变量和多变量时间序列数据,能够与 scikit-learn 等库无缝集成,适用于大规模时间序列数据的特征提取与模型训练。其工作流程包括数据格式转换、特征提取和选择,并提供可视化工具帮助理解特征分布及与目标变量的关系。
55 16
Python时间序列分析:使用TSFresh进行自动化特征提取
|
14天前
|
数据采集 缓存 API
python爬取Boss直聘,分析北京招聘市场
本文介绍了如何使用Python爬虫技术从Boss直聘平台上获取深圳地区的招聘数据,并进行数据分析,以帮助求职者更好地了解市场动态和职位需求。
|
2月前
|
机器学习/深度学习 数据采集 数据挖掘
使用Python实现智能食品消费市场分析的深度学习模型
使用Python实现智能食品消费市场分析的深度学习模型
138 36
|
2月前
|
数据可视化 算法 数据挖掘
Python量化投资实践:基于蒙特卡洛模拟的投资组合风险建模与分析
蒙特卡洛模拟是一种利用重复随机抽样解决确定性问题的计算方法,广泛应用于金融领域的不确定性建模和风险评估。本文介绍如何使用Python和EODHD API获取历史交易数据,通过模拟生成未来价格路径,分析投资风险与收益,包括VaR和CVaR计算,以辅助投资者制定合理决策。
86 15
|
2月前
|
机器学习/深度学习 数据采集 数据挖掘
使用Python实现智能食品消费趋势分析的深度学习模型
使用Python实现智能食品消费趋势分析的深度学习模型
144 18

热门文章

最新文章