python每日可视化分析:从过去到现代数据分析的演进

本文涉及的产品
可视分析地图(DataV-Atlas),3 个项目,100M 存储空间
数据可视化 DataV(企业版),20 个大屏 1 个月
简介: python每日可视化分析:从过去到现代数据分析的演进

 作者介绍:10年大厂数据\经营分析经验,现任大厂数据部门负责人。

会一些的技术:数据分析、算法、SQL、大数据相关、python

欢迎加入社区:码上找工作

作者专栏每日更新:

LeetCode解锁1000题: 打怪升级之旅

python数据分析可视化:企业实战案例

备注说明:方便大家阅读,统一使用python,带必要注释,公众号 数据分析螺丝钉 一起打怪升级

分析目标

本文旨在探索数据分析发展历程中的关键时刻,包括重要人物的贡献和大事件的发生。通过对比不同年代的数据分析技术和方法,我们可以更好地理解数据分析如何成为今天决策制定不可或缺的一部分。

分析步骤
  1. 收集数据:搜集关于数据分析历史上重要人物和事件的信息。
  2. 数据与可视化:创建一组数据,展示不同年份全球数据量的增长,并通过可视化技术加入人物和大事件的标记。
  3. 分析改进前后的差异:对比分析人物贡献和大事件发生前后数据分析技术的变化。
数据与可视化

我们创建了一组数据,显示从1662年至2010年全球数据量的增长。重要的里程碑包括John Graunt的统计分析开始,Alan Turing的图灵机概念,Tim Berners-Lee的万维网发明,以及Hadley Wickham在数据分析工具方面的现代化努力。

通过Matplotlib库,我们将这些数据和事件以及相关人物的贡献呈现在一个时间线图上。这不仅展示了数据量的增长,也突出了数据分析历史上的重要时刻和人物。

改进前

这是每个人物对应的时间和主要的贡献,我们通过文字的方式进行描述,对于每个时间点、数据量、整体的变化感知不是很清晰,没有太多的体感,数据量较小也不知道具体是多少,对数据分析来说不是很友好的呈现方式

  1. John Graunt (1662): 被认为是统计学的创始人之一。此时期数据量非常小,主要依靠手工记录。
  • 数据量: 微乎其微
  • 大事件: 开始使用统计方法分析人口数据。
  1. Carl Friedrich Gauss (1801): 对统计理论做出了重要贡献,包括最小二乘法。
  • 数据量: 较小
  • 大事件: 统计学和概率理论的发展。
  1. Ronald A. Fisher (1912): 现代统计学的重要人物,提出方差分析等概念。
  • 数据量: 逐渐增长
  • 大事件: 统计学在科学研究中的应用扩展。
  1. Alan Turing (1936): 计算机科学的先驱,提出图灵机模型。
  • 数据量: 逐渐增长
  • 大事件: 计算机科学的诞生,数据处理能力得到提升。
  1. Tim Berners-Lee (1989): 万维网的发明者,极大地促进了数据的生成和共享。
  • 数据量: 显著增长
  • 大事件: 互联网时代的开始,数据量开始爆炸性增长。
  1. Jim Gray (2003): 数据库技术的先驱,对大数据处理做出了贡献。
  • 数据量: 巨大
  • 大事件: 数据库和大数据技术的发展。
  1. Geoffrey Hinton (2006): 深度学习和神经网络的领军人物。
  • 数据量: 极大
  • 大事件: 深度学习技术的突破,开启了AI时代。
  1. Hadley Wickham (2010): R语言的重要贡献者,简化了数据分析过程。
  • 数据量: 巨量
  • 大事件: 数据科学和统计计算的现代工具和方法的发展。
第一次改进

我们通过一个表格来展示数据分析领域的关键人物,数据量级和大事件,对同类项进行划分,能比较清晰的看出不同字段对应的事件和人物,数据量的情况等。但是对于数据分析来说我们需要对可视化有更高的要求

第二次改进

我们通过一个折线图把关键信息都描述在一个图里,不仅呈现了数据量的增长,还描绘了数据分析领域发展的脉络,包括人物直观的图像。这为我们提供了一个全面的视角,展现了数据分析是如何逐步成为现代社会的重要组成部分,包括哪些重点事件和人物的推动下演进。这里均通过python代码实现。

分析结论

从John Graunt的早期统计学应用,到Hadley Wickham对现代数据科学工具的贡献,数据分析领域经历了巨大的变革。随着全球数据量的爆炸式增长,数据分析的重要性也随之增加。历史上的人物和大事件不仅塑造了数据分析的方法和技术,也影响了我们如何理解和利用数据。未来,随着技术的不断进步,数据分析将继续发挥其在解决复杂问题和推动社会进步中的关键作用。

这篇文章通过对过去和现在的对比,展现了数据分析的发展历程和关键人物的重要性,为理解其对未来的潜在影响提供了不同的视角。

python代码(包括对人物图像的插入)

需要插入的人物头像欢迎关注 公众号 数据分析螺丝钉 回复关键词 python可视化 领取

import matplotlib.pyplot as plt
from matplotlib.offsetbox import OffsetImage, AnnotationBbox
import numpy as np
# Define the data for the timeline
years = [1662, 1801, 1912, 1936, 1989, 2003,  2010]
data_volumes = [0.0001, 0.0001, 0.0001, 0.0002, 0.01, 1, 2]  # in Zettabytes
persons = ["John Graunt", "Carl Friedrich Gauss", "Ronald A. Fisher", "Alan Turing", 
           "Tim Berners-Lee", "Jim Gray", "Hadley Wickham"]
milestones = [
    "John Graunt \n Beginning of statistical analysis", 
    "Carl Friedrich Gauss \n Development of the least squares method", 
    "Ronald A. Fisher \n Introduction of variance analysis", 
    "Alan Turing \n Conceptualization of the Turing Machine", 
    "Tim Berners-Lee \n Invention of the World Wide Web", 
    "Jim Gray \n Advances in database technology", 
    "Hadley Wickham \n Modernization of data analysis tools"
]
# Custom offsets for each image in the format (x_offset, y_offset)
offsets = {
    "John Graunt": (1680,0.0005),
    "Carl Friedrich Gauss": (1820, 0.0005),
    "Ronald A. Fisher": (1920, 0.0005),
    "Alan Turing": (1950, 0.001),
    "Tim Berners-Lee": (1980, 0.05),
    "Jim Gray": (2000, 10),
    "Hadley Wickham": (2020, 10),
    # Add more offsets for other people if needed
}
# Set up the figure and axis
fig, ax = plt.subplots(figsize=(15, 8))
# Plot the data volume over time
ax.plot(years, data_volumes, '-o', color='blue')
# Set the y-scale to logarithmic to accommodate the wide range of data volumes
ax.set_yscale('log')
ax.set_xlabel('Year')
ax.set_ylabel('Global Data Volume (Zettabytes)')
ax.set_title('Global Data Volume and Major Contributors')
# Insert images and labels for each person at their respective year with the correct data volume
base_image_path = '/xx/datapeople/'  # Replace with your own path
# Function to add an image
def add_image(ax, base_image_path, coord, person_name):
    # Read the image
    img = plt.imread(image_path)
    # Get custom offset for the person
    offset_x, offset_y = offsets.get(person_name, (0, 0))
    # Create imagebox
    imagebox = OffsetImage(img, zoom=0.15)
    ab = AnnotationBbox(imagebox, coord, frameon=False, boxcoords="data",
                        xybox=(offset_x, offset_y), box_alignment=(1, 1))
    ax.add_artist(ab)
# Insert images and labels for each person
for i, year in enumerate(years):
    coord = (year, data_volumes[i])
    person_name = persons[i]
    image_path = f'{base_image_path}{person_name}.jpeg'  # Image names match the person's name
    add_image(ax, image_path, coord, person_name)
    # Add milestone annotations below each image
    ax.annotate(milestones[i], xy=coord, xytext=(0, -100), textcoords='offset points',
                ha='center', va='top', fontsize=9, arrowprops=dict(arrowstyle="->", color='black'))
plt.show()


相关实践学习
DataV Board用户界面概览
本实验带领用户熟悉DataV Board这款可视化产品的用户界面
阿里云实时数仓实战 - 项目介绍及架构设计
课程简介 1)学习搭建一个数据仓库的过程,理解数据在整个数仓架构的从采集、存储、计算、输出、展示的整个业务流程。 2)整个数仓体系完全搭建在阿里云架构上,理解并学会运用各个服务组件,了解各个组件之间如何配合联动。 3 )前置知识要求   课程大纲 第一章 了解数据仓库概念 初步了解数据仓库是干什么的 第二章 按照企业开发的标准去搭建一个数据仓库 数据仓库的需求是什么 架构 怎么选型怎么购买服务器 第三章 数据生成模块 用户形成数据的一个准备 按照企业的标准,准备了十一张用户行为表 方便使用 第四章 采集模块的搭建 购买阿里云服务器 安装 JDK 安装 Flume 第五章 用户行为数据仓库 严格按照企业的标准开发 第六章 搭建业务数仓理论基础和对表的分类同步 第七章 业务数仓的搭建  业务行为数仓效果图  
相关文章
|
27天前
|
缓存 Rust 算法
从混沌到秩序:Python的依赖管理工具分析
Python 的依赖管理工具一直没有标准化,主要原因包括历史发展的随意性、社区的分散性、多样化的使用场景、向后兼容性的挑战、缺乏统一治理以及生态系统的快速变化。依赖管理工具用于处理项目中的依赖关系,确保不同环境下的依赖项一致性,避免软件故障和兼容性问题。常用的 Python 依赖管理工具如 pip、venv、pip-tools、Pipenv、Poetry 等各有优缺点,选择时需根据项目需求权衡。新工具如 uv 和 Pixi 在性能和功能上有所改进,值得考虑。
84 35
|
2月前
|
机器学习/深度学习 数据采集 TensorFlow
使用Python实现智能食品消费模式分析的深度学习模型
使用Python实现智能食品消费模式分析的深度学习模型
154 70
|
1月前
|
机器学习/深度学习 数据可视化 数据挖掘
使用Python实现基于矩阵分解的长期事件(MFLEs)时间序列分析
在现代数据分析中,高维时间序列数据的处理和预测极具挑战性。基于矩阵分解的长期事件(MFLEs)分析技术应运而生,通过降维和时间序列特性结合,有效应对大规模数据。MFLE利用矩阵分解提取潜在特征,降低计算复杂度,过滤噪声,并发现主要模式。相比传统方法如ARIMA和深度学习模型如LSTM,MFLE在多变量处理、计算效率和可解释性上更具优势。通过合理应用MFLE,可在物联网、金融等领域获得良好分析效果。
64 0
使用Python实现基于矩阵分解的长期事件(MFLEs)时间序列分析
|
28天前
|
数据采集 数据可视化 数据挖掘
金融波动率的多模型建模研究:GARCH族与HAR模型的Python实现与对比分析
本文探讨了金融资产波动率建模中的三种主流方法:GARCH、GJR-GARCH和HAR模型,基于SPY的实际交易数据进行实证分析。GARCH模型捕捉波动率聚类特征,GJR-GARCH引入杠杆效应,HAR整合多时间尺度波动率信息。通过Python实现模型估计与性能比较,展示了各模型在风险管理、衍生品定价等领域的应用优势。
251 66
金融波动率的多模型建模研究:GARCH族与HAR模型的Python实现与对比分析
|
2月前
|
机器学习/深度学习 数据可视化 数据挖掘
使用Python进行数据分析的入门指南
本文将引导读者了解如何使用Python进行数据分析,从安装必要的库到执行基础的数据操作和可视化。通过本文的学习,你将能够开始自己的数据分析之旅,并掌握如何利用Python来揭示数据背后的故事。
|
18天前
|
并行计算 安全 Java
Python GIL(全局解释器锁)机制对多线程性能影响的深度分析
在Python开发中,GIL(全局解释器锁)一直备受关注。本文基于CPython解释器,探讨GIL的技术本质及其对程序性能的影响。GIL确保同一时刻只有一个线程执行代码,以保护内存管理的安全性,但也限制了多线程并行计算的效率。文章分析了GIL的必要性、局限性,并介绍了多进程、异步编程等替代方案。尽管Python 3.13计划移除GIL,但该特性至少要到2028年才会默认禁用,因此理解GIL仍至关重要。
97 16
Python GIL(全局解释器锁)机制对多线程性能影响的深度分析
|
1月前
|
数据可视化 算法 数据挖掘
Python时间序列分析工具Aeon使用指南
**Aeon** 是一个遵循 scikit-learn API 风格的开源 Python 库,专注于时间序列处理。它提供了分类、回归、聚类、预测建模和数据预处理等功能模块,支持多种算法和自定义距离度量。Aeon 活跃开发并持续更新至2024年,与 pandas 1.4.0 版本兼容,内置可视化工具,适合数据探索和基础分析任务。尽管在高级功能和性能优化方面有提升空间,但其简洁的 API 和完整的基础功能使其成为时间序列分析的有效工具。
80 37
Python时间序列分析工具Aeon使用指南
|
1月前
|
机器学习/深度学习 运维 数据可视化
Python时间序列分析:使用TSFresh进行自动化特征提取
TSFresh 是一个专门用于时间序列数据特征自动提取的框架,支持分类、回归和异常检测等机器学习任务。它通过自动化特征工程流程,处理数百个统计特征(如均值、方差、自相关性等),并通过假设检验筛选显著特征,提升分析效率。TSFresh 支持单变量和多变量时间序列数据,能够与 scikit-learn 等库无缝集成,适用于大规模时间序列数据的特征提取与模型训练。其工作流程包括数据格式转换、特征提取和选择,并提供可视化工具帮助理解特征分布及与目标变量的关系。
75 16
Python时间序列分析:使用TSFresh进行自动化特征提取
|
2月前
|
机器学习/深度学习 数据采集 TensorFlow
使用Python实现智能食品消费习惯分析的深度学习模型
使用Python实现智能食品消费习惯分析的深度学习模型
179 68
|
1月前
|
数据采集 缓存 API
python爬取Boss直聘,分析北京招聘市场
本文介绍了如何使用Python爬虫技术从Boss直聘平台上获取深圳地区的招聘数据,并进行数据分析,以帮助求职者更好地了解市场动态和职位需求。

推荐镜像

更多