数据分析:基于Pandas的全球自然灾害分析与可视化

简介: 数据分析:基于Pandas的全球自然灾害分析与可视化

数据分析:基于Pandas的全球自然灾害分析与可视化

问题描述

本次课程设计选题来源于对数据源为《1900-2021世界自然灾害统计》的数据进行分析,大概1.6w条数据,实现了各种分析,最后可视化展示。

数据下载:
链接: https://pan.baidu.com/s/15f3z_H6_ygGEBsZVakEtJA?pwd=g6ce 提取码: g6ce
--来自百度网盘超级会员v1的分享

处理流程

DataSet以excel文件形式储存,通过Jupyter Notebook 调用Pandas库来读取数据,把按照老师的分析对数据进行数据清洗,数据规约,数据探查,以及统计等工作,数据整理好后,把数据用Excel,PowerBi,PowerPoint进行数据可视化。
在这里插入图片描述

数据预处理

数据提取

excel中元数据为路径,通过观察,数据存在规则有序的噪声,通过excel的替换功能与正则表达式进行筛洗,消除噪声。 遍历所有数据到jupyter内存。

import pandas as pd
io = '/Users/hanze/Desktop/副本自然灾害数据库(1)(1).xlsx'
data = pd.read_excel(io)
data.head()

按主要类别与年份统计灾害数

建立一个空字典,首先把数据读进字典,年份作为key,发生的灾害名称作为value,然后利用dict.items()方法和两个for循环遍历外层字典与内层values,统计没年每种灾害发生的次数,然后把1900-2021的所有每年的发生的灾害求和,这样就得到了全部的结果,代码如下:

import csv
data1=dict()
f = open('feng.csv','w',encoding='utf-8')

# 2. 基于文件对象构建 csv写入对象
csv_writer = csv.writer(f)
for i in data.values:
    keys = list(data1.keys())
#     print(keys,i[1],i[5])
    if i[1] in keys:
        data1[i[1]].append(i[6])
#         print(1)
    else:
        data1[i[1]]=[]
        data1[i[1]].append(i[6])
temp={}
temp2={}
a=[]
for i,v in data1.items():
    templist=[]
    for v1 in v:
        if v1 not in templist:
            templist.append(v1)
    
    for v2 in templist:
        if v2=='Storm':
            num = v.count(v2)
            print(v2,num ,i)
            csv_writer.writerow([i,num,v2])
#             a.append([i,num,v2])

             

在这里插入图片描述

统计每类灾害影响的人数

读取数据到jupyter 内存中,把数据读取进字典,key为年份。value为每类灾害影响人数,然后把相同的灾害影响人数相加求个,最后把每年灾害的影响人数放进一个数据。最后通过count函数统计1900-2021年的每类灾害的所有人数,代码如下:

data1=dict()
for i in data.values:
    keys = list(data1.keys())
#     print(keys,i[1],i[5])
    if i[1] in keys:
        data1[i[1]].append(i[6])
#         print(1)
    else:
        data1[i[1]]=[]
        data1[i[1]].append(i[6])
temp={}
a=[]
temp2={}
for i,v in data1.items():
    templist=[]
    for v1 in v:
        if v1 not in templist:
            templist.append(v1)
    
    for v2 in templist:
        num = v.count(v2)
#         print(v2,num ,i)
        a.append([v2,num])

        
temp={}           
for i in a:
    keys = list(temp.keys())
    if i[0] not in keys:
        temp[i[0]]=int(i[1])
    elif i[0] in keys:
        temp[i[0]]+=int(i[1])
sum=int(0)
for i in temp.items():
    sum+=int(i[1])
    
for i in temp.items():
#     print(i[1],sum)
    
    print(round(int(i[1])/int(sum),2),i[0],i[1])
        
   

在这里插入图片描述

统计从1990到2021年的每类灾害造成的死亡人数

这个分析比较简单,直接提取数据,把每类灾害的费用放在一个变量里面,然后循环累加求和就可以得到最终的死亡人数,代码如下:

dict4={}
for i in data.values:
#     print(i[6],i[35])
    keys=list(dict4.keys())
    if i[6] in keys and pd.isnull(i[34]) is False:
        dict4[i[6]]+=int(i[34])
#         print(1)
    elif i[6] not in keys and pd.isnull(i[34]) is False:
        dict4[i[6]]=int(i[34])
#         print(2)
#     else:
#         continue
print(dict4)

在这里插入图片描述

统计每个洲由于灾害受影响人数与死亡人数与与经济损失并求出百分

首先利用for循环提取出每年的受影响人数,死亡人数,经济损失与属于那个洲,把上一步骤的ouput作为第二个step的input然后再次遍历提取,利用if筛选出每个洲的数据,最后得到每个洲总的数据,然后汇总求和,代码如下:

dict8={}
for i in data.values:
    keys=list(dict7.keys())
    if i[13] in keys and pd.isnull(i[44]) is False and pd.isnull(i[34]) is False and pd.isnull(i[38]) is False:
        dict7[i[13]].append([i[5],i[34],i[38],i[44]])
    elif i[13] not in keys and pd.isnull(i[44]) is False and pd.isnull(i[34]) is False and pd.isnull(i[38]) is False:
        dict7[i[13]]=[[i[5],i[34],i[38],i[44]]]
        
        

#     print(i[10],i[13],i[34],i[38],i[44])
# print(dict7)
a=[]
for i in dict7.items():
    
    if i[0] =='Africa':
        death=0
        affect=0
        economic=0
        for v in i[1]:
#             print(v
            if v[0]=='Geophysical':
                death+=v[1]
                affect+=v[2]
                economic+=v[3]
        a.append([death,affect,economic])
        
    if i[0] =='Americas':
        death=0
        affect=0
        economic=0
        for v in i[1]:
#             print(v[0])
            if v[0]=='Geophysical':
                death+=v[1]
                affect+=v[2]
                economic+=v[3]
        a.append([death,affect,economic])
#     print(death,affect,economic)
    
    if i[0] =='Asia':
        death=0
        affect=0
        economic=0
        for v in i[1]:
    #             print(v)
            if v[0]=='Geophysical':
                death+=v[1]
                affect+=v[2]
                economic+=v[3]
#     print(death,affect,economic)
        a.append([death,affect,economic])
    if i[0] =='Oceania':
        death=0
        affect=0
        economic=0
        for v in i[1]:  
            if v[0]=='Geophysical':
                death+=v[1]
                affect+=v[2]
                economic+=v[3]
        a.append([death,affect,economic])
    if i[0] =='Europe':
        death=0
        affect=0
        economic=0
        for v in i[1]:
    #             print(v)
            if v[0]=='Geophysical':
                death+=v[1]
                affect+=v[2]
                economic+=v[3]
        a.append([death,affect,economic])
# #     print(death,affect,economic)
sum1=int(0)
sum2=0
sum3=0
for i in a:
    print(i)
#     i[0]+=sum1
#     i[1]+=sum2
#     i[2]+=sum3
# print(sum1,sum2,sum3)
# for i in a:
#     print(i[0]/sum1)
#     print(i[1]/sum2)
#     print(i[2]/sum3)

代码下载

链接: https://pan.baidu.com/s/1Qq0Smfl2lctkrUQcci65SA?pwd=hyu2 提取码: hyu2
--来自百度网盘超级会员v1的分享

可视化
链接: https://pan.baidu.com/s/1JApFuLmUcmSKtmpNc8P5xw?pwd=zqq5 提取码: zqq5
--来自百度网盘超级会员v1的分享

目录
相关文章
|
11天前
|
数据采集 数据挖掘 数据处理
使用Python和Pandas进行数据分析基础
使用Python和Pandas进行数据分析基础
33 5
|
14天前
|
机器学习/深度学习 存储 数据可视化
数据分析和可视化
数据分析和可视化
|
8天前
|
数据采集 传感器 数据可视化
利用Python进行数据分析与可视化
【9月更文挑战第11天】在数字化时代,数据已成为企业决策和科学研究的关键。本文将引导读者了解如何使用Python这一强大的工具进行数据分析和可视化,帮助初学者理解数据处理的流程,并掌握基本的可视化技术。通过实际案例,我们将展示如何从原始数据中提取信息,进行清洗、处理,最终以图形方式展现结果,使复杂的数据变得直观易懂。
|
11天前
|
机器学习/深度学习 人工智能 数据挖掘
数据分析师是在多个行业中专门从事数据搜集、整理和分析的专业人员
数据分析师是在多个行业中专门从事数据搜集、整理和分析的专业人员
21 3
|
18天前
|
数据采集 数据可视化 数据挖掘
数据分析大神养成记:Python+Pandas+Matplotlib助你飞跃!
【9月更文挑战第2天】数据分析大神养成记:Python+Pandas+Matplotlib助你飞跃!
45 5
|
22天前
|
SQL 数据挖掘 关系型数据库
性能碾压pandas、polars的数据分析神器来了
性能碾压pandas、polars的数据分析神器来了
|
23天前
|
分布式计算 数据可视化 大数据
Vaex :突破pandas,快速分析100GB大数据集
Vaex :突破pandas,快速分析100GB大数据集
|
23天前
|
存储 数据挖掘 API
多快好省地使用pandas分析大型数据集
多快好省地使用pandas分析大型数据集
|
24天前
|
JSON 数据挖掘 API
案例 | 用pdpipe搭建pandas数据分析流水线
案例 | 用pdpipe搭建pandas数据分析流水线
|
29天前
|
数据挖掘 大数据 数据处理
数据分析师的秘密武器:精通Pandas DataFrame合并与连接技巧
【8月更文挑战第22天】在数据分析中,Pandas库的DataFrame提供高效的数据合并与连接功能。本文通过实例展示如何按员工ID合并基本信息与薪资信息,并介绍如何基于多列(如员工ID与部门ID)进行更复杂的连接操作。通过调整`merge`函数的`how`参数(如'inner'、'outer'等),可实现不同类型的连接。此外,还介绍了使用`join`方法根据索引快速连接数据,这对于处理大数据集尤其有用。掌握这些技巧能显著提升数据分析的能力。
48 1

热门文章

最新文章