Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档

简介: 这篇文章介绍了如何使用Python读取Excel文件中的数据,处理后将其保存为txt、xlsx和csv格式的文件。

1. 获取excel文档中的每一个数据并保存为数组

在这里插入图片描述

import openpyxl
import pandas as pd
import numpy as np

def Read_Excel(Excelname,sheet):
    '''
    作用:读取excel表格
    load_workbook 模块读取 excel 文件中对应的"修改"表中的数据,封装为列表并返回
    '''
    excel = openpyxl.load_workbook(filename=Excelname)
    # 获取sheet对应的excel数据 分别有两个一个是data,一个是Sheet1
    reult=excel[sheet]
    return reult
def Deal_data(reult):
    # 最小行 最大行 最小列 最大列
    print(reult.min_row, reult.max_row, reult.min_column, reult.max_column)

    Julei_a1=(70.72450+58.41271+79.55004+80.25528+90.63146)/5
    Julei_a3=(77.85307+67.64918+78.36915+53.75346+89.09208)/5
    Julei_a5=(59.73232+74.38533+85.66948+85.93039+74.38057)/5
    print(Julei_a5,Julei_a3,Julei_a1)

    store=[]
    for i in range(reult.min_row+1,reult.max_row+1):
        Customer = get_Value(reult,'A'+str(i)) 
        Brand_type = get_Value(reult,'B'+str(i)) 
        a1 = get_Value(reult,'C'+str(i)) 
        a1=(Julei_a1 if int(a1)>100 else a1)
        a2 = get_Value(reult,'D'+str(i)) 
        a3 = get_Value(reult,'E'+str(i)) 
        a3=(Julei_a3 if int(a3)>100 else a3)
        a4 = get_Value(reult,'F'+str(i))
        a5 = get_Value(reult,'G'+str(i))
        a5=(Julei_a5 if int(a5)>100 else a5) 
        a6 = get_Value(reult,'H'+str(i)) 
        a7 = get_Value(reult,'I'+str(i)) 
        a8 = get_Value(reult,'J'+str(i)) 
        # print(a1)
        if int(a1)<0 or int(a2)<0 or int(a3)<0 or int(a4)<0 or int(a5)<0 or int(a6)<0 or int(a7)<0 or int(a8)<0 : # 判断是否有负数
            print('a1-a8存在负数')
        if int(a1)>100 or int(a2)>100 or int(a3)>100 or int(a4)>100 or int(a5)>100 or int(a6)>100 or int(a7)>100 or int(a8)>100 : # 判断是否有大于100的数
            print('a1-a8存在大于100的数 \n')
        B1 = get_Value(reult,'k'+str(i))
        B2 = get_Value(reult,'L'+str(i))
        B3 = get_Value(reult,'M'+str(i)) 
        B4 = get_Value(reult,'N'+str(i)) 
        B5 = get_Value(reult,'O'+str(i)) 
        B6 = get_Value(reult,'P'+str(i)) 
        B7 = get_Value(reult,'Q'+str(i)) 
        B7 = (0 if B7=='#NULL!' else B7)
        if B7=='#NULL!':
            print('B7 存在 #NULL 该值为:{}\n'.format(B7))
        B8 = get_Value(reult,'R'+str(i)) 
        B9 = get_Value(reult,'S'+str(i)) 
        B10 = get_Value(reult,'T'+str(i))
        B11 = get_Value(reult,'U'+str(i)) 
        B12 = get_Value(reult,'V'+str(i)) 
        B13 = get_Value(reult,'W'+str(i))
        B14 = get_Value(reult,'X'+str(i)) 
        B15 = get_Value(reult,'Y'+str(i))
        B16 = get_Value(reult,'Z'+str(i)) 
        B17 = get_Value(reult,'AA'+str(i)) 
        Purchase_think = get_Value(reult,'AB'+str(i)) 
        print(Customer,Brand_type,a1,a2,a3,a4,a5,a6,a7,a8,B1,B2,B3,B4,B5,B6,B7,B8,B9,B10,B11,B12,B13,B14,B15,B16,B17,Purchase_think)
        store.append([Customer,Brand_type,a1,a2,a3,a4,a5,a6,a7,a8,B1,B2,B3,B4,B5,B6,B7,B8,B9,B10,B11,B12,B13,B14,B15,B16,B17,Purchase_think])
    return store

def get_Value(wb, tag):
    '''
    输入:获取相应单元格的数据
    wb为表格对象
    tag为单元格标签
    输出:对应单元格的数据
    '''
    return wb[tag].value

if __name__ == '__main__':
    # excel_path='F:\epycharm\HSB_match\excel_file\Whole_data.xlsx'
    new_Excel_path=r'F:\epycharm\HSB_match\excel_file\predict_data.xlsx'
    result_data = Read_Excel(new_Excel_path, 'Sheet1')  # Sheet1 data
    store=Deal_data(result_data) # 将每一行的数据保存为数组

2. txt

        """保存为txt"""
        f = open('F:\epycharm\HSB_match\excel_file\After_Deal_txt.txt','a')
        f.write(str(Customer)+' '+str(Brand_type)+
                ' '+str(a1)+' '+ str(a2)+' '+str(a3)+' '+str(a4)+' '+str(a5)+' '+str(a6)+' '+str(a7)+' '+str(a8)+
                ' '+str(B1)+' '+str(B2)+' '+str(B3)+' '+str(B4)+' '+str(B5)+' '+str(B6)+' '+str(B7)+' '+str(B8)+' '+str(B9)+' '+str(B10)+
                ' '+str(B11)+' '+str(B12)+' '+str(B13)+' '+str(B14)+' '+str(B15)+' '+str(B16)+' '+str(B17)+
                ' '+str(Purchase_think))
        f.write('\n')

3. xlsx

def savenpyasexcel(ndarray,output):
    #ndarray是数组,output是保存的文件位置
    data_df = pd.DataFrame(ndarray)  # 关键1,将ndarray格式转换为DataFrame
    rows,cols = ndarray.shape
    print(rows,cols)
    # 更改表的索引
    data_index = []
    for i in range(rows):
        data_index.append(i)
    data_df.index = data_index
    # 更改表的索引
    data_indexs = []
    for i in range(cols):
        data_indexs.append(i)
    data_df.index = data_index
    data_df.columns = data_indexs

    # 将文件写入excel表格中
    writer = pd.ExcelWriter(output)
    data_df.to_excel(writer, 'page_1',
                     float_format='%.4f')  # 关键3,float_format 控制精度,将data_df写到hhh表格的第一页中。若多个文件,可以在page_2中写入
    writer.save()  # 关键4
    return 1
"""保存为excel的xlsx"""
savenpyasexcel(np.array(store),new_Excel_path) # 保存为excel

4. csv

np.savetxt("deal_data.csv", np.array(store), delimiter=",")
目录
相关文章
|
2天前
|
编解码 Java 程序员
写代码还有专业的编程显示器?
写代码已经十个年头了, 一直都是习惯直接用一台Mac电脑写代码 偶尔接一个显示器, 但是可能因为公司配的显示器不怎么样, 还要接转接头 搞得桌面杂乱无章,分辨率也低,感觉屏幕还是Mac自带的看着舒服
|
4天前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1540 5
|
1月前
|
弹性计算 人工智能 架构师
阿里云携手Altair共拓云上工业仿真新机遇
2024年9月12日,「2024 Altair 技术大会杭州站」成功召开,阿里云弹性计算产品运营与生态负责人何川,与Altair中国技术总监赵阳在会上联合发布了最新的“云上CAE一体机”。
阿里云携手Altair共拓云上工业仿真新机遇
|
7天前
|
人工智能 Rust Java
10月更文挑战赛火热启动,坚持热爱坚持创作!
开发者社区10月更文挑战,寻找热爱技术内容创作的你,欢迎来创作!
581 22
|
4天前
|
存储 SQL 关系型数据库
彻底搞懂InnoDB的MVCC多版本并发控制
本文详细介绍了InnoDB存储引擎中的两种并发控制方法:MVCC(多版本并发控制)和LBCC(基于锁的并发控制)。MVCC通过记录版本信息和使用快照读取机制,实现了高并发下的读写操作,而LBCC则通过加锁机制控制并发访问。文章深入探讨了MVCC的工作原理,包括插入、删除、修改流程及查询过程中的快照读取机制。通过多个案例演示了不同隔离级别下MVCC的具体表现,并解释了事务ID的分配和管理方式。最后,对比了四种隔离级别的性能特点,帮助读者理解如何根据具体需求选择合适的隔离级别以优化数据库性能。
201 3
|
10天前
|
JSON 自然语言处理 数据管理
阿里云百炼产品月刊【2024年9月】
阿里云百炼产品月刊【2024年9月】,涵盖本月产品和功能发布、活动,应用实践等内容,帮助您快速了解阿里云百炼产品的最新动态。
阿里云百炼产品月刊【2024年9月】
|
11天前
|
Linux 虚拟化 开发者
一键将CentOs的yum源更换为国内阿里yum源
一键将CentOs的yum源更换为国内阿里yum源
580 5
|
23天前
|
存储 关系型数据库 分布式数据库
GraphRAG:基于PolarDB+通义千问+LangChain的知识图谱+大模型最佳实践
本文介绍了如何使用PolarDB、通义千问和LangChain搭建GraphRAG系统,结合知识图谱和向量检索提升问答质量。通过实例展示了单独使用向量检索和图检索的局限性,并通过图+向量联合搜索增强了问答准确性。PolarDB支持AGE图引擎和pgvector插件,实现图数据和向量数据的统一存储与检索,提升了RAG系统的性能和效果。
|
7天前
|
XML 安全 Java
【Maven】依赖管理,Maven仓库,Maven核心功能
【Maven】依赖管理,Maven仓库,Maven核心功能
233 3
|
9天前
|
存储 人工智能 搜索推荐
数据治理,是时候打破刻板印象了
瓴羊智能数据建设与治理产品Datapin全面升级,可演进扩展的数据架构体系为企业数据治理预留发展空间,推出敏捷版用以解决企业数据量不大但需构建数据的场景问题,基于大模型打造的DataAgent更是为企业用好数据资产提供了便利。
327 2