Pandas数据分析:处理文本数据(str/object)各类操作+代码一文详解(二)

简介: Pandas数据分析:处理文本数据(str/object)各类操作+代码一文详解(二)

前言


此文章紧接上篇文章内容:Pandas数据分析:处理文本数据(str/object)各类操作+代码一文详解(一)


Pandas数据分析系列专栏已经更新了很久了,基本覆盖到使用pandas处理日常业务以及常规的数据分析方方面面的问题。从基础的数据结构逐步入门到处理各类数据以及专业的pandas常用函数讲解都花费了大量时间和心思创作,如果大家有需要从事数据分析或者大数据开发的朋友推荐订阅专栏,将在第一时间学习到Pandas数据分析最实用常用的知识。此篇博客篇幅较长,涉及到处理文本数据(str/object)等各类操作,值得细读实践一番,我会将Pandas的精华部分挑出细讲实践。博主会长期维护博文,有错误或者疑惑可以在评论区指出,感谢大家的支持。


一、拆分和替换字符串


拆分split()


拆分字符串我们一般回用到split这个函数,使用起来非常方便:


s2 = pd.Series(["a_b_c", "c_d_e", np.nan, "f_g_h"], dtype="string")
s2.str.split("_")

489eb496ae444a298df8afd2ed651af4.png


拆分后获取get()


拆分后数据将还是数组类型,因此使用get或者索引方法获取就好了。需要注意的是大体上还是series类型:


s2.str.split("_").str.get(0)

ecf8326b84084710bb58897772715f6d.png

s2.str.split("_").str[0]

dc2c8ba49a324b4494d67d15d467bcb2.png


多维转换


而且我们可以扩展拆分之后的数据,形成多维数据:


s2.str.split("_", expand=True)


f5781d99cfb546db8146c57a95880689.png


当原始序列具有StringDtype时,输出列也将是StringDtype类型。

也可以限制拆分的数量:


s2.str.rsplit("_", expand=True, n=1)


65909f6595ea45699c1c04b4bf8367ac.png


替换replace()


替换的话可以使用正则也可以使用replace,复杂的话还是正则更好,常规使用replace就好了。


我们先创建测试用例:


s3 = pd.Series(
    ["A", "B", "C", "Aaba", "Baca", "", np.nan, "CABA", "dog", "cat"],
    dtype="string",
)
s3

d2c443bb139d4df69cdcb2da35d7681d.png


之后使用replace中正则替换就好:


s3.str.replace("^.a|dog", "XX-XX ", case=False, regex=True)


a7e768b04263459a837e2247764bfddd.png

如果希望字符串的文字替换(相当于str.replace()),可以将可选的正则表达式参数设置为False,而不是转义每个字符。在这种情况下,pat和repl都必须是字符串:

dark_souls = pd.Series(["Yorm", "&attack", "&100"], dtype="string")
dark_souls


5ea8adad9ea34cfbbf0ca88852229d5a.png

dark_souls.str.replace(r'\&','-',regex=True)

03ade74ee139475d89f4c901bdefb1a8.png

dark_souls.str.replace('&','-',regex=False)

e8f8e5ce698846289a94363ea569acd8.png

replace方法还可以将可调用的自定义方法作为替换。使用re.sub()在每个pat上调用它。可调用函数可获一个位置参数(正则表达式对象)并返回一个字符串。


这里我们可以实现一个字符串颠倒转换:

pat = r"[a-z]+"
def repl(m):
    return m.group(0)[::-1]
pd.Series(["foo 123", "bar baz", np.nan], dtype="string").str.replace(
    pat, repl, regex=True
)

1e98d5a8e6774c8795b66a31822ebfba.png


若是对正则匹配不是很了解的可以去阅读一下博主另一篇文章:

Python正则表达式一文详解+实例代码展示


replace方法还接受来自re的已编译正则表达式对象,编译re.compile()作为模式。所有标志都应包含在编译的正则表达式对象中。

import re
regex_pat = re.compile(r"^.a|dog", flags=re.IGNORECASE)
s3.str.replace(regex_pat, "XX-XX ", regex=True)

199c397bd4b44cf5bdaa2cf1392778a1.png

使用编译的正则表达式对象调用替换时包含标志参数将引发ValueError。


s3.str.replace(regex_pat, 'XX-XX ', flags=re.IGNORECASE)

b0360fe0aea045cba0230ad0ecc5e567.png

removeprefix和removesuffix与str.removeprefix和str.removesuffix具有相同的效果,都可以将匹配出的字符串删除。


s = pd.Series(["str_foo", "str_bar", "no_prefix"])
s.str.removesuffix("_str")

这个方法只在3.9以上版本才有。


二、连接操作


基于cat(),resp。Index.str.cat的方法可以将序列或索引与自身或其他序列或索引连接起来。


串联Series


Series(或index)的值可以串联:


s = pd.Series(["a", "b", "c", "d"], dtype="string")
s.str.cat(sep=",")

24df90ba7803462ea463997d0b31d7db.png

如果未指定,分隔符的关键字sep默认为空字符串,sep=“”:


s.str.cat()


9ab275fd8ff34488a9e0a300fea5c5e4.png

默认情况下,忽略缺少的值。使用na_rep可以替换空值:


1. t = pd.Series(["a", "b", np.nan, "d"], dtype="string")
2. t.str.cat(sep=",")


2c1ec90c9d5043958969e58daee65495.png

t.str.cat(sep=",", na_rep="-")

1addf7708d5d4e27a3abe21c334817fb.png


串联list与Series


cat()的第一个参数可以是一个类似列表的对象,只要它匹配调用序列(或索引)的长度。


s.str.cat(["A", "B", "C", "D"])


任何一侧的缺失值也会导致结果中的缺失值,除非指定了na_rep:


s.str.cat(t)



54e7c2b724744f37943055c85d11d0df.png

s.str.cat(t, na_rep="-")

cc65c2fe1cc5417b89758d3b2a1e6bf7.png

串联array和Series


其他参数也可以是二维的。在这种情况下,行数必须与调用序列(或索引)的长度匹配。

我们先可以concat连接一下两个series,不了解concat的推荐去看博主另一篇博文:

DataFrame多表合并拼接函数concat、merge参数详解+代码操作展示_fanstuck的博客-CSDN博客_dataframe merge函数


d = pd.concat([t, s], axis=1)


合并操作可以将DataFrame的列数据全都合并拼接。


s.str.cat(d, na_rep="-")

8c413dd373ba4a228f3c69756eb79862.png

索引自动拼接


对于串联series或dataframe,可以通过设置join关键字在串联之前对齐索引。


u = pd.Series(["b", "d", "a", "c"], index=[1, 3, 0, 2], dtype="string")


a7f893adda4246e4b317c4f2c802a3b4.png

s.str.cat(u)

d692660c55294cb9b4c096ead87c7742.png

s.str.cat(u, join="left")


ad0b8407235c4c43bda9abd028e05c45.png

如果没有传递join关键字,方法cat()当前将返回到版本0.23.0之前的行为(即没有对齐),但如果任何涉及的索引不同,则将发出警告,因为在将来的版本中,此默认值将更改为join='left'。


join参数的常用选项是('left','outer','inner','right')。


v = pd.Series(["z", "a", "b", "d", "e"], index=[-1, 0, 1, 3, 4], dtype="string")
v

25a0e1109a8f40999e21db60dca016cb.png

我们与s进行合并测试:


s

a50799c6f8d443b7b3b33b45bb315a00.png

s.str.cat(v, join="right", na_rep="-")

03667a079ef9444480148936a5dbc324.png

s.str.cat(v, join="outer", na_rep="-")

88fa5c727bb5433abe8f32f0745511ca.png

同样可适用于DataFrame:


1. f = d.loc[[3, 2, 1, 0], :]
2. f


1646402fd88d4c078b44981a693053fc.png


与s进行合并拼接:


s.str.cat(f, join="left", na_rep="-")


eb1ed70a85f04c059da6760a9b72ccff.png

多对象串联拼接


几个类似数组的项(特别是:系列、索引和np.ndarray的一维变体)可以组合在类似列表的容器中(包括迭代器、dict视图等)。


s.str.cat([u, u.to_numpy()], join="left")

88d9d680a33c4d8496a38fe51c03a012.png


传递的列表中没有索引(例如np.ndarray)的所有元素都必须在长度上与调用序列(或索引)匹配,但序列和索引可以具有任意长度(只要不使用join=None禁用对齐):


s.str.cat([v, u, u.to_numpy()], join="outer", na_rep="-")

1ada1a982c7a4be3a80b05ad2c064711.png

如果在包含不同索引的列表中使用join='right',则这些索引的并集将用作最终连接的基础:


s.str.cat([u.loc[[3]], v.loc[[-1, 0]]], join="right", na_rep="-")


09d2a997fb0f43b6817fb5087d53c02a.png


str[]索引


您可以使用[]符号直接按位置位置索引。如果索引超过字符串的结尾,结果将是NaN。

s = pd.Series(
    ["A", "B", "C", "Aaba", "Baca", np.nan, "CABA", "dog", "cat"], dtype="string"
)
s.str[0]

5a24618e69044771b00c68dd16254f03.png

s.str[1]

c7c20361e534490bbcfeeb069cd867ce.png

目录
相关文章
|
10天前
|
数据挖掘 PyTorch TensorFlow
|
11天前
|
数据采集 数据挖掘 数据处理
使用Python和Pandas进行数据分析基础
使用Python和Pandas进行数据分析基础
32 5
|
26天前
|
数据采集 DataWorks 数据挖掘
提升数据分析效率:DataWorks在企业级数据治理中的应用
【8月更文第25天】本文将探讨阿里巴巴云的DataWorks平台如何通过建立统一的数据标准、规范以及实现数据质量监控和元数据管理来提高企业的数据分析效率。我们将通过具体的案例研究和技术实践来展示DataWorks如何简化数据处理流程,减少成本,并加速业务决策。
148 54
|
9天前
|
机器学习/深度学习 数据挖掘 TensorFlow
🔍揭秘Python数据分析奥秘,TensorFlow助力解锁数据背后的亿万商机
【9月更文挑战第11天】在信息爆炸的时代,数据如沉睡的宝藏,等待发掘。Python以简洁的语法和丰富的库生态成为数据分析的首选,而TensorFlow则为深度学习赋能,助你洞察数据核心,解锁商机。通过Pandas库,我们可以轻松处理结构化数据,进行统计分析和可视化;TensorFlow则能构建复杂的神经网络模型,捕捉非线性关系,提升预测准确性。两者的结合,让你在商业竞争中脱颖而出,把握市场脉搏,释放数据的无限价值。以下是使用Pandas进行简单数据分析的示例:
23 5
|
18天前
|
数据采集 数据可视化 数据挖掘
数据分析大神养成记:Python+Pandas+Matplotlib助你飞跃!
【9月更文挑战第2天】数据分析大神养成记:Python+Pandas+Matplotlib助你飞跃!
45 5
|
21天前
|
SQL 数据挖掘 关系型数据库
性能碾压pandas、polars的数据分析神器来了
性能碾压pandas、polars的数据分析神器来了
|
23天前
|
JSON 数据挖掘 API
案例 | 用pdpipe搭建pandas数据分析流水线
案例 | 用pdpipe搭建pandas数据分析流水线
|
29天前
|
存储 数据挖掘 数据处理
DataFrame探索之旅:如何一眼洞察数据本质,提升你的数据分析能力?
【8月更文挑战第22天】本文通过电商用户订单数据的案例,展示了如何使用Python的pandas库查看DataFrame信息。首先导入数据并使用`head()`, `columns`, `shape`, `describe()`, 和 `dtypes` 方法来快速概览数据的基本特征。接着,通过对数据进行分组操作计算每位顾客的平均订单金额,以此展示初步数据分析的过程。掌握这些技能对于高效的数据分析至关重要。
29 2
|
29天前
|
数据挖掘 大数据 数据处理
数据分析师的秘密武器:精通Pandas DataFrame合并与连接技巧
【8月更文挑战第22天】在数据分析中,Pandas库的DataFrame提供高效的数据合并与连接功能。本文通过实例展示如何按员工ID合并基本信息与薪资信息,并介绍如何基于多列(如员工ID与部门ID)进行更复杂的连接操作。通过调整`merge`函数的`how`参数(如'inner'、'outer'等),可实现不同类型的连接。此外,还介绍了使用`join`方法根据索引快速连接数据,这对于处理大数据集尤其有用。掌握这些技巧能显著提升数据分析的能力。
46 1
|
30天前
|
算法 数据挖掘 数据处理
豆瓣评分8.7!Python pandas创始人亲码的数据分析入门手册!
在众多解释型语言中,Python最大的特点是拥有一个巨大而活跃的科学计算社区。进入21世纪以来,在行业应用和学术研究中采用python进行科学计算的势头越来越猛。 近年来,由于Python有不断改良的库(主要是pandas),使其成为数据处理任务的一大代替方案,结合其在通用编程方面的强大实力,完全可以只使用Python这一种语言去构建以数据为中心的应用程序。 作为一个科学计算平台,Python的成功源于能够轻松的集成C、C++以及Fortran代码。大部分现代计算机环境都利用了一些Fortran和C库来是西安线性代数、优选、积分、快速傅里叶变换以及其他诸如此类的算法。