如何使用Selenium Python爬取多个分页的动态表格并进行数据整合和分析

简介: 在网络爬虫的领域中,动态表格是一种常见的数据展示形式,它可以显示大量的结构化数据,并提供分页、排序、筛选等功能。动态表格的数据通常是通过JavaScript或Ajax动态加载的,这给爬虫带来了一定的挑战。本文将介绍如何使用Selenium Python这一强大的自动化测试工具来爬取多个分页的动态表格,并进行数据整合和分析。

亿牛云代理.png

导语

在网络爬虫的领域中,动态表格是一种常见的数据展示形式,它可以显示大量的结构化数据,并提供分页、排序、筛选等功能。动态表格的数据通常是通过JavaScript或Ajax动态加载的,这给爬虫带来了一定的挑战。本文将介绍如何使用Selenium Python这一强大的自动化测试工具来爬取多个分页的动态表格,并进行数据整合和分析。

正文

Selenium Python简介

Selenium是一个开源的自动化测试框架,它可以模拟用户在浏览器中的操作,如点击、输入、滚动等,从而实现对网页的自动化测试或爬取。Selenium支持多种编程语言,如Java、Python、Ruby等,其中Python是最受欢迎的一种,因为它简洁、易用、灵活。Selenium Python提供了一个WebDriver API,它可以让我们通过Python代码控制不同的浏览器驱动,如Chrome、Firefox、Edge等,从而实现对不同网站和平台的爬取。

动态表格爬取步骤

要爬取多个分页的动态表格,我们需要遵循以下几个步骤:

  1. 找到目标网站和目标表格。我们需要确定我们要爬取的网站和表格的URL,并用Selenium Python打开它们。
  2. 定位表格元素和分页元素。我们需要用Selenium Python提供的各种定位方法,如find_element_by_id、find_element_by_xpath等,来找到表格元素和分页元素,并获取它们的属性和文本。
  3. 爬取表格数据和翻页操作。我们需要用Selenium Python提供的各种操作方法,如click、send_keys等,来模拟用户在表格中翻页,并用BeautifulSoup等库来解析表格数据,并存储到列表或字典中。
  4. 数据整合和分析。我们需要用Pandas等库来对爬取到的数据进行整合和分析,并用Matplotlib等库来进行数据可视化和展示。

动态表格爬取特点

爬取多个分页的动态表格有以下几个特点:

  • 需要处理动态加载和异步请求。动态表格的数据通常是通过JavaScript或Ajax动态加载的,这意味着我们需要等待页面完全加载后才能获取到数据,或者使用Selenium Python提供的显式等待或隐式等待方法来设置超时时间。
  • 需要处理分页逻辑和翻页规则。动态表格通常有多个分页,每个分页有不同数量的数据,我们需要根据分页元素来判断当前所在的分页,并根据翻页规则来选择下一个分页。有些网站可能使用数字按钮来表示分页,有些网站可能使用上一页和下一页按钮来表示分页,有些网站可能使用省略号或更多按钮来表示分页,我们需要根据不同情况来选择合适的翻页方法。
  • 需要处理异常情况和错误处理。在爬取过程中,可能会遇到各种异常情况和错误,如网络中断、页面跳转、元素丢失等,我们需要用Selenium Python提供的异常处理方法来捕获和处理这些异常,并设置重试机制和日志记录。

案例

为了具体说明如何使用Selenium Python爬取多个分页的动态表格并进行数据整合和分析,我们以一个实际的案例为例,爬取Selenium Easy网站上的一个表格示例,并对爬取到的数据进行简单的统计和绘图。

网站和表格介绍

Selenium Easy是一个提供Selenium教程和示例的网站,它有一个表格演示页面,展示了一个有分页功能的动态表格,这个表格有15条记录,每个分页有5条记录,共有3个分页。每条记录包含了一个人的姓名、职位、办公室、年龄、入职日期和月薪。我们的目标是爬取这个表格中的所有数据,并对不同办公室的人数和月薪进行统计和绘图。

代码实现

为了实现这个目标,我们需要用到以下几个库:

  • selenium:用于控制浏览器驱动和模拟用户操作
  • requests:用于发送HTTP请求和获取响应
  • BeautifulSoup:用于解析HTML文档和提取数据
  • pandas:用于处理数据结构和分析
  • matplotlib:用于绘制数据图表

首先,我们需要导入这些库,并设置一些全局变量,如浏览器驱动路径、目标网站URL、代理服务器信息等:

# 导入库
import requests
from selenium import webdriver
from bs4 import BeautifulSoup
import pandas as pd
import matplotlib.pyplot as plt

# 设置浏览器驱动路径
driver_path = r'/Users/weaabduljamac/Downloads/chromedriver'

# 设置目标网站URL
url = 'https://demo.seleniumeasy.com/table-pagination-demo.html'

# 亿牛云 爬虫代理加强版 设置代理服务器信息
proxyHost = "www.16yun.cn"
proxyPort = "3111"
proxyUser = "16YUN"
proxyPass = "16IP"

接下来,我们需要创建一个浏览器驱动对象,并设置代理服务器参数,然后打开目标网站:

# 创建浏览器驱动对象
driver = webdriver.Chrome(driver_path)

# 设置代理服务器参数
options = webdriver.ChromeOptions()
options.add_argument(f'--proxy-server=http://{proxyUser}:{proxyPass}@{proxyHost}:{proxyPort}')

# 打开目标网站
driver.get(url)

然后,我们需要定位表格元素和分页元素,并获取它们的属性和文本:

# 定位表格元素
table = driver.find_element_by_xpath('//*[@id="myTable"]')

# 定位分页元素
pagination = driver.find_element_by_xpath('//*[@id="myPager"]')

# 获取分页元素的文本
pagination_text = pagination.text

# 获取分页元素的链接列表
pagination_links = pagination.find_elements_by_tag_name('a')

接着,我们需要创建一个空列表来存储爬取到的数据,并创建一个循环来遍历每个分页,并爬取每个分页中的表格数据:

# 创建一个空列表来存储爬取到的数据
data = []

# 创建一个循环来遍历每个分页
for i in range(len(pagination_links)):
    # 获取当前分页元素的文本
    current_page_text = pagination_links[i].text

    # 判断当前分页元素是否是数字按钮或更多按钮(省略号)
    if current_page_text.isdigit() or current_page_text == '...':
        # 点击当前分页元素
        pagination_links[i].click()

        # 等待页面加载完成(可以使用显式等待或隐式等待方法来优化)
        driver.implicitly_wait(10)

        # 重新定位表格元素(因为页面刷新后原来的元素可能失效)
        table = driver.find_element_by_xpath('//*[@id="myTable"]')
        # 解析表格元素的HTML文档
        soup = BeautifulSoup(table.get_attribute('innerHTML'), 'html.parser')

        # 提取表格元素中的每一行数据
        rows = soup.find_all('tr')

        # 遍历每一行数据
        for row in rows:
            # 提取每一行数据中的每一列数据
            cols = row.find_all('td')

             # 判断每一列数据是否为空(因为表头行没有数据)
            if len(cols) > 0:
                # 获取每一列数据的文本
                name = cols[0].text
                position = cols[1].text
                office = cols[2].text
                age = cols[3].text
                start_date = cols[4].text
                salary = cols[5].text

                # 将每一列数据组合成一个字典
                record = {
   
   
                  'name': name,
                  'position': position,
                  'office': office,
                  'age': age,
                  'start_date': start_date,
                  'salary': salary
                 }

                # 将字典添加到列表中
                data.append(record)

     # 判断当前分页元素是否是上一页或下一页按钮
    elif current_page_text == 'Prev' or current_page_text == 'Next':
        # 点击当前分页元素
        pagination_links[i].click()

        # 等待页面加载完成(可以使用显式等待或隐式等待方法来优化)
        driver.implicitly_wait(10)

        # 重新定位分页元素(因为页面刷新后原来的元素可能失效)
        pagination = driver.find_element_by_xpath('//*[@id="myPager"]')

        # 重新获取分页元素的链接列表(因为页面刷新后原来的链接可能变化)
        pagination_links = pagination.find_elements_by_tag_name('a')

最后,我们需要用Pandas等库来对爬取到的数据进行整合和分析,并用Matplotlib等库来进行数据可视化和展示:

# 关闭浏览器驱动对象
driver.quit()

# 将列表转换为Pandas数据框
df = pd.DataFrame(data)

# 查看数据框的基本信息
print(df.info())

# 查看数据框的前五行
print(df.head())

# 对不同办公室的人数进行统计和分组
office_count = df.groupby('office')['name'].count()

# 对不同办公室的月薪进行统计和分组(注意月薪需要去掉货币符号和逗号,并转换为数值类型)
office_salary = df.groupby('office')['salary'].apply(lambda x: x.str.replace('$', '').str.replace(',', '').astype(float).sum())

# 绘制不同办公室的人数和月薪的柱状图
fig, ax = plt.subplots(1, 2, figsize=(12, 6))
office_count.plot.bar(ax=ax[0], title='Number of Employees by Office')
office_salary.plot.bar(ax=ax[1], title='Total Salary by Office')
plt.show()

结语

本文介绍了如何使用Selenium Python爬取多个分页的动态表格,并进行数据整合和分析。通过这个案例,我们可以学习到Selenium Python的基本用法和特点,以及如何处理动态加载和异步请求、分页逻辑和翻页规则、异常情况和错误处理等问题。Selenium Python是一个强大而灵活的自动化测试工具,它可以帮助我们实现对各种网站和平台的爬取,从而获取有价值的数据和信息。希望本文能对你有所帮助和启发,欢迎你继续探索Selenium Python的更多功能和应用。

相关文章
|
9天前
|
缓存 Rust 算法
从混沌到秩序:Python的依赖管理工具分析
Python 的依赖管理工具一直没有标准化,主要原因包括历史发展的随意性、社区的分散性、多样化的使用场景、向后兼容性的挑战、缺乏统一治理以及生态系统的快速变化。依赖管理工具用于处理项目中的依赖关系,确保不同环境下的依赖项一致性,避免软件故障和兼容性问题。常用的 Python 依赖管理工具如 pip、venv、pip-tools、Pipenv、Poetry 等各有优缺点,选择时需根据项目需求权衡。新工具如 uv 和 Pixi 在性能和功能上有所改进,值得考虑。
62 35
|
17天前
|
机器学习/深度学习 数据可视化 数据挖掘
使用Python实现基于矩阵分解的长期事件(MFLEs)时间序列分析
在现代数据分析中,高维时间序列数据的处理和预测极具挑战性。基于矩阵分解的长期事件(MFLEs)分析技术应运而生,通过降维和时间序列特性结合,有效应对大规模数据。MFLE利用矩阵分解提取潜在特征,降低计算复杂度,过滤噪声,并发现主要模式。相比传统方法如ARIMA和深度学习模型如LSTM,MFLE在多变量处理、计算效率和可解释性上更具优势。通过合理应用MFLE,可在物联网、金融等领域获得良好分析效果。
34 0
使用Python实现基于矩阵分解的长期事件(MFLEs)时间序列分析
|
11天前
|
数据采集 数据可视化 数据挖掘
金融波动率的多模型建模研究:GARCH族与HAR模型的Python实现与对比分析
本文探讨了金融资产波动率建模中的三种主流方法:GARCH、GJR-GARCH和HAR模型,基于SPY的实际交易数据进行实证分析。GARCH模型捕捉波动率聚类特征,GJR-GARCH引入杠杆效应,HAR整合多时间尺度波动率信息。通过Python实现模型估计与性能比较,展示了各模型在风险管理、衍生品定价等领域的应用优势。
136 65
金融波动率的多模型建模研究:GARCH族与HAR模型的Python实现与对比分析
|
19天前
|
数据可视化 算法 数据挖掘
Python时间序列分析工具Aeon使用指南
**Aeon** 是一个遵循 scikit-learn API 风格的开源 Python 库,专注于时间序列处理。它提供了分类、回归、聚类、预测建模和数据预处理等功能模块,支持多种算法和自定义距离度量。Aeon 活跃开发并持续更新至2024年,与 pandas 1.4.0 版本兼容,内置可视化工具,适合数据探索和基础分析任务。尽管在高级功能和性能优化方面有提升空间,但其简洁的 API 和完整的基础功能使其成为时间序列分析的有效工具。
66 37
Python时间序列分析工具Aeon使用指南
|
15天前
|
机器学习/深度学习 运维 数据可视化
Python时间序列分析:使用TSFresh进行自动化特征提取
TSFresh 是一个专门用于时间序列数据特征自动提取的框架,支持分类、回归和异常检测等机器学习任务。它通过自动化特征工程流程,处理数百个统计特征(如均值、方差、自相关性等),并通过假设检验筛选显著特征,提升分析效率。TSFresh 支持单变量和多变量时间序列数据,能够与 scikit-learn 等库无缝集成,适用于大规模时间序列数据的特征提取与模型训练。其工作流程包括数据格式转换、特征提取和选择,并提供可视化工具帮助理解特征分布及与目标变量的关系。
55 16
Python时间序列分析:使用TSFresh进行自动化特征提取
|
16天前
|
数据采集 Web App开发 数据可视化
Python用代理IP获取抖音电商达人主播数据
在当今数字化时代,电商直播成为重要的销售模式,抖音电商汇聚了众多达人主播。了解这些主播的数据对于品牌和商家至关重要。然而,直接从平台获取数据并非易事。本文介绍如何使用Python和代理IP高效抓取抖音电商达人主播的关键数据,包括主播昵称、ID、直播间链接、观看人数、点赞数和商品列表等。通过环境准备、代码实战及数据处理与可视化,最终实现定时任务自动化抓取,为企业决策提供有力支持。
|
14天前
|
数据采集 缓存 API
python爬取Boss直聘,分析北京招聘市场
本文介绍了如何使用Python爬虫技术从Boss直聘平台上获取深圳地区的招聘数据,并进行数据分析,以帮助求职者更好地了解市场动态和职位需求。
|
2月前
|
数据采集 存储 XML
python实战——使用代理IP批量获取手机类电商数据
本文介绍了如何使用代理IP批量获取华为荣耀Magic7 Pro手机在电商网站的商品数据,包括名称、价格、销量和用户评价等。通过Python实现自动化采集,并存储到本地文件中。使用青果网络的代理IP服务,可以提高数据采集的安全性和效率,确保数据的多样性和准确性。文中详细描述了准备工作、API鉴权、代理授权及获取接口的过程,并提供了代码示例,帮助读者快速上手。手机数据来源为京东(item.jd.com),代理IP资源来自青果网络(qg.net)。
|
4月前
|
Web App开发 前端开发 JavaScript
探索Python科学计算的边界:利用Selenium进行Web应用性能测试与优化
【10月更文挑战第6天】随着互联网技术的发展,Web应用程序已经成为人们日常生活和工作中不可或缺的一部分。这些应用不仅需要提供丰富的功能,还必须具备良好的性能表现以保证用户体验。性能测试是确保Web应用能够快速响应用户请求并处理大量并发访问的关键步骤之一。本文将探讨如何使用Python结合Selenium来进行Web应用的性能测试,并通过实际代码示例展示如何识别瓶颈及优化应用。
202 5
|
2月前
|
Web App开发 IDE JavaScript
Selenium IDE:Web自动化测试的得力助手
Selenium IDE:Web自动化测试的利器。作为开源工具,Selenium IDE支持录制与回放用户操作,适用于Chrome、Firefox等多浏览器,简化了测试流程,提升了效率,降低了自动化测试的门槛。它还支持导出多种编程语言的脚本,便于测试集成与复用。
131 31
Selenium IDE:Web自动化测试的得力助手

热门文章

最新文章