数据工程实践:从网络抓取到API调用,解析共享单车所需要的数据

本文涉及的产品
全局流量管理 GTM,标准版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
云解析 DNS,旗舰版 1个月
简介: 在本篇文章中,将解释网络抓取和APIs如何协同工作,从百科上抓取城市数据,利用APIs获取天气数据,从而推断出与共享单车相关的信息。

设想这样一个案例,当前共享单车应用广泛,在很多城市都有大量的投放,一方面解决了人们的短途快速出行问题,一方面对环境保护做出了贡献。但对于单车公司来说,如何确保单车投放在人们需要的地方?大量的共享单车聚集在市中心,且在雨雪等恶劣天气,人们又不会使用。


这正是数据工程师可以发挥作用的地方,利用他们的专业技术从互联网中提取和分析数据。


在本篇文章中,将解释网络抓取和APIs如何协同工作,从百科上抓取城市数据,利用APIs获取天气数据,从而推断出与共享单车相关的信息。


网络抓取与API调用:数据工程的工具箱


网络抓取是一种数字化的信息检索方式,它类似于在网络上获取数据的智能助手。想象一下,你在杂志中寻找与人工智能、机器学习、网络安全等相关的信息,而不是手动记录这些词汇,你可以使用网络抓取工具,例如Python爬虫工具BeautifulSoup,能够快速、高效地完成这项任务。


API是软件应用程序间相互交互的规则和协议集合,它们在软件背后扮演着重要角色,实现了应用程序间无缝集成和数据共享。这就像餐馆的菜单,提供了可选择的菜品清单和详细描述,用户点菜就如同发出数据请求,而厨房则为之准备菜品。在这个类比中,API就是菜单,而订单则是对数据的请求。


API的应用场景多种多样:


· 服务之间的通信:不同软件系统能够相互通信。


· 数据获取:API允许应用程序从服务器获取数据,为用户提供动态内容。


· 功能共享:它们还允许服务与其他应用程序共享其功能,比如地图集成到多个应用程序中的情况。


这些API之于软件的重要性不言而喻,它们促成了跨应用程序的交互和数据共享,为用户提供了更加丰富和便捷的体验。相比之下,网页抓取则是一种从网页中提取信息的方式,通常是将网页内容转化成可用的数据格式。虽然两者都涉及数据的获取和处理,但API更多地关注于应用程序间的交互和数据共享,而网页抓取则更专注于从网页中提取信息。


下图中展示了使用GET请求的客户端和API服务器之间的基本交互。理解这个过程对于了解数据在Web应用程序中的交换和利用至关重要。


image.png

PixelBin,Lucidchart


在此关系图的起点,API服务器充当中介。它接收GET请求,对其进行处理,并根据请求的参数确定适当的响应。


GET请求表示来自客户端(如网站或应用程序)向API服务器请求特定数据的查询,在请求之后,图中显示了服务器的响应。首先,发出响应代码,例如200表示成功,404表示未找到。然后,返回响应数据,其中包含客户端请求的信息。


由此可以看出,API与网页抓取的主要区别在于它们访问数据的方式:


· API是访问数据的官方渠道。这就像有一张VIP通行证可以进入一场音乐会,在那里你可以直接获得某些信息。


· 另一方面,网络抓取就像坐在观众席上,记下正在播放的歌曲的歌词。这是一种无需使用官方API即可从网站提取数据的方法。


回到最开始提到的案例中。


城市信息可以从多个途径获取。一种方法是从官方统计等渠道的网站下载CSV文件。但要注意的是,城市信息可能会变动频繁,但网站更新的频率无法保障。


另一个方法是使用百科的数据。大量的用户在定期更新这些信息,所以只需要专注于选择正确的数据。


接下来,以使用BeautifulSoup进行网络抓取为案例。目标是什么?提取关键细节,例如名称、纬度、经度和人口数量,两个充满活力的城市:AAA和XXX。


此处作者使用的是Jupyter Notebook开发环境,对于交互式编程和数据可视化非常出色。当然,其他工具如Atom、Visual Studio Code或IntelliJ IDEA也有自己的优势。


分步Python指南:抓取数据实践


首先,让我们看一下用于推断AAA和XXX数据的代码。在本节中,将介绍构成项目骨干的Python库。


import requests


我们的第一个工具是 requests 库。这是互联网的关键——它帮助我们向网站发送HTTP请求。

from bs4 import BeautifulSoup


接下来,我们从 bs4 包中介绍BeautifulSoup。一旦我们有了目标网页,BeautifulSoup就会解析HTML内容。


import pandas as pd


接下来是 pandas,这是数据科学中不可或缺的库。我们可以将抓取的数据转换为可读的表格,非常适合分析和可视化。


Python中另一个常用的模块是 re 模块。它是一个用于处理正则表达式的库。


import reheaders = {'Accept-Language': 'en-US,en;q=0.8'}


第一步是准备Python环境来接收来自web的数据。我们使用 requests 库来做到这一点,通过将“Accept-Language”设置为英语来确保我们的请求被普遍理解。


接下来,确定城市的URL -AAA。这个URL将成为我们获取丰富信息的门户:


url_aaa = "https://en.wikipedia.org/wiki/aaa"
aaa = requests.get(url_aaa, headers=headers)


发送请求后,检查请求是否成功是至关重要的。状态码为200表示连接成功。


aaa.status_code # Should return 200


现在使用BeautifulSoup解析AAA的网页,将HTML内容转换为我们可以使用的格式。


soup_aaa = BeautifulSoup(aaa.content, "html.parser")


当提取特定数据时,就可以获得我们想要的结果:


· 检索到城市名称和国家,指向我们的研究主题


· 经纬度给了我们地理坐标


· 从人口数量可以看出城市的规模


下面是如何仔细检索这些细节的流程:


A_city = soup_aaa.select(".mw-page-title-main")[0].get_text()
A_country = soup_aaa.select('a[href="/wiki/CCC"]')[0].get_text()
A_latitude = soup_aaa.select(".latitude")[0].get_text()
A_longitude = soup_aaa.select(".longitude")[0].get_text()
A_population = soup_aaa.select('td.infobox-data')[10].get_text()


在成功抓取AAA的数据后,我们将注意力转向XXX,使用相同的技术提取其城市名称、人口、纬度和经度。

和前面一样,使用BeautifulSoup解析XXX的百科页面,收集必要的数据并创建一个DataFrame。


data = {
    "City": [FR_city, BR_city],
    "Population": [FR_population, BR_population],
    "Latitude": [FR_latitude, BR_latitude],
    "Longitude": [FR_longitude, BR_longitude],
    "Country": [FR_country, BR_country]
}
df = pd.DataFrame(data)


接下来,我们通过微调来优化DataFrame以获得更好的可读性和准确性,以确保我们的数据干净且易于理解。


df['Population'] = pd.to_numeric(df['Population'], errors='coerce')
df['Latitude'] = pd.to_numeric(df['Latitude'], errors='coerce')
df['Longitude'] = pd.to_numeric(df['Longitude'], errors='coerce')
df['City'] = df['City'].astype(str)
# Display the DataFrame
print(df.head)


如果您的目标是在编码过程中获得高水平的舒适性和准确性,并且您有兴趣将方法改进到完美,那么这里有一段利用函数的Python代码。这种方法不仅简化了过程,而且提高了代码的可读性和可重用性。


def scrape_city_data(url):
    response = requests.get(url)
    if response.status_code == 200:
        soup = BeautifulSoup(response.content, "html.parser")
        city = soup.title.get_text().split(' - ')[0]
        country = soup.select('td.infobox-data a')[0].get_text()
        latitude = soup.select('span.latitude')[0].get_text()
        longitude = soup.select('span.longitude')[0].get_text()
        # Find the population data using provided code
        population_element = soup.select_one('th.infobox-header:-soup-contains("Population")')
        if population_element:
            population = population_element.parent.find_next_sibling().find(string=re.compile(r'\d+'))
            if population:
                population = int(population)
        else:
            population = None
        data = {
            'City': [city],
            'Country': [country],
            'Latitude': [latitude],
            'Longitude': [longitude],
            'Population': [population],
        }
        city_df = pd.DataFrame(data)
        return city_df
    else:
        print("Error:", response.status_code)
        return None
# List of German cities ( herre you can add more cities)
german_cities = ['Berlin', 'Frankfurt']
# Create an empty DataFrame with specified columns
german_cities_df = pd.DataFrame(columns=['City', 'Country', 'Latitude', 'Longitude', 'Population'])
# Iterate and scrape data for German cities
for city_name in german_cities:
    wiki_link = f"https://en.wikipedia.org/wiki/{city_name}"
    city_data = scrape_city_data(wiki_link)
    # Append the data to the table
    if city_data is not None:
        german_cities_df = pd.concat([german_cities_df, city_data], ignore_index=True)
# Display the DataFrame
print(german_cities_df)


通过专业的天气预报API来获取数据


有了地理位置,接下来看下影响共享单车的另一个方面——天气。这部分我们采用调用天气预报API的方式来获取数据。


下面是我们准备的Python函数。这个简洁的代码片段展示了如何以精炼的方式实现强大的功能,无缝地融合了技术性与易用性之间的隔阂。


def fetch_weather_data(API_key, city):
    import requests
    import pandas as pd
    from datetime import datetime
    from keys import weather_key
    url = f"http://api.openweathermap.org/data/2.5/forecast?q={city}&appid={API_key}&units=metric"
    response = requests.get(url)
    if response.status_code == 200:
        weather_json = response.json()
        if "list" in weather_json:
            temperature = weather_json["list"][0]["main"]["temp"]
            description = weather_json["list"][0]['weather'][0]['description']
            feels_like = weather_json["list"][0]["main"].get("feels_like")
            wind_speed = weather_json["list"][0]["wind"].get("speed")
            return pd.DataFrame({
                "city": [city],
                "forecast_time": [datetime.now()],
                "outlook": [description],
                "temperature": [temperature],
                "feels_like": [feels_like],
                "wind_speed": [wind_speed]
            })
        else:
            print("Unexpected response format: 'list' key not found.")
    else:
        print(f"Failed to fetch data for {city}. Status Code: {response.status_code}")
    return pd.DataFrame()
cities = ["Berlin", "Frankfurt"]
API_key = weather_key  # Replace with your actual API key
weather_df = pd.DataFrame()
for city in cities:
    city_weather_df = fetch_weather_data(API_key, city)
    if not city_weather_df.empty:
        weather_df = weather_df.append(city_weather_df, ignore_index=True)


为什么这很重要?


这个DataFrame不仅仅是天气数据的集合,而是Python在将原始数据转换为有意义的见解方面的强大功能。作为一个工具,可以帮助城市居民、旅行者或任何人根据实时天气状况做出决定。


在这篇博客中,我们涉及了抓取百科数据、从API获取天气数据、Python函数以及复杂数据易于理解的技巧。真正的项目开发中可能会包括对SQL数据库、AWS RDS和Lambda的深入研究,因此本文希望可以让读者明白理论知识和实际应用之间的差距。


声明:本文内容仅做技术学习交流使用。


参考原文与相关资料:


网页抓取和 API:放轻松,这就是数据工程生活方式 |由 Ornela Maloku |2023 年 12 月 |AWS 提示 (awstip.com)

BeautifulSoup文档

Python教程

ScrapingBee博客


编译:幂简集成

相关文章
|
16天前
|
存储 搜索推荐 大数据
数据大爆炸:解析大数据的起源及其对未来的启示
数据大爆炸:解析大数据的起源及其对未来的启示
69 15
数据大爆炸:解析大数据的起源及其对未来的启示
|
2天前
|
数据采集 监控 搜索推荐
深度解析淘宝商品详情API接口:解锁电商数据新维度,驱动业务增长
淘宝商品详情API接口,是淘宝开放平台为第三方开发者提供的一套用于获取淘宝、天猫等电商平台商品详细信息的应用程序接口。该接口涵盖了商品的基本信息(如标题、价格、图片)、属性参数、库存状况、销量评价、物流信息等,是电商企业实现商品管理、市场分析、营销策略制定等功能的得力助手。
|
13天前
|
搜索推荐 数据挖掘 API
怎么利用商品详情 API 接口实现数据获取与应用?
在电商蓬勃发展的时代,数据成为驱动业务增长的关键。商品详情API接口为电商从业者、开发者和数据分析爱好者提供了获取海量商品数据的途径,助力精准营销、优化用户体验和提升运营效率。本文深入探讨如何利用商品详情API接口进行数据获取与应用,涵盖接口概念、工作原理、不同平台特点、准备工作、数据获取及处理、错误处理,并通过代码示例展示其在电商平台展示、数据分析、竞品分析和个性化推荐等场景中的应用。
35 12
|
12天前
|
搜索推荐 API 开发者
深度解析:利用商品详情 API 接口实现数据获取与应用
在电商蓬勃发展的今天,数据成为驱动业务增长的核心。商品详情API接口作为连接海量商品数据的桥梁,帮助运营者、商家和开发者获取精准的商品信息(如价格、描述、图片、评价等),优化策略、提升用户体验。通过理解API概念、工作原理及不同平台特点,掌握获取权限、构建请求、处理响应和错误的方法,可以将数据应用于商品展示、数据分析、竞品分析和个性化推荐等场景,助力电商创新与发展。未来,随着技术进步,API接口将与人工智能、大数据深度融合,带来更多变革。
42 3
|
15天前
|
缓存 监控 API
如何查看商品销量 API 接口的性能指标数据
在电商蓬勃发展的时代,数据驱动业务决策至关重要。商品销量作为核心指标,依赖高效稳定的API接口获取。本文探讨如何查看和优化商品销量API的性能指标,包括响应时间、吞吐量、错误率和并发用户数,通过专业工具、日志分析及自定义代码实现监控与优化,确保业务稳定运行和用户体验提升。
31 2
|
26天前
|
JSON 前端开发 搜索推荐
关于商品详情 API 接口 JSON 格式返回数据解析的示例
本文介绍商品详情API接口返回的JSON数据解析。最外层为`product`对象,包含商品基本信息(如id、name、price)、分类信息(category)、图片(images)、属性(attributes)、用户评价(reviews)、库存(stock)和卖家信息(seller)。每个字段详细描述了商品的不同方面,帮助开发者准确提取和展示数据。具体结构和字段含义需结合实际业务需求和API文档理解。
|
1天前
|
JSON 监控 API
唯品会商品详情接口(唯品会 API 系列)
唯品会商品详情接口助力电商发展,提供商品名称、价格、规格等详细信息,支持HTTP GET/POST请求,响应为JSON格式。开发者可通过API Key和商品ID获取数据,应用于电商数据分析、竞品调研、应用开发及价格监控,提升业务效率与竞争力。示例代码展示Python调用方法,方便快捷。
|
2天前
|
JSON API 数据格式
微店商品列表接口(微店 API 系列)
微店商品列表接口是微店API系列的一部分,帮助开发者获取店铺中的商品信息。首先需注册微店开发者账号并完成实名认证,选择合适的开发工具如PyCharm或VS Code,并确保熟悉HTTP协议和JSON格式。该接口支持GET/POST请求,主要参数包括店铺ID、页码、每页数量和商品状态等。响应数据为JSON格式,包含商品详细信息及状态码。Python示例代码展示了如何调用此接口。应用场景包括商品管理系统集成、数据分析、多平台数据同步及商品展示推广。
|
11天前
|
搜索推荐 数据挖掘 API
微店商品详情接口(微店API系列)
微店商品详情接口是微店API的重要组成部分,帮助开发者和商家获取商品的详细信息(如标题、价格、库存等),并将其集成到应用程序或数据分析系统中。该接口支持HTTP GET/POST请求,返回JSON/XML格式数据,需通过AppKey和AppSecret进行身份验证和签名加密。应用场景包括商品信息同步、数据分析与市场调研、个性化推荐系统等,助力商业决策和业务拓展。
37 13
|
13天前
|
供应链 数据挖掘 API
1688app 商品详情接口系列(1688API)
1688作为国内知名批发采购平台,提供了一系列商品详情接口(API),助力企业和开发者获取商品基础、价格、库存及供应商信息。通过Python示例代码展示如何调用这些接口,应用场景涵盖采购决策辅助、数据分析与市场调研、电商平台整合及供应链管理系统的优化,为企业和采购商提供有力的数据支持,提升业务效率和竞争力。
60 15

热门文章

最新文章

推荐镜像

更多