156个Python网络爬虫资源,GitHub上awesome系列之Python爬虫工具

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
NLP自然语言处理_高级版,每接口累计50万次
简介: 项目地址:lorien/awesome-web-scraping,GitHub上awesome系列之Python的爬虫工具。本列表包含Python网页抓取和数据处理相关的库。


项目地址:lorien/awesome-web-scraping

GitHub上awesome系列之Python的爬虫工具。

本列表包含Python网页抓取和数据处理相关的库。

网络相关

  • 通用
    • urllib - 网络库(标准库)
    • requests - 网络库
    • grab - 网络库(基于pycurl)
    • pycurl - 网络库 (与libcurl绑定)
    • urllib3 - 具有线程安全连接池、文件psot支持、高可用的Python HTTP库
    • httplib2 - 网络库
    • RoboBrowser - 一个无需独立浏览器即可访问网页的简单、pythonic的库
    • MechanicalSoup - 能完成自动网站交互的Python库
    • mechanize - 有状态、可编程的网页浏览库。
    • socket - 底层网络接口(标准库)
    • Unirest for Python - 一套支持多种语言的轻量级HTTP库
    • hyper - Python HTTP/2客户端
    • PySocks - SocksiPy持续更新并维护的版本,指出bug修复和一些其他功能,可以作为socket模块的替代品
  • 异步
    • treq - 基于twisted、与requests类似的API
    • aiohttp - asyncio的HTTP客户端/服务器 (PEP-3156)

网络爬虫框架

  • 全能型爬虫
    • grab - 网络爬虫框架(基于pycurl/multicurl)
    • scrapy - 网络爬虫框架(基于twisted)
    • pyspider - 一个强力的爬虫系统
    • cola - 一个分布式爬虫框架
  • 其他
    • portia - 基于Scrapy的可视化爬虫
    • restkit - Python的HTTP资源库。允许影虎简单的访问HTTP资源并用来创建项目
    • demiurge - 基于PyQuery的微型爬虫框架

HTML/XML解析

  • 通用
    • lxml - 高效的HTML/XML处理库。支持XPATH,用C语言写成
    • cssselect - 解析DOM树和css选择器
    • pyquery - 解析DOM树和jQuery选择器
    • BeautifulSoup - Python写成的低效HTML/XMl处理库
    • html5lib - 根据WHATWG规范生成HTML/ XML文档的DOM。WHATWG规范是现在浏览器的通行规范
    • feedparser - 解析RSS/ATOM信息流
    • MarkupSafe - Python的XML/HTML/XHTML安全转义字符串工具
    • xmltodict - 让你处理XML如同处理JSON一样
    • xhtml2pdf - HTML/CSS to PDF转化器
    • untangle - 讲XML文档转化为Python项目以简化处理难度
    • hodor - 支持lxml and cssselect的配置驱动包装工具
  • 清理
    • Bleach - 清理HTML (需求html5lib)
    • sanitize - 将混乱的数据世界恢复清楚

文本处理

解析及操作文本的库

  • 通用
    • difflib - 差异化计算工具(Python标准库)
    • Levenshtein - 快速计算编辑距离及字符串相似度
    • fuzzywuzzy - 模糊字符串比匹配
    • esmre - 正则表达式加速器.
    • ftfy - 将Unicode文本自动整理减少碎片化
  • 转换
  • 字符编码
    • uniout - 将转移字符串输出为可读形式
    • chardet - Python 2/3兼容字符编码检测器
    • xpinyin - 讲汉字转为拼音的库
    • pangu.py - CJK及字母数字文本间距格式化
  • 通用解析器
    • PLY - Python lex和yacc解析工具
    • pyparsing - 用于生成解析器的通用框架
  • 电话号码
    • phonenumbers - 处理、格式化、存储、验证全球电话号码

特殊格式处理

处理特编辑特殊字符格式的库

  • 通用
    • tablib - 处理XLS, CSV, JSON, YAML等表格数据的库
    • textract - 从任何文档中提取文本,支持Word, PowerPoint, PDF等
    • messytables - 杂乱的表格数据解析
    • rows - 支持多种格式的通用且美观的表格数据处理器(现有CSV, HTML, XLS, TXT -- 即将支持更多)
  • Office
    • python-docx - 阅读,查询和修改Microsoft Word 2007/2008 docx文件
    • xlwt / xlrd - 从Excel读取及写入数据和格式化信息
    • XlsxWriter - 用于穿件Excel .xlsx文件的Python模块
    • xlwings - 一个BSD许可的库,是Excel与Python互相调用更加简单
    • openpyxl - 可读取、编辑Excel 2010xlsx/xlsm/xltx/xltm文件的库
    • Marmir - 提取Python数据结构并将其转化为表格的库
  • PDF
    • PDFMiner - 从PDF文档中提取信息的工具
    • PyPDF2 - 一个分割、合并、转换PDF文件的库
    • ReportLab - 可以快速创建大量PDF文档
    • pdftables - 从PDF文件中精准提取表格
  • Markdown
    • Python-Markdown - 一个用Python实现的John Gruber的Markdown
    • Mistune - 速度最快,功能全面的Markdown纯Python解析器
    • markdown2 - 一个完全用Python实现的快速的Markdown
  • YAML
    • PyYAML - 一个Python的YAML解析器
  • SQL
    • sqlparse - 一个无验证的SQL语句分析器
  • HTTP
    • http-parser - C语言实现的HTTP请求/响应消息解析器
  • Microformats
    • opengraph - 一个用来解析Open Graph协议标签的Python模块
  • 可移植的执行体
  • pefile - 一个多平台的用于解析和处理可移植执行体(即PE)文件的模块
  • PSD
    • psd-tools - 将Adobe Photoshop PSD(即PE)文件读取到Python数据结构

自然语言处理

自然语言处理库

  • NLTK - Python自然语言处理领先者
  • Pattern - Python的网络挖掘模块。他有自然语言处理工具,机器学习以及其它
  • TextBlob - 为深入处理自然语言的项目提供API,参考了NLTK及其他
  • jieba - 中文分词
  • SnowNLP - 汉字文本处理库
  • loso - 中文分词库
  • genius -基于条件随机域的中文分词
  • langid.py - 独立的语言识别系统
  • Korean - 韩文形态库
  • pymorphy2 - 俄语形态分析器(词性标注+词形变化引擎)
  • PyPLN - 用Python编写的分布式自然语言处理通道。这个项目的目标是创建一种简单的方法使用NLTK通过网络接口处理大语言库
  • langdetect - Python的谷歌语言检测库端口

浏览器自动化与仿真

  • 浏览器
    • selenium - 自动化真实浏览器(Chrome, Firefox, Opera, IE)
    • Ghost.py - QtWebKit封装(需求PyQT)
    • Spynner - 具备AJAX支持的程序化网页浏览模块
    • Splinter - 通用API浏览器模拟器(selenium web驱动,Django客户端,Zope)
  • Headless工具
    • xvfbwrapper - 用于在X虚拟帧缓冲区(Xvfb)中运行显示的Python包装器

多进程并发

  • threading - Python标准库的多线程运行。因为python GIL限制,对于I/O密集型任务很有效,对于CPU绑定的任务没用
  • multiprocessing - 多进程标准库
  • celery - 基于分布式消息传递的异步任务队列/作业队列
  • concurrent-futures - concurrent.futures模块提供用于异步执行callable的高级接口

异步

异步网络编程库

  • asyncio - 异步I/O,时间循环,协同程序和任务(Python 3.4以上版本的Python标准库)
  • Twisted - 基于事件驱动的网络引擎框架
  • Tornado - 一个Web框架及异步网络库
  • pulsar - Python事件驱动的并发框架
  • diesel - Python的基于Greenlet的I/O框架
  • gevent - 一个基于协同程序的Python网络库,使用greenlet
  • eventlet - 有WSGI支持的异步框架
  • Tomorrow - 异步代码的魔法

队列

  • celery - 基于分布式消息传递的异步任务队列/作业队列
  • huey - 小型多线程任务队列
  • mrq - Mr. Queue - 使用redis & Gevent 的Python分布式工作任务队列
  • RQ - 基于Redis的轻量级任务队列管理器
  • simpleq - 一个简单的,可无限扩展,基于Amazon SQS的队列
  • python-gearman - Gearman的Python API

云计算

电子邮件

电子邮件处理库

  • flanker - 电子邮件及MIME处理库
  • Talon - Mailgun库用于提取消息的报价和签名

URL和网络地址操作

URL和网络地址操作库

  • URL
    • furl - 一个小的Python库,使得操纵URL简单化
    • purl - 一个简单的不可改变的URL以及一个干净的用于调试和操作的API
    • urllib.parse - 用于打破统一资源定位器(URL)的字符串在组件(寻址方案,网络位置,路径等)之间的隔断,为了结合组件到一个URL字符串,并将“相对URL”转化为一个绝对URL,称之为“基本URL”(标准库)
    • tldextract - 使用公共后缀列表从URL的注册域和子域中准确分离TLD
  • 网络地址
    • netaddr - 用于显示和操纵网络地址的Python库

网页内容提取

网页内容提取库

  • HTML页面的文本和元数据
    • newspaper - 用Python进行新闻提取、文章提取和内容策展
    • html2text - 将HTML转为Markdown格式文本
    • python-goose - HTML内容/文章提取器
    • lassie - 人性化的网页内容检索工具
    • micawber - 一个从网址中提取丰富内容的小型库
    • sumy -一个自动汇总文本文件和HTML网页的模块
    • Haul - 一个可扩展的图像爬虫
    • python-readability - arc90 readability工具的快速Python接口
    • scrapely - 从HTML网页中提取结构化数据的库。给出了一些Web页面和数据提取的示例,scrapely为所有类似的网页构建一个分析器
    • libextract - 从网站提取数据
  • 视频
    • youtube-dl - 一个从YouTube下载视频的小型命令行工具
    • you-get - Python3写成的YouTube/Youku/Niconico视频下载工具
  • Wiki
    • WikiTeam - 下载并保存wkiks的工具

WebSocket

用于WebSocket的库

  • Crossbar - 开源的应用消息传递路由器(Python实现的用于Autobahn的WebSocket和WAMP)
  • AutobahnPython - 提供了WebSocket协议和WAMP协议的Python实现并且开源
  • WebSocket-for-Python - Python 2和3以及PyPy的WebSocket客户端和服务器库

DNS解析

  • dnsyo - 在全球超过1500个的DNS服务器上检查你的DNS
  • pycares - ic-ares的接口。c-ares是进行DNS请求和异步名称决议的C语言库

计算机视觉

  • OpenCV - 开源计算机视觉库
  • SimpleCV - 用于照相机、图像处理、特征提取、格式转换的简介,可读性强的接口(基于OpenCV)
  • mahotas - 快速计算机图像处理算法(完全使用 C++ 实现),完全基于 numpy 的数组作为它的数据类型

代理服务器

  • shadowsocks - 一个快速隧道代理,可帮你穿透防火墙(支持TCP和UDP,TFO,多用户和平滑重启,目的IP黑名单)
  • tproxy - tproxy是一个简单的TCP路由代理(第7层),基于Gevent,用Python进行配置

杂项

  • user_agent - 此模块用于生成随机,有效的Web导航器的配置和用户代理HTTP header

其他

微信图片_20180125161136.png

更多文章:SDK.cn

目录
相关文章
|
2天前
|
测试技术 数据库 Python
Python装饰器实战:打造高效性能计时工具
在数据分析中,处理大规模数据时,分析代码性能至关重要。本文介绍如何使用Python装饰器实现性能计时工具,在不改变现有代码的基础上,方便快速地测试函数执行时间。该方法具有侵入性小、复用性强、灵活度高等优点,有助于快速发现性能瓶颈并优化代码。通过设置循环次数参数,可以更准确地评估函数的平均执行时间,提升开发效率。
70 61
Python装饰器实战:打造高效性能计时工具
|
7天前
|
数据可视化 算法 数据挖掘
Python时间序列分析工具Aeon使用指南
**Aeon** 是一个遵循 scikit-learn API 风格的开源 Python 库,专注于时间序列处理。它提供了分类、回归、聚类、预测建模和数据预处理等功能模块,支持多种算法和自定义距离度量。Aeon 活跃开发并持续更新至2024年,与 pandas 1.4.0 版本兼容,内置可视化工具,适合数据探索和基础分析任务。尽管在高级功能和性能优化方面有提升空间,但其简洁的 API 和完整的基础功能使其成为时间序列分析的有效工具。
60 37
Python时间序列分析工具Aeon使用指南
|
17天前
|
数据采集 人工智能 自然语言处理
FireCrawl:开源 AI 网络爬虫工具,自动爬取网站及子页面内容,预处理为结构化数据
FireCrawl 是一款开源的 AI 网络爬虫工具,专为处理动态网页内容、自动爬取网站及子页面而设计,支持多种数据提取和输出格式。
88 18
FireCrawl:开源 AI 网络爬虫工具,自动爬取网站及子页面内容,预处理为结构化数据
|
25天前
|
存储 安全 物联网
浅析Kismet:无线网络监测与分析工具
Kismet是一款开源的无线网络监测和入侵检测系统(IDS),支持Wi-Fi、Bluetooth、ZigBee等协议,具备被动监听、实时数据分析、地理定位等功能。广泛应用于安全审计、网络优化和频谱管理。本文介绍其安装配置、基本操作及高级应用技巧,帮助用户掌握这一强大的无线网络安全工具。
59 9
浅析Kismet:无线网络监测与分析工具
|
13天前
|
存储 算法 Serverless
剖析文件共享工具背后的Python哈希表算法奥秘
在数字化时代,文件共享工具不可或缺。哈希表算法通过将文件名或哈希值映射到存储位置,实现快速检索与高效管理。Python中的哈希表可用于创建简易文件索引,支持快速插入和查找文件路径。哈希表不仅提升了文件定位速度,还优化了存储管理和多节点数据一致性,确保文件共享工具高效运行,满足多用户并发需求,推动文件共享领域向更高效、便捷的方向发展。
|
12天前
|
网络协议 安全 测试技术
Nping工具详解:网络工程师的瑞士军刀
### Nping工具详解:网络工程师的瑞士军刀 Nping是Nmap项目的一部分,支持TCP、UDP、ICMP和ARP等多种协议,用于生成和分析网络数据包。它提供灵活的命令行界面,适用于网络探测、安全测试和故障排除。本文介绍Nping的基础与高级用法,包括发送不同类型的网络请求、自定义TCP标志位、路由跟踪等,并通过实战案例展示其应用。掌握Nping有助于更好地理解和管理网络环境。 (239字符)
45 8
|
12天前
|
数据采集 供应链 API
Python爬虫与1688图片搜索API接口:深度解析与显著收益
在电子商务领域,数据是驱动业务决策的核心。阿里巴巴旗下的1688平台作为全球领先的B2B市场,提供了丰富的API接口,特别是图片搜索API(`item_search_img`),允许开发者通过上传图片搜索相似商品。本文介绍如何结合Python爬虫技术高效利用该接口,提升搜索效率和用户体验,助力企业实现自动化商品搜索、库存管理优化、竞品监控与定价策略调整等,显著提高运营效率和市场竞争力。
43 3
|
23天前
|
数据采集 存储 缓存
如何使用缓存技术提升Python爬虫效率
如何使用缓存技术提升Python爬虫效率
|
24天前
|
数据采集 Web App开发 监控
Python爬虫:爱奇艺榜单数据的实时监控
Python爬虫:爱奇艺榜单数据的实时监控
|
1月前
|
数据采集 JSON API
如何利用Python爬虫淘宝商品详情高级版(item_get_pro)API接口及返回值解析说明
本文介绍了如何利用Python爬虫技术调用淘宝商品详情高级版API接口(item_get_pro),获取商品的详细信息,包括标题、价格、销量等。文章涵盖了环境准备、API权限申请、请求构建和返回值解析等内容,强调了数据获取的合规性和安全性。