Python基础 之 Python urllib 2

简介: Python urllib

Python基础 之 Python urllib 2

Python urllib

Python urllib 库用于操作网页 URL,并对网页的内容进行抓取处理。

本文主要介绍 Python3 的 urllib。

urllib 包 包含以下几个模块:

urllib.request - 打开和读取 URL。
urllib.error - 包含 urllib.request 抛出的异常。
urllib.parse - 解析 URL。
urllib.robotparser - 解析 robots.txt 文件。

urllib.request

urllib.request 定义了一些打开 URL 的函数和类,包含授权验证、重定向、浏览器 cookies等。

urllib.request 可以模拟浏览器的一个请求发起过程。

我们可以使用 urllib.request 的 urlopen 方法来打开一个 URL,语法格式如下:

urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False, context=None)

url:url 地址。
data:发送到服务器的其他数据对象,默认为 None。
timeout:设置访问超时时间。
cafile 和 capath:cafile 为 CA 证书, capath 为 CA 证书的路径,使用 HTTPS 需要用到。
cadefault:已经被弃用。
context:ssl.SSLContext类型,用来指定 SSL 设置。

实例如下:

实例

from urllib.request import urlopen

myURL = urlopen("https://www.runoob.com/")
print(myURL.read())

以上代码使用 urlopen 打开一个 URL,然后使用 read() 函数获取网页的 HTML 实体代码。

readline() - 读取文件的一行内容

from urllib.request import urlopen

myURL = urlopen("https://www.runoob.com/")
print(myURL.readline()) #读取一行内容

readlines() - 读取文件的全部内容,它会把读取的内容赋值给一个列表变量。

from urllib.request import urlopen

myURL = urlopen("https://www.runoob.com/")
lines = myURL.readlines()
for line in lines:
print(line)

目录
相关文章
|
1月前
|
数据采集 网络安全 Python
Python使用urllib或者urllib2模块打开网页遇到ssl报错
Python使用urllib或者urllib2模块打开网页遇到ssl报错
|
存储 数据采集 JavaScript
Python:urllib2模块Handler处理器 和 自定义Opener(二)
Python:urllib2模块Handler处理器 和 自定义Opener(二)
228 0
Python:urllib2模块Handler处理器 和 自定义Opener(二)
|
数据采集 数据安全/隐私保护 Python
Python:urllib2模块Handler处理器 和 自定义Opener(一)
Python:urllib2模块Handler处理器 和 自定义Opener(一)
181 0
Python:urllib2模块Handler处理器 和 自定义Opener(一)
|
Python
Python:urllib2模块的URLError与HTTPError
Python:urllib2模块的URLError与HTTPError
303 0
|
Python
Python:urllib2模块GET和POST请求
Python:urllib2模块GET和POST请求
360 0
|
数据采集 Python
Python:urllib2模块的基本使用
Python:urllib2模块的基本使用
271 0
Py之urllib2:Python库之urllib、urllib2、urllib3系列简介、安装、使用方法之详细攻略
Py之urllib2:Python库之urllib、urllib2、urllib3系列简介、安装、使用方法之详细攻略
|
Web App开发 iOS开发 Python
python中urllib2库的基本使用
版权声明:版权人:张元江 https://blog.csdn.net/zyj1471664/article/details/84180421 所谓网页抓取,就是把URL地址中指定的网络资源从网络流中抓取出来。
7507 0
|
数据采集 Python
Python网络爬虫之urllib2的使用细节与抓站技巧
某些网站反感爬虫的到访,于是对爬虫一律拒绝请求,这时候我们需要伪装成浏览器,这可以通过修改http包中的header来实现 一、伪装成浏览器访问+表单data的处理 示例1 二、获取访问Cookie的值 示例2 三、Proxy的设置及Timeout 设置 urllib2 默认会使用环境变量 http_proxy 来设置 HTTP Proxy。
930 0
下一篇
无影云桌面