python爬虫入门requests模块

简介: python爬虫入门requests模块

Requests

Python标准库中提供了:urllib、urllib2、httplib等模块以供Http请求,

但是,它的 API 太渣了。它是为另一个时代、另一个互联网所创建的。

它需要巨量的工作,甚至包括各种方法覆盖,来完成最简单的任务。


Requests 是使用 Apache2 Licensed 许可证的 基于Python开发的HTTP 库,

其在Python内置模块的基础上进行了高度的封装,从而使得Pythoner进行网络请求时,

变得美好了许多,使用Requests可以轻而易举的完成浏览器可有的任何操作。


简介

安装:  

pip install requests

requests常用属性:

response = requests.get(url)
    response.text
    response.content
    response.encoding
    response.apparent_encoding
    response.status_code
            301 永久重定向
            302 临时重定向
    response.cookies.get_dict()

1、GET请求

1、无参数实例

import requests
    ret = requests.get('https://github.com/timeline.json')
    print ret.url
    print ret.text

2、有参数实例

import requests
    payload = {'key1': 'value1', 'key2': 'value2'}
    ret = requests.get("http://httpbin.org/get", params=payload)
    print ret.url
    print ret.text

2、POST请求

1、基本POST实例

import requests
    payload = {'key1': 'value1', 'key2': 'value2'}
    ret = requests.post("http://httpbin.org/post", data=payload)
    print ret.text

2、发送请求头和数据实例

import requests
    import json
    url = 'https://api.github.com/some/endpoint'
    payload = {'some': 'data'}
    headers = {'content-type': 'application/json'}
    ret = requests.post(url, data=json.dumps(payload), headers=headers)
    print ret.text
    print ret.cookies

3、其他请求

requests.get(url, params=None, **kwargs)
    requests.post(url, data=None, json=None, **kwargs)
    requests.put(url, data=None, **kwargs)
    requests.head(url, **kwargs)
    requests.delete(url, **kwargs)
    requests.patch(url, data=None, **kwargs)
    requests.options(url, **kwargs)
    # 以上方法均是在此方法的基础上构建
    requests.request(method, url, **kwargs)

4、更多参数


 

def request(method, url, **kwargs):
        """Constructs and sends a :class:`Request <Request>`.
        :param method: method for the new :class:`Request` object.
        :param url: URL for the new :class:`Request` object.
        :param params: (optional) Dictionary or bytes to be sent in the query string for the :class:`Request`.
        :param data: (optional) Dictionary, bytes, or file-like object to send in the body of the :class:`Request`.
        :param json: (optional) json data to send in the body of the :class:`Request`.
        :param headers: (optional) Dictionary of HTTP Headers to send with the :class:`Request`.
        :param cookies: (optional) Dict or CookieJar object to send with the :class:`Request`.
        :param files: (optional) Dictionary of ``'name': file-like-objects`` (or ``{'name': file-tuple}``) for multipart encoding upload.
            ``file-tuple`` can be a 2-tuple ``('filename', fileobj)``, 3-tuple ``('filename', fileobj, 'content_type')``
            or a 4-tuple ``('filename', fileobj, 'content_type', custom_headers)``, where ``'content-type'`` is a string
            defining the content type of the given file and ``custom_headers`` a dict-like object containing additional headers
            to add for the file.
        :param auth: (optional) Auth tuple to enable Basic/Digest/Custom HTTP Auth.
        :param timeout: (optional) How long to wait for the server to send data
            before giving up, as a float, or a :ref:`(connect timeout, read
            timeout) <timeouts>` tuple.
        :type timeout: float or tuple
        :param allow_redirects: (optional) Boolean. Set to True if POST/PUT/DELETE redirect following is allowed.
        :type allow_redirects: bool
        :param proxies: (optional) Dictionary mapping protocol to the URL of the proxy.
        :param verify: (optional) whether the SSL cert will be verified. A CA_BUNDLE path can also be provided. Defaults to ``True``.
        :param stream: (optional) if ``False``, the response content will be immediately downloaded.
        :param cert: (optional) if String, path to ssl client cert file (.pem). If Tuple, ('cert', 'key') pair.
        :return: :class:`Response <Response>` object
        :rtype: requests.Response
        Usage::
          >>> import requests
          >>> req = requests.request('GET', 'http://httpbin.org/get')
          <Response [200]>
        """
    def param_method_url():
        requests.request(method='get', url='http://127.0.0.1:8000/test/')
        requests.request(method='post', url='http://127.0.0.1:8000/test/')
    def param_param():
        # - 可以是字典
        # - 可以是字符串
        # - 可以是字节(ascii编码以内)
        requests.request(method='get',
        url='http://127.0.0.1:8000/test/',
        params={'k1': 'v1', 'k2': '水电费'})
        requests.request(method='get',
        url='http://127.0.0.1:8000/test/',
        params="k1=v1&k2=水电费&k3=v3&k3=vv3")
        requests.request(method='get',
        url='http://127.0.0.1:8000/test/',
        params=bytes("k1=v1&k2=k2&k3=v3&k3=vv3", encoding='utf8'))
        # 错误
        requests.request(method='get',
        url='http://127.0.0.1:8000/test/',
        params=bytes("k1=v1&k2=水电费&k3=v3&k3=vv3", encoding='utf8'))
    def param_data():
        # 可以是字典
        # 可以是字符串
        # 可以是字节
        # 可以是文件对象
        requests.request(method='POST',
            url='http://127.0.0.1:8000/test/',
            data={'k1': 'v1', 'k2': '水电费'})
        requests.request(method='POST',
            url='http://127.0.0.1:8000/test/',
            data="k1=v1; k2=v2; k3=v3; k3=v4")
        requests.request(method='POST',
        url='http://127.0.0.1:8000/test/',
        data="k1=v1;k2=v2;k3=v3;k3=v4",
        headers={'Content-Type': 'application/x-www-form-urlencoded'})
        requests.request(method='POST',
        url='http://127.0.0.1:8000/test/',
        data=open('data_file.py', mode='r', encoding='utf-8'),
        # 文件内容是:k1=v1;k2=v2;k3=v3;k3=v4
        headers={'Content-Type': 'application/x-www-form-urlencoded'})
    def param_json():
        # 将json中对应的数据进行序列化成一个字符串,json.dumps(...)
        # 然后发送到服务器端的body中,并且Content-Type是
        # {'Content-Type': 'application/json'}
        requests.request(method='POST',
                 url='http://127.0.0.1:8000/test/',
                 json={'k1': 'v1', 'k2': '水电费'})
    def param_headers():
        # 发送请求头到服务器端
        requests.request(method='POST',
                 url='http://127.0.0.1:8000/test/',
                 json={'k1': 'v1', 'k2': '水电费'},
                 headers={'Content-Type': 'application/x-www-form-urlencoded'}
                 )
    def param_cookies():
        # 发送Cookie到服务器端
        requests.request(method='POST',
             url='http://127.0.0.1:8000/test/',
             data={'k1': 'v1', 'k2': 'v2'},
             cookies={'cook1': 'value1'},
             )
        # 也可以使用CookieJar(字典形式就是在此基础上封装)
        from http.cookiejar import CookieJar
        from http.cookiejar import Cookie
        obj = CookieJar()
        obj.set_cookie(Cookie(version=0, name='c1', value='v1', port=None, domain='', path='/', secure=False, expires=None,
                              discard=True, comment=None, comment_url=None, rest={'HttpOnly': None}, rfc2109=False,
                              port_specified=False, domain_specified=False, domain_initial_dot=False, path_specified=False)
                       )
        requests.request(method='POST',
                         url='http://127.0.0.1:8000/test/',
                         data={'k1': 'v1', 'k2': 'v2'},
                         cookies=obj)
    def param_files():
        # 发送文件
        file_dict = {
        'f1': open('readme', 'rb')
        }
        requests.request(method='POST',
        url='http://127.0.0.1:8000/test/',
        files=file_dict)
        # 发送文件,定制文件名
        file_dict = {
        'f1': ('test.txt', open('readme', 'rb'))
        }
        requests.request(method='POST',
        url='http://127.0.0.1:8000/test/',
        files=file_dict)
        # 发送文件,定制文件名
        file_dict = {
        'f1': ('test.txt', "hahsfaksfa9kasdjflaksdjf")
        }
        requests.request(method='POST',
        url='http://127.0.0.1:8000/test/',
        files=file_dict)
        # 发送文件,定制文件名
        file_dict = {
            'f1': ('test.txt', "hahsfaksfa9kasdjflaksdjf",
                'application/text', {'k1': '0'})
         }
          requests.request(method='POST',
                 url='http://127.0.0.1:8000/test/',
                 files=file_dict)
    def param_auth():
        from requests.auth import HTTPBasicAuth, HTTPDigestAuth
        ret = requests.get('https://api.github.com/user',
            auth=HTTPBasicAuth('wupeiqi', 'sdfasdfasdf'))
        print(ret.text)
        ret = requests.get('http://192.168.1.1',
            auth=HTTPBasicAuth('admin', 'admin'))
        ret.encoding = 'gbk'
        print(ret.text)
        ret = requests.get('http://httpbin.org/digest-auth/auth/user/pass',
            auth=HTTPDigestAuth('user', 'pass'))
        print(ret)
    def param_timeout():
        ret = requests.get('http://google.com/', timeout=1)
        print(ret)
        ret = requests.get('http://google.com/', timeout=(5, 1))
        print(ret)
    def param_allow_redirects():
        ret = requests.get('http://127.0.0.1:8000/test/', allow_redirects=False)
        print(ret.text)
    def param_proxies():
        proxies = {
            "http": "61.172.249.96:80",
            "https": "http://61.185.219.126:3128",
        }
        proxies = {'http://10.20.1.128': 'http://10.10.1.10:5323'}
        ret = requests.get("http://www.proxy360.cn/Proxy", proxies=proxies)
        print(ret.headers)
        from requests.auth import HTTPProxyAuth
        proxyDict = {
            'http': '77.75.105.165',
            'https': '77.75.105.165'
        }
        auth = HTTPProxyAuth('username', 'mypassword')
        r = requests.get("http://www.google.com", proxies=proxyDict, auth=auth)
        print(r.text)
    def param_stream():
        ret = requests.get('http://127.0.0.1:8000/test/', stream=True)
        print(ret.content)
        ret.close()
        from contextlib import closing
        with closing(requests.get('http://httpbin.org/get', stream=True)) as r:
            # 在此处理响应。
            for i in r.iter_content():
                print(i)
    def requests_session():
        import requests
        session = requests.Session()
        # 1、首先登陆任何页面,获取cookie
        i1 = session.get(url="http://dig.chouti.com/help/service")
        # 2、用户登陆,携带上一次的cookie,后台对cookie中的 gpsd 进行授权
        i2 = session.post(
            url="http://dig.chouti.com/login",
            data={
                'phone': "8615131255089",
                'password': "xxxxxx",
                'oneMonth': ""
            }
        )
        i3 = session.post(
            url="http://dig.chouti.com/link/vote?linksId=8589623",
        )
        print(i3.text)
相关文章
|
2月前
|
SQL 关系型数据库 数据库
Python SQLAlchemy模块:从入门到实战的数据库操作指南
免费提供Python+PyCharm编程环境,结合SQLAlchemy ORM框架详解数据库开发。涵盖连接配置、模型定义、CRUD操作、事务控制及Alembic迁移工具,以电商订单系统为例,深入讲解高并发场景下的性能优化与最佳实践,助你高效构建数据驱动应用。
385 7
|
2月前
|
监控 安全 程序员
Python日志模块配置:从print到logging的优雅升级指南
从 `print` 到 `logging` 是 Python 开发的必经之路。`print` 调试简单却难维护,日志混乱、无法分级、缺乏上下文;而 `logging` 支持级别控制、多输出、结构化记录,助力项目可维护性升级。本文详解痛点、优势、迁移方案与最佳实践,助你构建专业日志系统,让程序“有记忆”。
273 0
|
2月前
|
Cloud Native 算法 API
Python API接口实战指南:从入门到精通
🌟蒋星熠Jaxonic,技术宇宙的星际旅人。深耕API开发,以Python为舟,探索RESTful、GraphQL等接口奥秘。擅长requests、aiohttp实战,专注性能优化与架构设计,用代码连接万物,谱写极客诗篇。
Python API接口实战指南:从入门到精通
|
2月前
|
JSON 算法 API
Python中的json模块:从基础到进阶的实用指南
本文深入解析Python内置json模块的使用,涵盖序列化与反序列化核心函数、参数配置、中文处理、自定义对象转换及异常处理,并介绍性能优化与第三方库扩展,助你高效实现JSON数据交互。(238字)
404 4
|
2月前
|
存储 Java 调度
Python定时任务实战:APScheduler从入门到精通
APScheduler是Python强大的定时任务框架,通过触发器、执行器、任务存储和调度器四大组件,灵活实现各类周期性任务。支持内存、数据库、Redis等持久化存储,适用于Web集成、数据抓取、邮件发送等场景,解决传统sleep循环的诸多缺陷,助力构建稳定可靠的自动化系统。(238字)
579 1
|
2月前
|
Java 调度 数据库
Python threading模块:多线程编程的实战指南
本文深入讲解Python多线程编程,涵盖threading模块的核心用法:线程创建、生命周期、同步机制(锁、信号量、条件变量)、线程通信(队列)、守护线程与线程池应用。结合实战案例,如多线程下载器,帮助开发者提升程序并发性能,适用于I/O密集型任务处理。
312 0
|
2月前
|
XML JSON 数据处理
超越JSON:Python结构化数据处理模块全解析
本文深入解析Python中12个核心数据处理模块,涵盖csv、pandas、pickle、shelve、struct、configparser、xml、numpy、array、sqlite3和msgpack,覆盖表格处理、序列化、配置管理、科学计算等六大场景,结合真实案例与决策树,助你高效应对各类数据挑战。(238字)
219 0
|
3月前
|
存储 数据库 开发者
Python SQLite模块:轻量级数据库的实战指南
本文深入讲解Python内置sqlite3模块的实战应用,涵盖数据库连接、CRUD操作、事务管理、性能优化及高级特性,结合完整案例,助你快速掌握SQLite在小型项目中的高效使用,是Python开发者必备的轻量级数据库指南。
343 0
|
8月前
|
数据采集 测试技术 C++
无headers爬虫 vs 带headers爬虫:Python性能对比
无headers爬虫 vs 带headers爬虫:Python性能对比
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
562 6

推荐镜像

更多