scrapy对接selenium并设置selenium不加载图片

简介: 在 middlewares.py 文件中添加:from selenium import webdriverimport timefrom scrapy.

在 middlewares.py 文件中添加:

from selenium import webdriver
import time
from scrapy.http import HtmlResponse

class JSPageMiddleware(object):

    # 通过selenium对接scrapy实现动态页面的爬取
    def process_request(self, request, spider):
        if spider.name == 'jobbole': # 只针对特定的网页实现selenium 爬取

            self.browser.get(request.url)
            time.sleep(5)
            print('访问页面{}'.format(request.url))
            # 不要让 Downloader 再次下载,直接返回给spider
            return HtmlResponse(url=spider.browser.current_url,body=spider.browser.page_source,encoding='utf-8',request=request)

在 settings.py 文件中打开:

DOWNLOADER_MIDDLEWARES = {
    #'scrapy.contrib.downloadermiddleware.useragent.UserAgentMiddleware': None,
    # 'scrapydownloadertest.middlewares.RandomUserAgentMiddleware': 543,
    'scrapydownloadertest.middlewares.JSPageMiddleware': 544,

}

在spider中配置以下代码,为了让爬虫结束的时候,关闭Chrome:


import scrapy
from selenium import webdriver
from scrapy.xlib.pydispatch import dispatcher
from scrapy import signals # scrapy的信号

class HttpbinSpider(scrapy.Spider):
    name = 'httpbin'
    allowed_domains = ['httpbin.org']
    start_urls = ['http://httpbin.org/']

    # 为了不让selenium每次请求网页都打开
    def __init__(self):
        self.browser = webdriver.Chrome()
        super(HttpbinSpider,self).__init__() # 让上一行代码属于当前类。
        dispatcher.connect(self.spider_closed,signals.spider_closed)

    def spider_closed(self,spider):
        # 当爬虫退出的时候关闭Chrome
        print('关闭selenium打开的网页')
        self.browser.quit()

    def parse(self, response):
        print(response.text)


通过劫持request发送给downloder middleware 的spider 实现对接selenium。

设置selenium 不加载图片


from selenium import webdriver


#设置selenium不加载图片,固定写法
chrome_opt = webdriver.ChromeOptions()
prefs = {'profile.managed_default_content_settings.images':2}
chrome_opt.add_experimental_option('prefs', prefs)
browser = webdriver.Chrome(chrome_options=chrome_opt)

browser.get('https://www.oschina.net/blog')

设置selenium操作cookies

'''selenium操作cookies'''

from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
# 获取所有cookies
for cookie in browser.get_cookies():
    print(cookie)

print('-'*30)

# 针对某个key获取到cookie信息
print(browser.get_cookie('PSTM'))

# 删除某个cookie
browser.delete_cookie('PSTM')

# 删除所有cookie
browser.delete_all_cookies()

设置selenium同时打开两个页面


from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.baidu.com/')
# 若再打开豆瓣网,就会覆盖百度的页面
# browser.get('https://douban.com/')

# 利用JavaScript原生代码实现同时打开两个页面

browser.execute_script("window.open('https://www.douban.com/')")

获取窗口句柄

虽说打开了两个窗口,但是获取一下当前页面的url,还是会是百度:

print(browser.current_url)

控制台输出:

https://www.baidu.com/

Process finished with exit code 0

操作使切换到第二个窗口

# 查看当前句柄
print(browser.window_handles)
# 切换句柄,指向第二个窗口,即豆瓣
browser.switch_to_window(browser.window_handles[1])
# 检查一下
print(browser.current_url)

控制台输出:
['CDwindow-169F5808C8791EACD5D62597FB99AF68', 'CDwindow-DF461500B000E592D24C609BFF3E7A6E']
https://www.douban.com/

Process finished with exit code 0

在爬虫中,如果切换窗口爬虫,一定要设置selenium置于要爬取的页面。

phantomjs

  • 无界面的浏览器
  • 多进程情况下 phantomjs 性能下降严重
目录
相关文章
|
2月前
|
数据采集 安全 Java
Java Selenium WebDriver:代理设置与图像捕获
Java Selenium WebDriver:代理设置与图像捕获
|
3月前
|
Web App开发 iOS开发 Python
经验大分享:scrapy框架爬取糗妹妹网站qiumeimei.com图片
经验大分享:scrapy框架爬取糗妹妹网站qiumeimei.com图片
24 0
|
4月前
|
数据采集 Web App开发 JavaScript
Python 网络爬虫技巧分享:优化 Selenium 滚动加载网易新闻策略
Python 网络爬虫技巧分享:优化 Selenium 滚动加载网易新闻策略
|
4月前
设置selenium默认下载位置
设置selenium默认下载位置
243 1
|
4月前
|
数据采集 Python
scrapy异步下载图片
scrapy异步下载图片
60 0
scrapy异步下载图片
|
4月前
|
API Python
python+selenium设置下载路径
python+selenium设置下载路径
106 0
|
4月前
|
API Python
python+selenium设置下载路径21 / 100
python+selenium设置下载路径21 / 100
88 0
|
4月前
|
数据采集 中间件 Python
Scrapy框架 -- 结合selenium获取动态加载数据
Scrapy框架 -- 结合selenium获取动态加载数据
37 0
|
4月前
|
数据采集 Python
Scrapy框架 -- 深度爬取并持久化保存图片
Scrapy框架 -- 深度爬取并持久化保存图片
103 0
|
11月前
|
数据采集 中间件 Python
Scrapy框架 -- 结合selenium获取动态加载数据
Scrapy框架 -- 结合selenium获取动态加载数据
51 0