Python爬取京东Iphone X用户评论并绘制词云

简介: 目标爬取京东商城上iPhone X用户评论数据;使用jieba对评论数据进行分词处理;使用wordcloud绘制词云图。目前京东商城只会展示商品的前100页评论,所以我们能爬取到的评论只有1000条。

目标

  • 爬取京东商城上iPhone X用户评论数据;
  • 使用jieba对评论数据进行分词处理;
  • 使用wordcloud绘制词云图。

目前京东商城只会展示商品的前100页评论,所以我们能爬取到的评论只有1000条。
不过如果区分下好/差/中评分别爬取的话,理论上应该能保存3000条评论。

爬虫部分

  • 打开京东iphone X商品页面,进入控制台找到我们想要的用户评论,评论的接口地址也就找到了。


    img_b8c0235a1de09cf63d86a3c7ea5b4d3f.png
    image.png
  • 然后我们会发现这个接口地址是可以直接访问的,并不需要post参数,直接get就行,后面发现,连header都不需要设置,这样问题就很简单了。


    img_d612467034cac2e672260bb862203638.png
    image.png
  • 分析接口地址我们可以看到有几个参数:


    img_a944c5d09d128d3a3aac019fa2469b96.png

    productid:商品编号
    score:好差评(0表示全部评论)
    sortType:推荐排序/时间排序
    page:页码
    pagesize:每页显示评论数
    还有两个没搞明白,不过不重要了,我们需要的就是写个循环传入page参数就行了。

  • 接口地址返回的数据不是标准的json格式,我们需要手动处理下。
    1.去掉前面的‘fetchJSON_comment98vv56725(’
    2.去掉末尾的‘);’
    3.json包加载数据处理就行了。

    img_fa47b57cebf976129e8c5819af44765c.png
    img_03b8a0124d47f83ae53234f83de274a3.png

  • 循环获取每个页面的评论数据,保存到本地。

绘制词云

绘制词云主要用到两个包,一个是jieba,用于文本分词的,一个是wordcloud,用于绘制最后的词云。参数比较多,大家可以直接访问jieba+wordcloud去查看。

  • 背景图片


    img_d4d493f03c5e38bbe027c2ba604b5b71.png
  • 最后效果如下

    img_3758d94e0fdf93b2db411e1f25b0b01a.png
    词云

代码部分

# -*- coding:utf-8 -*-

import requests
import json
import jieba
from scipy.misc import imread  
from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator
import matplotlib.pyplot as plt


def jd_spider(page):
    url = 'https://sclub.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98vv56693&productId=5089253&score=0&sortType=5&page=%d&pageSize=10&isShadowSku=0&fold=1'%(page)
    #用于存储单页评论,每页评论保存一次
    comment = ''
    #无需设置header,直接访问就行了
    response = requests.get(url)
    data = unicode(response.content,'GBK').encode('utf-8')
    '''
    接口地址返回的不是标准json数据,需要进行处理
    去掉头部的‘fetchJSON_comment98vv56693(’和‘);’两部分
    然后再用json包读取数据就可以了
    '''
    data = data.split('(',1)[1]#根据(进行切片一次处理,取第二部分
    data = data[0:len(data)-2]#然后去掉后面的)和;
    data_json = json.loads(str(data))['comments']
    #循环读取每条评论,通过换行符连接起来
    for i in list(range(len(data_json))):
        comment = comment+data_json[i]['content'].encode('utf-8')+'\n'
    print '****Page %d has been saved****'%(page)
    return comment


#将读取的数据保存到本地txt文件
def save_comments(comments):
    with open('comments.txt','a') as f:
        f.write(comments)
'''
由于京东限制了,只展示前100页评论
循环99次就好了,后面返回的都是空页面
'''
for page in list(range(99)):
    page = page+1
    comments = jd_spider(page)
    save_comments(comments)
print '****jd_spider@Awesome_Tang****'

'''
绘制词云部分
'''
back_color = imread('apple.png')  # 解析该图片

wc = WordCloud(background_color='white',  # 背景颜色
               max_words=1000,  # 最大词数
               mask=back_color,  # 以该参数值作图绘制词云,这个参数不为空时,width和height会被忽略
               max_font_size=100,  # 显示字体的最大值
               font_path="/Users/tangwenpan/Downloads/simhei.ttf",  # 解决显示口字型乱码问题
               random_state=42,  # 为每个词返回一个PIL颜色
               # width=1000,  # 图片的宽
               # height=860  #图片的长
               )

# 打开保存的评论数据
text = open('comments.txt').read()

def word_cloud(texts):
    words_list = []
    word_generator = jieba.cut(texts, cut_all=False)  # 返回的是一个迭代器
    for word in word_generator:
        if len(word) > 1:  #去掉单字
            words_list.append(word)
    return ' '.join(words_list)  


text = word_cloud(text)

wc.generate(text)
# 基于彩色图像生成相应彩色
image_colors = ImageColorGenerator(back_color)
# 显示图片
plt.imshow(wc)
# 关闭坐标轴
plt.axis('off')
# 绘制词云
plt.figure()
plt.imshow(wc.recolor(color_func=image_colors))
plt.axis('off')
# 保存图片
wc.to_file('comment.png')
print 'comment.png has bee saved!'

一直觉得词云是个蛮好玩的东西,想自己也做下玩玩,所以这次也就是想着先做点东西出来,代码部分可能就比较粗糙了,后期有时间再改改。


Peace~

目录
相关文章
|
1天前
|
数据采集 Web App开发 监控
高效爬取B站评论:Python爬虫的最佳实践
高效爬取B站评论:Python爬虫的最佳实践
|
17天前
|
自然语言处理 Python Windows
python知识点100篇系列(23)- 使用stylecloud生成词云
【10月更文挑战第10天】`stylecloud` 是 `wordcloud` 的优化版,支持使用 Font Awesome 图标自定义词云形状,操作更简便。本文介绍如何安装 `jieba` 和 `stylecloud` 库,并使用它们生成中文词云。通过 `jieba` 进行分词,再利用 `stylecloud` 的 `gen_stylecloud` 方法生成具有特定形状和颜色的词云图像。
python知识点100篇系列(23)- 使用stylecloud生成词云
|
1月前
|
自然语言处理 计算机视觉 Python
用 Python 创建词云
用 Python 创建词云
24 2
|
3月前
|
自然语言处理 算法 数据挖掘
基于python豆瓣电影评论的情感分析和聚类分析,聚类分析有手肘法进行检验,情感分析用snownlp
本文介绍了一个基于Python的情感分析和聚类分析项目,使用snownlp库对豆瓣电影评论进行情感分析,并采用手肘法辅助K-means算法进行聚类分析,以探索评论中的不同主题和情感集群。
基于python豆瓣电影评论的情感分析和聚类分析,聚类分析有手肘法进行检验,情感分析用snownlp
|
3月前
|
数据采集 存储 自然语言处理
基于Python的微博热点李佳琦忒网友话题的评论采集和情感分析的方法,利用情感分析技术对评论进行情感倾向性判断
本文介绍了一种基于Python的方法,用于采集微博热点话题下的评论数据,并运用情感分析技术对这些评论进行情感倾向性判断,进而通过统计分析和可视化技术展示网友对特定话题的情感态度,对品牌或个人形象管理、用户需求发现、舆情监测和危机管理等方面具有重要价值。
基于Python的微博热点李佳琦忒网友话题的评论采集和情感分析的方法,利用情感分析技术对评论进行情感倾向性判断
|
3月前
|
机器学习/深度学习 自然语言处理 数据可视化
基于Python大数据的京东产品评论的情感分析的研究,包括snwonlp情感分析和LDA主题分析
本文探讨了基于Python大数据技术对京东产品评论进行情感分析的研究,涵盖了文本预处理、情感分类、主题建模等步骤,并运用了snwonlp情感分析和LDA主题分析方法,旨在帮助电商企业和消费者做出更明智的决策。
135 1
基于Python大数据的京东产品评论的情感分析的研究,包括snwonlp情感分析和LDA主题分析
|
3月前
|
自然语言处理 搜索推荐 数据可视化
如何使用python实现一个优雅的词云?(超详细)
如何使用python实现一个优雅的词云?(超详细)
82 2
|
3月前
|
JSON 自然语言处理 数据可视化
我用Python了B站3948评论,围观最近超火的“杀疯了!这就是国家队的美貌吗?”评论区
我用Python了B站3948评论,围观最近超火的“杀疯了!这就是国家队的美貌吗?”评论区
45 1
|
3月前
|
机器学习/深度学习 数据采集 自然语言处理
基于Python thinker GUI界面的股票评论数据及投资者情绪分析设计与实现
本文介绍了一个基于Python Tkinter库开发的GUI股票评论数据及投资者情绪分析系统,该系统提供股票数据展示、情绪与股价分析、模型指标分析、评论数据展示、词云分析和情感分析结果展示等功能,帮助投资者通过情感分析了解市场舆论对股票价格的影响,以辅助投资决策。
基于Python thinker GUI界面的股票评论数据及投资者情绪分析设计与实现
|
3月前
|
数据采集 自然语言处理 数据可视化
基于Python的社交媒体评论数据挖掘,使用LDA主题分析、文本聚类算法、情感分析实现
本文介绍了基于Python的社交媒体评论数据挖掘方法,使用LDA主题分析、文本聚类算法和情感分析技术,对数据进行深入分析和可视化,以揭示文本数据中的潜在主题、模式和情感倾向。
133 0