因定制内容较多,暂时无发现现有爬虫框架满足要求,所以需要自己写(用redis做队列)。我的问题是在爬虫得到一个网页之后,怎么识别出这个网页是否为中文网页?
首先取响应头里的编码,
如果是几种中文编码之一,则认为中文网页,
如果不是中文编码, 也不是几种unicode方案之一, 则不是中文.
否则再在
#! /usr/bin/env python
# -*- encoding: utf-8 -*-
import requests
import cld2
class Detector(object):
zh_cn_encodes = ('gbk', 'gb2312', 'gb18030')
def __init__(self, context):
self.context = context
def is_zh_cn_encoding(self, ctype):
ctype = ctype.lower()
for ec in self.zh_cn_encodes:
if ec in ctype:
return True
return False
def detect(self):
assert type(self.context) == type(u''), 'detect unicode string only'
ret = cld2.detect(self.context.encode('utf-8'))
return ret[2][0][1] == 'zh'
def url_detect(self):
r = requests.get(self.context)
assert r.status_code == 200, 'http code 200 is required'
ctype = r.encoding
if ctype and self.is_zh_cn_encoding(ctype):
return True
else:
self.context = r.text
return self.detect()
if __name__ == '__main__':
print Detector(u'短中文有bug').detect()
print Detector(u'网页文件一般没问题').detect()
print Detector(u'これは日本で').detect()
url = 'http://segmentfault.com/q/1010000000432652'
print Detector(url).url_detect()
url = 'https://code.google.com/p/chromium-compact-language-detector/source/browse/README'
print Detector(url).url_detect()
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。