开发者社区> 问答> 正文

用NodeJs做一个小爬虫,附源码!



利用爬虫可以做很多事情,单身汉子们可以用爬虫来收集各种妹子情报,撩妹族们可以用爬虫收集妹子想要的小东西,赚大钱的人可以用来分析微博言论与股票涨跌的关系诸如此类的,简直要上天了。  

废话不说直接上完整的代码


/***
* Created by justeptech on 2016/7/11.
*/


var cheerio = require('cheerio');
var superagent = require('superagent');
var async = require('async');
var url = require('url');


var express = require('express');
var app = express();


var eventproxy = require('eventproxy');
var ep = eventproxy();


var baseUrl = 'http://blog.csdn.net/web/index.html';
var pageUrls = [];
for (var _i = 1; _i < 4; _i++) {
    pageUrls.push(baseUrl + '?&page=' + _i);
}


app.get('/', function (req, res, next) {
    var authorUrls = [];
    // 命令 ep 重复监听 emit事件(get_topic_html) 3 次再行动
    ep.after('get_topic_html', pageUrls.length, function (eps) {
        var concurrencyCount = 0;
        // 利用callback函数将结果返回去,然后在结果中取出整个结果数组。
        var fetchUrl = function (myurl, callback) {
            var fetchStart = new Date().getTime();
            concurrencyCount++;
            console.log('现在的并发数是', concurrencyCount, ',正在抓取的是', myurl);
            superagent.get(myurl)
                .end(function (err, ssres) {
                    if (err) {
                        callback(err, myurl + ' error happened!');
                    }


                    var time = new Date().getTime() - fetchStart;
                    console.log('抓取 ' + myurl + ' 成功', ',耗时' + time + '毫秒');
                    concurrencyCount--;


                    var $ = cheerio.load(ssres.text);
                    var result = {
                        userId: url.parse(myurl).pathname.substring(1),
                        blogTitle: $("#blog_title a").text(),
                        visitCount: parseInt($('#blog_rank>li').eq(0).text().split(/[::]/)[1]),
                        score: parseInt($('#blog_rank>li').eq(1).text().split(/[::]/)[1]),
                        oriCount: parseInt($('#blog_statistics>li').eq(0).text().split(/[::]/)[1]),
                        copyCount: parseInt($('#blog_statistics>li').eq(1).text().split(/[::]/)[1]),
                        trsCount: parseInt($('#blog_statistics>li').eq(2).text().split(/[::]/)[1]),
                        cmtCount: parseInt($('#blog_statistics>li').eq(3).text().split(/[::]/)[1])
                    };
                    callback(null, result);
                });


        };
        // 控制最大并发数为5,在结果中取出callback返回来的整个结果数组。
        async.mapLimit(authorUrls, 5, function (myurl, callback) {
            fetchUrl(myurl, callback);
        }, function (err, result) {
            console.log('=========== result: ===========\n', result);
            res.send(result);
        });
    });


    // 获取每页的链接数组,这里不要用emit返回了,因为我们获得的已经是一个数组了。
    pageUrls.forEach(function (page) {
        superagent.get(page).end(function (err, sres) {
            // 常规的错误处理
            if (err) {
                return next(err);
            }
            // 提取作者博客链接,注意去重
            var $ = cheerio.load(sres.text);
            $('.blog_list').each(function (i, e) {
                var u = $('.user_name', e).attr('href');
                if (authorUrls.indexOf(u) === -1) {
                    authorUrls.push(u);
                }
            });
            console.log('get authorUrls successful!\n', authorUrls);
            ep.emit('get_topic_html', 'get authorUrls successful');
        });
    });
});


app.listen(3000, function (req, res) {
    console.log('app is running at port 3000');
});


关于Nodejs搭建小爬虫的介绍就到这里了,码字不易,顺手点赞哈!
本文源自WeX5论坛,原文链接:http://bbs.wex5.com/forum.php?mod=viewthread&tid=100231&pid=165282433&page=1&extra=

展开
收起
小太阳1号 2016-08-03 14:37:42 4387 0
2 条回答
写回答
取消 提交回答
  • 阿里云论坛版主,伪Linux运维,完美主义者。
    哦吼,不错的技术分享!
    2016-08-03 15:39:11
    赞同 展开评论 打赏
  • 解决方案工程师,负责为企业规划上云迁移方案和云上架构设计,在网站建设开发和云计算领域有多年经验,专注于Linux平台的系统维护以及应用部署。致力于以场景化的方式让云计算,用更加通俗易懂的方式让更多人体验云计算,让云端的计算更质朴的落地。
    这就给你顺手点赞
    2016-08-03 14:43:14
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
探究 Node.js 的服务端之路 立即下载
个推微服务实践 基于OpenResty 和Node.js 立即下载
沪江基于Node.js大规模应用实践 立即下载