nodejs爬虫入门

2021-06-30 06:03

阅读:639

标签:badge   back   .post   json   filename   tps   tca   header   require   

nodejs是服务器端的语言,所以可以像python一样对网站进行爬取。

准备

1.项目初始化,执行npm init,来初始化package.json
2.npm install request —save
3.npm install async --save
文件中需要引入的包
var request = require(‘request‘);
var fs = require(‘fs‘);
var async = require(‘async‘);

思路

爬虫分两种情况,第一种是用cheerio模块,获取到html的节点,从节点中拿到数据,比较适合直接用后端语言来渲染的页面。第二种是通过调用爬取网站的接口请求数据。

首先我们需要在XHR中找到获取关注列表的API。我们要做的就是通过这个api来获取大量的用户数据,再对用户信息处理。找到我们想得到的数据。

请求api需要在请求的头部加上登陆之后的authorization信息才能成功。

代码

// 项目初始化,执行npm init,来初始化package.json
// npm install request--save
// npm install async --save

// 需要引入的包
var request = require(‘request‘);
var fs = require(‘fs‘);
var async = require(‘async‘);

var url = "https://www.zhihu.com/api/v4/members/mu-rong-qi-95/followers?include=data%5B*%5D.answer_count%2Carticles_count%2Cgender%2Cfollower_count%2Cis_followed%2Cis_following%2Cbadge%5B%3F(type%3Dbest_answerer)%5D.topics&offset=0&limit=20";
 
//request请求的options
var options = {
    url: url,
    headers: {
        "authorization": "Bearer Mi4wQUJCQ0hCNXVDUXNBUU1LUUtCanlDeGNBQUFCaEFsVk5Ca3h4V1FEcS1Vc1VScVY1Qko5SWpuRkFSY3R0bVA2YWZB|1498005254|1140b230de84e46ff818902c8f0da250ac6c6dd2"
    }
}
var users=[];

// 获取大量的用户数据
function getDataList(url) {
    options.url = url;
    request.get(options, function(error, response, body) {
        if(!error&&response.statusCode == 200) {
            var response = JSON.parse(response.body);
            var zhList = response.data;
            zhList.forEach(function(item) {
                //item.gender == 0 性别判断
                if(item.gender == 1) {
                    console.log(`正在抓取${item.avatar_url}`)
                    users.push({
                        "name": item.name,
                        "img": item.avatar_url.replace("_is", ""),
                        "url_token": item.url_token
                    })
                }
            })
            //is_end当前用户的关注用户是否到最后一页
            if(response.paging.is_end) {
                //这里判断抓取的条数
                if(users.length) {
                    console.log(`抓取完成`);
                    downLoadContent(JSON.stringify(users));
                    return;
                } else {
                    console.log(`第${i+1}个用户的数据`);
                    getDataList(zurl.replace("demouser", users[i].url_token))
                    i++;
                }
            } else {
                if(users.length) {
                    console.log(`抓取完成`);
                    downLoadContent(JSON.stringify(users));
                    return;
                }
                getDataList(response.paging.next);
            }
        }
    })
}

// 把数据下载保存到data.js
function downLoadContent(cont) {
    fs.appendFile(‘./‘ + ‘data.js‘, "module.exports =" + cont, ‘utf-8‘, function(err) {
        if(err) {
            console.log(err);
        } else
            console.log(‘success‘);
            startDownLoad(JSON.parse(cont));
    });
}

// 下载图片
var eyeUrl = "http://api.eyekey.com/face/Check/checking";
 
var config = {
    "app_id": "f89ae61fd63d4a63842277e9144a6bd2",
    "app_key": "af1cd33549c54b27ae24aeb041865da2",
    "url": "https://pic4.zhimg.com/43fda2d268bd17c561ab94d3cb8c80eb.jpg"
}
 
function face(item) {
    config.url = item.img;
    request.post({
        url: eyeUrl,
        form: config
    }, function(error, response, body) {
        if(!error&&response.statusCode == 200) {
            var data = JSON.parse(body);
            try {
                if(data.face[0].attribute.gender == ‘Female‘) {
                    console.log(`正在下载${item.img}`);
                    downLoadImg(item)
                }
            } catch(e) {
                console.log(`验证失败${item.img}~`);
            }
        }
    })
}

// 下载图片方法
function downLoadImg(image) {
    request.head(image.img, function(err, res, body) {
        if(err) {
            console.log(err);
        }
    });
    request(image.img).pipe(fs.createWriteStream(‘./beauty_image/‘ + image.name + Date.now() + ‘.‘ + image.img.substring(image.img.lastIndexOf(".") + 1, image.img.length)));
}

// 开始下载
function startDownLoad(imgdata){
    //控制并发量,在5个以内
    console.log(imgdata)
    async.eachLimit(imgdata, 3, function (item, callback) {
        face(item);
        callback();
    }, function (err) {
        if(err) {
            console.log(err);
        } else {
            console.log(‘success!‘);
        }
    });
}
getDataList(url);

启动

node crawl.js

应用cheerio模块从dom节点取数据

var http = require(‘http‘);
var fs = require(‘fs‘);
var cheerio = require(‘cheerio‘);
var request = require(‘request‘);
var i = 0;
var url = "http://www.ss.pku.edu.cn/index.php/newscenter/news/2391"; 
//初始url 

function fetchPage(x) {     //封装了一层函数
    startRequest(x); 
}


function startRequest(x) {
     //采用http模块向服务器发起一次get请求      
    http.get(x, function (res) {     
        var html = ‘‘;        //用来存储请求网页的整个html内容
        var titles = [];        
        res.setEncoding(‘utf-8‘); //防止中文乱码
     //监听data事件,每次取一块数据
        res.on(‘data‘, function (chunk) {   
            html += chunk;
        });
     //监听end事件,如果整个网页内容的html都获取完毕,就执行回调函数
        res.on(‘end‘, function () {

         var $ = cheerio.load(html); //采用cheerio模块解析html

         var time = $(‘.article-info a:first-child‘).next().text().trim();

         var news_item = {
          //获取文章的标题
            title: $(‘div.article-title a‘).text().trim(),
         //获取文章发布的时间
            Time: time,   
         //获取当前文章的url
            link: "http://www.ss.pku.edu.cn" + $("div.article-title a").attr(‘href‘),
         //获取供稿单位
            author: $(‘[title=供稿]‘).text().trim(),  
        //i是用来判断获取了多少篇文章
            i: i = i + 1,     

            };

  console.log(news_item);     //打印新闻信息
  var news_title = $(‘div.article-title a‘).text().trim();

  savedContent($,news_title);  //存储每篇文章的内容及文章标题

  savedImg($,news_title);    //存储每篇文章的图片及图片标题


             //下一篇文章的url
  var nextLink="http://www.ss.pku.edu.cn" + $("li.next a").attr(‘href‘);
            str1 = nextLink.split(‘-‘);  //去除掉url后面的中文
            str = encodeURI(str1[0]);  
            //这是亮点之一,通过控制I,可以控制爬取多少篇文章.
            if (i ) {                
                fetchPage(str);
            }

        });

    }).on(‘error‘, function (err) {
        console.log(err);
    });

}
       //该函数的作用:在本地存储所爬取的新闻内容资源
function savedContent($, news_title) {
    $(‘.article-content p‘).each(function (index, item) {
        var x = $(this).text();       

       var y = x.substring(0, 2).trim();

        if (y == ‘‘) {
        x = x + ‘\n‘;   
//将新闻文本内容一段一段添加到/data文件夹下,并用新闻的标题来命名文件
        fs.appendFile(‘./data/‘ + news_title + ‘.txt‘, x, ‘utf-8‘, function (err) {
            if (err) {
                console.log(err);
            }
        });
    }
    })
}
//该函数的作用:在本地存储所爬取到的图片资源
function savedImg($,news_title) {
    $(‘.article-content img‘).each(function (index, item) {
        var img_title = $(this).parent().next().text().trim();  //获取图片的标题
        if(img_title.length>35||img_title==""){
         img_title="Null";}
        var img_filename = img_title + ‘.jpg‘;

        var img_src = ‘http://www.ss.pku.edu.cn‘ + $(this).attr(‘src‘); //获取图片的url

//采用request模块,向服务器发起一次请求,获取图片资源
        request.head(img_src,function(err,res,body){
            if(err){
                console.log(err);
            }
        });
        request(img_src).pipe(fs.createWriteStream(‘./image/‘+news_title + ‘---‘ + img_filename));     //通过流的方式,把图片写到本地/image目录下,并用新闻的标题和图片的标题作为图片的名称。
    })
}
fetchPage(url);      //主程序开始运行

 

nodejs爬虫入门

标签:badge   back   .post   json   filename   tps   tca   header   require   

原文地址:http://www.cnblogs.com/cosyer/p/7137865.html


评论


亲,登录后才可以留言!