<span id="mktg5"></span>

<i id="mktg5"><meter id="mktg5"></meter></i>

        <label id="mktg5"><meter id="mktg5"></meter></label>
        最新文章專題視頻專題問答1問答10問答100問答1000問答2000關(guān)鍵字專題1關(guān)鍵字專題50關(guān)鍵字專題500關(guān)鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關(guān)鍵字專題關(guān)鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
        問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
        當(dāng)前位置: 首頁 - 科技 - 知識(shí)百科 - 正文

        Node.js+jade+mongodb+mongoose實(shí)現(xiàn)爬蟲分離入庫與生成靜態(tài)文件的方法

        來源:懂視網(wǎng) 責(zé)編:小采 時(shí)間:2020-11-27 22:29:17
        文檔

        Node.js+jade+mongodb+mongoose實(shí)現(xiàn)爬蟲分離入庫與生成靜態(tài)文件的方法

        Node.js+jade+mongodb+mongoose實(shí)現(xiàn)爬蟲分離入庫與生成靜態(tài)文件的方法:接著這篇文章Node.js+jade抓取博客所有文章生成靜態(tài)html文件的實(shí)例繼續(xù),在這篇文章中實(shí)現(xiàn)了采集與靜態(tài)文件的生成,在實(shí)際的采集項(xiàng)目中, 應(yīng)該是先入庫再選擇性的生成靜態(tài)文件。 那么我選擇的數(shù)據(jù)庫是mongodb,為什么用這個(gè)數(shù)據(jù)庫,因?yàn)檫@個(gè)數(shù)據(jù)庫是基于集合,
        推薦度:
        導(dǎo)讀Node.js+jade+mongodb+mongoose實(shí)現(xiàn)爬蟲分離入庫與生成靜態(tài)文件的方法:接著這篇文章Node.js+jade抓取博客所有文章生成靜態(tài)html文件的實(shí)例繼續(xù),在這篇文章中實(shí)現(xiàn)了采集與靜態(tài)文件的生成,在實(shí)際的采集項(xiàng)目中, 應(yīng)該是先入庫再選擇性的生成靜態(tài)文件。 那么我選擇的數(shù)據(jù)庫是mongodb,為什么用這個(gè)數(shù)據(jù)庫,因?yàn)檫@個(gè)數(shù)據(jù)庫是基于集合,

        接著這篇文章Node.js+jade抓取博客所有文章生成靜態(tài)html文件的實(shí)例繼續(xù),在這篇文章中實(shí)現(xiàn)了采集與靜態(tài)文件的生成,在實(shí)際的采集項(xiàng)目中, 應(yīng)該是先入庫再選擇性的生成靜態(tài)文件。

        那么我選擇的數(shù)據(jù)庫是mongodb,為什么用這個(gè)數(shù)據(jù)庫,因?yàn)檫@個(gè)數(shù)據(jù)庫是基于集合,數(shù)據(jù)的操作基本是json,與dom模塊cheerio具有非常大的親和力,cheerio處理過濾出來的數(shù)據(jù),可以直接插入mongodb,不需要經(jīng)過任何的處理,非常的便捷,當(dāng)然跟node.js的親和力那就不用說了,更重要的是,性能很棒。這篇文章我就不具體寫mongodb的基本用法,到時(shí)候會(huì)另起文章從0開始寫mongodb基本常用用法.先看下入庫的效果與生成靜態(tài)文件的效果:

        我在這個(gè)階段,把爬蟲分離成2個(gè)模塊,采集入庫( crawler.js ), 生成靜態(tài)文件(makeHtml.js).

        crawler.js:

        var http = require('http');
        var cheerio = require('cheerio');
        var mongoose = require('mongoose');
        mongoose.Promise = global.Promise;
        var DB_URL = 'mongodb://localhost:27017/crawler';
        
        var aList = []; //博客文章列表信息
        var aUrl = []; //博客所有的文章url
        
        var db = mongoose.createConnection(DB_URL);
        db.on('connected', function (err) {
         if (err) {
         console.log(err);
         } else {
         console.log('db connected success');
         }
        });
        var Schema = mongoose.Schema;
        var arcSchema = new Schema({
         id: Number, //文章id
         title: String, //文章標(biāo)題
         url: String, //文章鏈接
         body: String, //文章內(nèi)容
         entry: String, //摘要
         listTime: Date //發(fā)布時(shí)間
        });
        var Article = db.model('Article', arcSchema);
        
        function saveArticle(arcInfo) {
         var arcModel = new Article(arcInfo);
         arcModel.save(function (err, result) {
         if (err) {
         console.log(err);
         } else {
         console.log(`${arcInfo['title']} 插入成功`);
         }
         });
        }
        
        function filterArticle(html) {
         var $ = cheerio.load(html);
         var arcDetail = {};
         var title = $("#cb_post_title_url").text();
         var href = $("#cb_post_title_url").attr("href");
         var re = /\/(\d+)\.html/;
         var id = href.match(re)[1];
         var body = $("#cnblogs_post_body").html();
         return {
         id: id,
         title: title,
         url: href,
         body: body
         };
        }
        
        function crawlerArc(url) {
         var html = '';
         var str = '';
         var arcDetail = {};
         http.get(url, function (res) {
         res.on('data', function (chunk) {
         html += chunk;
         });
         res.on('end', function () {
         arcDetail = filterArticle(html);
         saveArticle(arcDetail);
         if ( aUrl.length ) {
         setTimeout(function () {
         if (aUrl.length) {
         crawlerArc(aUrl.shift());
         }
         }, 100);
         }else {
         console.log( '采集任務(wù)完成' );
         return;
         }
         });
         });
        }
        
        function filterHtml(html) {
         var $ = cheerio.load(html);
         var arcList = [];
         var aPost = $("#content").find(".post-list-item");
         aPost.each(function () {
         var ele = $(this);
         var title = ele.find("h2 a").text();
         var url = ele.find("h2 a").attr("href");
         ele.find(".c_b_p_desc a").remove();
         var entry = ele.find(".c_b_p_desc").text();
         ele.find("small a").remove();
         var listTime = ele.find("small").text();
         var re = /\d{4}-\d{2}-\d{2}\s*\d{2}[:]\d{2}/;
         listTime = listTime.match(re)[0];
        
         arcList.push({
         title: title,
         url: url,
         entry: entry,
         listTime: listTime
         });
         });
         return arcList;
        }
        
        function nextPage(html) {
         var $ = cheerio.load(html);
         var nextUrl = $("#pager a:last-child").attr('href');
         if (!nextUrl) return getArcUrl(aList);
         var curPage = $("#pager .current").text();
         if (!curPage) curPage = 1;
         var nextPage = nextUrl.substring(nextUrl.indexOf('=') + 1);
         if (curPage < nextPage) crawler(nextUrl);
        }
        
        function crawler(url) {
         http.get(url, function (res) {
         var html = '';
         res.on('data', function (chunk) {
         html += chunk;
         });
         res.on('end', function () {
         aList.push(filterHtml(html));
         nextPage(html);
         });
         });
        }
        
        function getArcUrl(arcList) {
         for (var key in arcList) {
         for (var k in arcList[key]) {
         aUrl.push(arcList[key][k]['url']);
         }
         }
         crawlerArc(aUrl.shift());
        }
        
        var url = 'http://www.cnblogs.com/ghostwu/';
        crawler(url);

        其他的核心模塊沒有怎么改動(dòng),主要增加了數(shù)據(jù)庫連接,數(shù)據(jù)庫創(chuàng)建,集合創(chuàng)建( 集合相當(dāng)于關(guān)系型數(shù)據(jù)庫中的表 ),Schema( 相當(dāng)于關(guān)系型數(shù)據(jù)庫的表結(jié)構(gòu) ).

        mongoose操作數(shù)據(jù)庫( save:插入數(shù)據(jù) ).分離了文件生成模塊.

        makeHtml.js文件

        var fs = require('fs');
        var jade = require('jade');
        
        var mongoose = require('mongoose');
        mongoose.Promise = global.Promise;
        var DB_URL = 'mongodb://localhost:27017/crawler';
        
        var allArc = [];
        var count = 0;
        
        var db = mongoose.createConnection(DB_URL);
        db.on('connected', function (err) {
         if (err) {
         console.log(err);
         } else {
         console.log('db connected success');
         }
        });
        var Schema = mongoose.Schema;
        var arcSchema = new Schema({
         id: Number, //文章id
         title: String, //文章標(biāo)題
         url: String, //文章鏈接
         body: String, //文章內(nèi)容
         entry: String, //摘要
         listTime: Date //發(fā)布時(shí)間
        });
        var Article = db.model('Article', arcSchema);
        
        function makeHtml(arcDetail) {
         str = jade.renderFile('./views/layout.jade', arcDetail);
         ++count;
         fs.writeFile('./html/' + count + '.html', str, function (err) {
         if (err) {
         console.log(err);
         }
         console.log( `${arcDetail['id']}.html創(chuàng)建成功` + count );
         if ( allArc.length ){
         setTimeout( function(){
         makeHtml( allArc.shift() );
         }, 100 );
         }
         });
        }
        
        function getAllArc(){
         Article.find( {}, function( err, arcs ){
         allArc = arcs;
         makeHtml( allArc.shift() );
         } ).sort( { 'id' : 1 } );
        }
        getAllArc();

        以上這篇Node.js+jade+mongodb+mongoose實(shí)現(xiàn)爬蟲分離入庫與生成靜態(tài)文件的方法就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

        聲明:本網(wǎng)頁內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

        文檔

        Node.js+jade+mongodb+mongoose實(shí)現(xiàn)爬蟲分離入庫與生成靜態(tài)文件的方法

        Node.js+jade+mongodb+mongoose實(shí)現(xiàn)爬蟲分離入庫與生成靜態(tài)文件的方法:接著這篇文章Node.js+jade抓取博客所有文章生成靜態(tài)html文件的實(shí)例繼續(xù),在這篇文章中實(shí)現(xiàn)了采集與靜態(tài)文件的生成,在實(shí)際的采集項(xiàng)目中, 應(yīng)該是先入庫再選擇性的生成靜態(tài)文件。 那么我選擇的數(shù)據(jù)庫是mongodb,為什么用這個(gè)數(shù)據(jù)庫,因?yàn)檫@個(gè)數(shù)據(jù)庫是基于集合,
        推薦度:
        標(biāo)簽: js 實(shí)現(xiàn)的 爬蟲
        • 熱門焦點(diǎn)

        最新推薦

        猜你喜歡

        熱門推薦

        專題
        Top
        主站蜘蛛池模板: 久久久久亚洲AV无码去区首| 国产男女猛烈无遮挡免费视频网站 | 久久久高清免费视频| 国产亚洲婷婷香蕉久久精品 | 亚洲av无码一区二区三区乱子伦 | 亚洲字幕AV一区二区三区四区 | 69式互添免费视频| 亚洲国产精品成人精品小说 | 四虎永久在线精品视频免费观看| 亚洲欧美乱色情图片| 情侣视频精品免费的国产| 免费一级毛片在线播放放视频| 免费va在线观看| 91视频免费观看高清观看完整| 亚洲最大激情中文字幕| 午夜精品射精入后重之免费观看 | 一区二区亚洲精品精华液 | 日本高清免费不卡在线| 国产尤物在线视精品在亚洲| 久久亚洲精品无码观看不卡| 免费国产污网站在线观看| 亚洲天堂男人天堂| 91情侣在线精品国产免费| 亚洲av无码专区亚洲av不卡| 精品国产亚洲男女在线线电影 | 毛片视频免费观看| 欧洲乱码伦视频免费国产| 亚洲妇熟XXXX妇色黄| 成年人免费的视频| 深夜A级毛片视频免费| 亚洲精品V欧洲精品V日韩精品| 久久精品免费一区二区| 在线91精品亚洲网站精品成人| 亚洲一区二区女搞男| 最新欧洲大片免费在线| 无人视频免费观看免费视频| 亚洲AV无码国产在丝袜线观看| 夫妻免费无码V看片| 国产免费网站看v片在线| 久久亚洲最大成人网4438| 国产精品亚洲综合一区|