<span id="mktg5"></span>

<i id="mktg5"><meter id="mktg5"></meter></i>

        <label id="mktg5"><meter id="mktg5"></meter></label>
        最新文章專題視頻專題問答1問答10問答100問答1000問答2000關(guān)鍵字專題1關(guān)鍵字專題50關(guān)鍵字專題500關(guān)鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關(guān)鍵字專題關(guān)鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
        問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
        當(dāng)前位置: 首頁 - 科技 - 知識百科 - 正文

        node.js爬取中關(guān)村的在線電瓶車信息

        來源:懂視網(wǎng) 責(zé)編:小采 時間:2020-11-27 22:04:04
        文檔

        node.js爬取中關(guān)村的在線電瓶車信息

        node.js爬取中關(guān)村的在線電瓶車信息:背景 學(xué)習(xí)nodejs已經(jīng)有段時間,網(wǎng)上很多nodejs爬蟲的文章,所以著手練習(xí)寫一段,最近打算買一輛電瓶車來上下班,但又不知道哪個好,網(wǎng)上是各說紛紜啊,于是就想著,干脆用node.js自己寫一個小爬蟲,來爬一下中關(guān)村在線里面電瓶車的信息吧。 簡介 該d
        推薦度:
        導(dǎo)讀node.js爬取中關(guān)村的在線電瓶車信息:背景 學(xué)習(xí)nodejs已經(jīng)有段時間,網(wǎng)上很多nodejs爬蟲的文章,所以著手練習(xí)寫一段,最近打算買一輛電瓶車來上下班,但又不知道哪個好,網(wǎng)上是各說紛紜啊,于是就想著,干脆用node.js自己寫一個小爬蟲,來爬一下中關(guān)村在線里面電瓶車的信息吧。 簡介 該d

        背景

        學(xué)習(xí)nodejs已經(jīng)有段時間,網(wǎng)上很多nodejs爬蟲的文章,所以著手練習(xí)寫一段,最近打算買一輛電瓶車來上下班,但又不知道哪個好,網(wǎng)上是各說紛紜啊,于是就想著,干脆用node.js自己寫一個小爬蟲,來爬一下中關(guān)村在線里面電瓶車的信息吧。

        簡介

        該demo采用node.js作為爬蟲,為方便,有些地方使用es6語法,如有不懂,歡迎咨詢😊

        步驟

        第一步,引入需要的庫

        var cheerio = require('cheerio');
        var fetch = require('node-fetch');
        
        // cheerio 是一個類似瀏覽器端的jQuery,用來解析HTML的
        // fetch 用來發(fā)送請求

        第二步,設(shè)置初始的爬取的入口(我身處杭州,所以地區(qū)選了杭州的🤣)

        // 初始url
        var url = "http://detail.zol.com.cn/convenienttravel/hangzhou/#list_merchant_loc"
        // 由于每個a標(biāo)簽下是相對路徑,故需要一個根地址來拼接,如下
        var urlRoot = "http://detail.zol.com.cn" 
        // 存放所有url,之所以用set,是為了防止有相同的而重復(fù)爬去
        var urls = new Set()
        // 存儲所有數(shù)據(jù)
        var data = [] 

        至此,我們的準(zhǔn)備部分結(jié)束了😅,接下來,開始表演了

        分析網(wǎng)頁,思考爬取的方式


        每行4款,每頁是48款,一共16頁

        思路:

      1. 每次獲取當(dāng)前頁48個鏈接,并點進去之后,拿到該電瓶車的名稱和價格(其他信息獲取方式一樣,自行改就好😂)
      2. 第一頁的全部完成之后,翻到下一頁,繼續(xù)爬,直到最后一頁結(jié)束
      3. 首先我們定義一個函數(shù)如下

        // 這是得到每個頁面的48個鏈接,并開始發(fā)送請求
        
        function ad(arg){
        // 參數(shù) arg 先不管
        // 本地化一下需要爬取的鏈接
        let url2 = arg || url;
        // 請求第一頁該網(wǎng)頁,拿到數(shù)據(jù)之后,復(fù)制給 app
        var app = await fetch(url2).then(res=>res.text())
        // 然后假裝用jQuery解析了
        var $ = cheerio.load(app)
        // 獲取當(dāng)前頁所有電瓶車的a標(biāo)簽
        var ele = $("#J_PicMode a.pic")
        // 存放已經(jīng)爬取過的url,防止重復(fù)爬取
        var old_urls = []
        var urlapp = []
        //拿到所有a標(biāo)簽地址之后,存在數(shù)組里面,等會兒要開始爬的
        for (let i = 0; i < ele.length; i++) {
        old_urls.push(fetch(urlRoot+$(ele[i]).attr('href')).then(res=>res.text()))
        }
        // 用把URL一塊丟給promise處理
        urlapp = await Promise.all(old_urls)
        // 處理完成之后,循環(huán)加入jQuery😂
        for (let i = 0; i < urlapp.length; i++) {
        let $2 = cheerio.load(urlapp[i],{decodeEntities: false})
        data.push({
        name:$2(".product-model__name").text(),
        price:$2(".price-type").text()
        })
        }
        // 至此,一頁的數(shù)據(jù)就爬完了
        // console.log(data);
        
        // 然后開始爬取下一頁
        var nextURL = $(".next").attr('href')
        // 判斷當(dāng)前頁是不是最后一頁
        if (nextURL){
        let next = await fetch(urlRoot+nextURL).then(res=>res.text())
        // 獲取下一頁的標(biāo)簽,拿到地址,走你
        ad(urlRoot+nextURL)
        }
        return data
        }
        ad()

        完整代碼如下

        var cheerio = require('cheerio');
        var fetch = require('node-fetch');
        var url = "http://detail.zol.com.cn/convenienttravel/hangzhou/#list_merchant_loc"
        var urlRoot = "http://detail.zol.com.cn"
        // var url = "http://localhost:3222/app1"
        var urls = new Set()
        var data = [] 
        async function ad(arg){
        let url2 = arg || url;
        var app = await fetch(url2).then(res=>res.text())
        var $ = cheerio.load(app)
        var ele = $("#J_PicMode a.pic")
        var old_urls = []
        var urlapp = []
        for (let i = 0; i < ele.length; i++) {
        old_urls.push(fetch(urlRoot+$(ele[i]).attr('href')).then(res=>res.text()))
        }
        urlapp = await Promise.all(old_urls)
        for (let i = 0; i < urlapp.length; i++) {
        let $2 = cheerio.load(urlapp[i],{decodeEntities: false})
        data.push({
        name:$2(".product-model__name").text(),
        price:$2(".price-type").text()
        })
        }
        
        var nextURL = $(".next").attr('href')
        if (nextURL){
        let next = await fetch(urlRoot+nextURL).then(res=>res.text())
        ad(urlRoot+nextURL)
        }
        return data
        }
        ad()

        總結(jié)

        聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

        文檔

        node.js爬取中關(guān)村的在線電瓶車信息

        node.js爬取中關(guān)村的在線電瓶車信息:背景 學(xué)習(xí)nodejs已經(jīng)有段時間,網(wǎng)上很多nodejs爬蟲的文章,所以著手練習(xí)寫一段,最近打算買一輛電瓶車來上下班,但又不知道哪個好,網(wǎng)上是各說紛紜啊,于是就想著,干脆用node.js自己寫一個小爬蟲,來爬一下中關(guān)村在線里面電瓶車的信息吧。 簡介 該d
        推薦度:
        標(biāo)簽: 電瓶車 node.js Nodejs
        • 熱門焦點

        最新推薦

        猜你喜歡

        熱門推薦

        專題
        Top
        主站蜘蛛池模板: 尤物永久免费AV无码网站| 99在线热视频只有精品免费| 亚洲av无码专区首页| 亚洲 欧洲 自拍 另类 校园| 亚洲一区二区三区不卡在线播放| 亚洲日韩中文字幕| 亚洲jjzzjjzz在线观看| 亚洲av无码片区一区二区三区| 亚洲www在线观看| 亚洲欧美国产日韩av野草社区| 亚洲精品久久无码| 男女超爽视频免费播放| 一级毛片人与动免费观看| 一个人看的免费观看日本视频www 一个人看的免费视频www在线高清动漫 | 青青视频免费在线| 成人a毛片视频免费看| 久久九九久精品国产免费直播| a一级毛片免费高清在线| 在线观看特色大片免费网站| 无码av免费一区二区三区试看| 16女性下面扒开无遮挡免费| 美女网站免费福利视频| 日本成人在线免费观看| 亚洲男人的天堂在线va拉文| 亚洲一区二区女搞男| 久久亚洲美女精品国产精品| 亚洲日本国产综合高清| 美美女高清毛片视频黄的一免费| 中文字幕在线免费视频| 69影院毛片免费观看视频在线| 在线观看无码AV网站永久免费| 国产免费观看青青草原网站| 中文字幕亚洲一区| 亚洲电影免费观看| 国产精品亚洲专区无码WEB| 韩国免费a级作爱片无码| 亚洲w码欧洲s码免费| 日本大片在线看黄a∨免费| 国产精品亚洲片在线观看不卡| 亚洲欧洲国产精品久久| 美女黄频免费网站|