源码网商城,靠谱的源码在线交易网站 我的订单 购物车 帮助

源码网商城

Node.js 实现简单小说爬虫实例

  • 时间:2021-04-09 12:31 编辑: 来源: 阅读:
  • 扫一扫,手机访问
摘要:Node.js 实现简单小说爬虫实例
最近因为剧荒,老大追了爱奇艺的一部网剧,由丁墨的同名小说《美人为馅》改编,目前已经放出两季,虽然整部剧槽点满满,但是老大看得不亦乐乎,并且在看完第二季之后跟我要小说资源,直接要奔原著去看结局…… 随手搜了下,都是在线资源,下载的话需要登录,注册登录好麻烦,写个爬虫玩玩也好,于是动手用 node 写了一个,这里做下笔记 [b]工作流程[/b] [list] [*]获取 URLs 列表(请求资源 [code]request[/code]模块)[/*] [*]根据 URLs 列表获取相关页面源码(可能遇到页面编码问题,[code]iconv-lite[/code]模块)[/*] [*]源码解析,获取小说信息( [code]cheerio[/code]模块)[/*] [*]保存小说信息到 Markdown 文件,并且加适当修饰以及章节信息(写文件[code] fs[/code]、同步请求资源 [code]sync-request[/code] 模块)[/*] [*]Markdown 转 PDF (使用 Pandoc 或者 Chrome 的打印功能)[/*] [/list] [b]获取 URLs[/b] 根据小说的导航页,获取小说所有章节的 URL,并且以 JSON 数组的方式存储。 [list] [*]首选通过 [code]http.get() [/code]方法获取页面源码[/*] [*]获取到源码,打印发现中文乱码,查看发现 [code]charset = 'gbk'[/code],需要进行转码[/*] [*]使用[code] iconv-lite [/code]模块进行转码,中文显示正常后开始解析源码,获取需要的 URL,为了更方便地解析,需要引进 [code]cheerio[/code] 模块,[code]cheerio [/code]可以理解为运行在后台的 jQuery,用法与 jQuery 也十分相似,熟悉 jQuery 的同学可以很快的上手[/*] [*]将源码加载进 [code]cheerio[/code],分析了源码后得知所有章节信息都存于被[code] div[/code] 包裹的[code] a [/code]标签中,通过 [code]cheerio [/code]取出符合条件的 [code]a [/code]标签组,进行遍历,获取章节的 title 和 URL,保存为对象,存进数组,(因为链接中存储的 URL 不完整,所以存储时需要补齐)[/*] [*]将对象数组序列化,写进 [code]list.json[/code] 文件 [/*] [/list]
var http = require("http")
var fs = require("fs")
var cheerio = require("cheerio")
var iconv = require("iconv-lite")
var url = 'http://www.17fa.com/files/article/html/90/90747/index.html'
http.get(url, function(res) { //资源请求
  var chunks = []
  res.on('data', function(chunk) {
    chunks.push(chunk)
  })
  res.on('end', function() {
    var html = iconv.decode(Buffer.concat(chunks), 'gb2312') //转码操作
    var $ = cheerio.load(html, {
      decodeEntities: false
    })
    var content = $("tbody")
    var links = []
    $('div').children('a').each(function(i, elem) {
      var link = new Object()
      link.title = $(this).text()
      link.link = 'http://www.17fa.com/files/article/html/90/90747/' + $(this).attr('href') //补齐 URL 信息
      if (i > 5) {
        links.push(link)
      }
    })
    fs.writeFile("list.json", JSON.stringify(links), function(err) {
      if (!err) {
        console.log("写文件成功")
      }
    })
  }).on('error', function() {
    console.log("网页访问出错")
  })
})
获取的列表示例
[{
  "title": "3 法医司白",
  "link": "http://www.17fa.com/files/article/html/90/90747/16548771.html"
}, {
  "title": "4 第1个梦 ",
  "link": "http://www.17fa.com/files/article/html/90/90747/16548772.html"
}, {
  "title": "5 刑警韩沉 ",
  "link": "http://www.17fa.com/files/article/html/90/90747/16548773.html"
}, {
  "title": "6 最初之战",
  "link": "http://www.17fa.com/files/article/html/90/90747/16548774.html "
}]
[b]获取数据[/b] 有了 URLs 列表,接下来的工作就很机械了,遍历 URLs 列表请求资源,获取源码,解析源码,获取小说,写文件,但是,因为最终将所有的章节保存入一个文件,要保证章节的顺序,因此写文件需要 同步操作,实际上,我在编码的时候所有的操作都改成了同步方式 [b]获取源码[/b] 通过解析读取的[code] list.json [/code]文件,获取到 URLs 列表,遍历列表获取资源,因为需要确保章节的顺序,所以这里引进 [code]sync-request[/code] 模块进行同步 request 请求资源,请求资源后照例转码
var http = require("http")
var fs = require("fs")
var cheerio = require("cheerio")
var iconv = require("iconv-lite")
var request = require('sync-request')
var urlList = JSON.parse(fs.readFileSync('list.json', 'utf8'))
function getContent(chapter) {
  var res = request('GET',chapter.link)
  var html = iconv.decode(res.body, 'gb2312') //获取源码
}
for (let i = 0; i < urlList.length; i++) {
  getContent(urlList[i])
}
[b]解析源码,获取小说[/b] 还是通过 [code]cheerio [/code]模块获取小说内容,避免影响观感,写操作之前去除内容中的的 html 标签
function getContent(chapter) {
  var res = request('GET',chapter.link)
  var html = iconv.decode(res.body, 'gb2312')
  var $ = cheerio.load(html, {
    decodeEntities: false
  })
  var content = ($("div#r1c").text()).replace(/\ /g, '')
}
保存小说 写操作也需要同步操作,因此使用了同步写函数 [code]fs.writeFileSync() [/code]和 同步添加函数 [code]fs.appendFileSync()[/code],第一次写使用写函数,之后的内容都是进行 append 操作,为了改善阅读体验,每个章节前添加标题 也可以在内容前添加 拍 [TOC],作为导航链接[img]http://files.jb51.net/file_images/article/201611/20161118130706664.jpg?2016101813721[/img]
var http = require("http")
var fs = require("fs")
var cheerio = require("cheerio")
var iconv = require("iconv-lite")
var path = require('path')
var urlList = JSON.parse(fs.readFileSync('list.json', 'utf8'))
function getContent(chapter) {
  console.log(chapter.link)
  http.get(chapter.link, function(res) {
    var chunks = []
    res.on('data', function(chunk) {
      chunks.push(chunk)
    })
    res.on('end', function() {
      var html = iconv.decode(Buffer.concat(chunks), 'gb2312')
      var $ = cheerio.load(html, {
        decodeEntities: false
      })
      var content = ($("div#r1c").text()).replace(/\ /g, '')
      if (fs.existsSync('美人为馅.md')) {
        fs.appendFileSync('美人为馅.md', '### ' + chapter.title)
        fs.appendFileSync('美人为馅.md', content)
      } else {
        fs.writeFileSync('美人为馅.md', '### ' + chapter.title)
        fs.appendFileSync('美人为馅.md', content)
      }
    })
  }).on('error', function() {
    console.log("爬取" + chapter.link + "链接出错!")
  })
}
for (let i = 0; i < urlList.length; i++) {
  console.log(urlList[i])
  getContent(urlList[i])
}
[b]Markdown 转 PDF[/b] 我将小说保存在 Markdown 文件中,为了提升阅读体验,可以将 Markdown 文件转换成 PDF 文件,目前我较为喜欢的两种方式,通过 Chrome 的打印功能 以及 pandoc 转换 Chrome 打印 SublimeText 有个插件[code] markdown preview [/code],可通过[code] Alt + m[/code] 快捷键在 Chrome 中预览 Markdown,在 Chrome 页面中右键,选择打印,调整好参数后,选择另存为 PDF,简单,粗暴,深得我心 [b]打印效果:[/b][img]http://files.jb51.net/file_images/article/201611/20161118130751934.jpg?2016101813758[/img] [b]pandoc 转换 [/b]pandoc 是十分强大的文件格式转换工具,可以将 Markdown 文件转换成多种格式,今晚在 windows10 下折腾了半天,始终检索不到 pdflatex,关于 pandoc,后面会专门写一篇总结。 PDF 已经发给老大了,现在正在看 [b]关于python、node、爬虫[/b] 在之前很长的一段时间里,很想用 Python,很想写爬虫,更想用 Python 写爬虫,甚至成为了心里的一块执念,随着接触的知识更全面,执念也逐渐淡去,少了很多“想”,遇事想着多去动手,实践出真知。 以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持编程素材网。
  • 全部评论(0)
联系客服
客服电话:
400-000-3129
微信版

扫一扫进微信版
返回顶部