源码网商城,靠谱的源码在线交易网站 我的订单 购物车 帮助

源码网商城

利用node.js写一个爬取知乎妹纸图的小爬虫

  • 时间:2020-10-26 05:03 编辑: 来源: 阅读:
  • 扫一扫,手机访问
摘要:利用node.js写一个爬取知乎妹纸图的小爬虫
[b]前言[/b] 说起写node爬虫的原因,真是羞羞呀。一天,和往常一样,晚上吃过饭便刷起知乎来,首页便是推荐的你见过最漂亮的女生长什么样?,点进去各种漂亮的妹纸爆照啊!!!,看的我好想把这些好看的妹纸照片都存下来啊!一张张点击保存,就在第18张得时候,突然想起。我特么不是程序员么,这种手动草做的事,怎么能做,不行我不能丢程序员的脸了,于是便开始这次爬虫之旅。 [b]原理[/b] 初入爬虫的坑,没有太多深奥的理论知识,要获取知乎上帖子中的一张图片,我把它归结为以下几步。 [list] [*]准备一个url(当然是诸如你见过最漂亮的女生长什么样?😄)[/*] [*]获取这个url的html内容,并分析其中的dom结构,遍历找到这些漂亮的妹纸图片url[/*] [*]获取图片内容[/*] [*]将图片内容写入本地文件 [/*] [/list] [b]开始动手[/b] 大概知道原理之后我们就可以开干了 [b]准备一个url[/b] 这个最简单了,去知乎随便一搜就是一大把,我们以 [url=https://www.zhihu.com/question/34078228]发一张你认为很漂亮的美女照片?[/url] 为例子,先来分析一下这个页面的dom结构,其实很简单,知乎的一个页面中会包含很多种类型的图片,有头像,用户评价上传的图片啥的。基本上在noscript种都可以找到对应的图片地址。 [img]http://files.jb51.net/file_images/article/201705/201753141840496.jpg?201743141925[/img] 获取这个url的html内容,并且拿到当前页面noscript中的img链接 这一步我们需要会点简单的nodejs的知识,以及用到一个库叫cheerio,这个库具体是用来做什么的,详细请移步[url=https://cheerio.js.org/]cheerio[/url]。 简单来说就是可以在命令行中使用jQuery来搜索遍历获取相应的元素。 [b]那么怎样才能获取这个帖子的html呢[/b] 使用nodejs的https模块
var https = require('https')
getAllHtml (url, callback) {
 let sHtml = '',
 _this = this;
 https.get(url, (res) => {
 res.on('data', (data) => {
 sHtml += data;
 });
 res.on('end', () => {
 callback.bind(_this, sHtml)();
 })
 }).on('error', (err) => {
 console.log(err);
 });
}
通过以上操作拿到网站的html之后,便是遍历出我们需要的图片地址来了
filterHtml (sHtml, filePath) {
 let $ = cheerio.load(sHtml), // 将上一步拿到的网站html传入cheerio.load,便得到类似于包装过的jQuery对象,可以像jQuey的选择器一样来选择元素
 $Imgs = $('noscript img'),
 imgData = [],
 _this = this;
 $Imgs.each((i, e) => {
 let imgUrl = $(e).attr('src'); //取出对应的url
 imgData.push(imgUrl);
 // 将url传入开始下载
 _this.downloadImg(imgUrl, _this.filePath, 
 function (err) {
 console.log(imgUrl + 'has be down');
 });
 });
 console.log(imgData);
}
有了图片的url,如何下载到本地呢? 我们需要使用request这个库,简单的调用一下api再结合node原生写文件的api。
downloadImg (imgUrl, filePath, callback) {
 let fileName = this.parseFileName(imgUrl);
 request(imgUrl).pipe(fs.createWriteStream('./' + filePath + '/'+fileName)).on('close', callback && callback);
 }
到这里就大功告成了,是不是很简单!!!已经将源码上传,欢迎大家下载查看。 gitHub地址:[url=https://github.com/qianlongo/node-small-crawler]https://github.com/qianlongo/node-small-crawler[/url] 本地下载地址:[url=http://xiazai.jb51.net/201705/yuanma/node-small-crawler(jb51.net).rar]http://xiazai.jb51.net/201705/yuanma/node-small-crawler(jb51.net).rar[/url] [b]总结[/b] 以上就是这篇文章的全部内容了,希望本文的内容对大家学习或者使用node.js能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对编程素材网的支持。
  • 全部评论(0)
联系客服
客服电话:
400-000-3129
微信版

扫一扫进微信版
返回顶部