本文由浅入深给大家介绍node.js stream api,具体详情请看下文吧。
[b]基本介绍[/b]
在 Node.js 中,读取文件的方式有两种,一种是用 fs.readFile ,另外一种是利用 fs.createReadStream 来读取。
fs.readFile 对于每个 Node.js 使用者来说最熟悉不过了,简单易懂,很好上手。但它的缺点是会先将数据全部读入内存,一旦遇到大文件的时候,这种方式读取的效率就非常低下了。
而 fs.createReadStream 则是通过 Stream 来读取数据,它会把文件(数据)分割成小块,然后触发一些特定的事件,我们可以监听这些事件,编写特定的处理函数。这种方式相对上面来说,并不好上手,但它效率非常高。
事实上, Stream 在 Node.js 中并非仅仅用在文件处理上,其他地方也可以看到它的身影,如 process.stdin/stdout , http , tcp sockets , zlib , crypto 等都有用到。
本文是我学习 Node.js 中的 Stream API 中的一点总结,希望对大家有用。
[b]特点[/b]
基于事件通讯
可以通过 pipe 来连接流
[b]种类[/b]
Readable Stream 可读数据流
Writeable Stream 可写数据流
Duplex Stream 双向数据流,可以同时读和写
Transform Stream 转换数据流,可读可写,同时可以转换(处理)数据
[b]事件[/b]
可读数据流的事件
readable 数据向外流时触发
data 对于那些没有显式暂停的数据流,添加data事件监听函数,会将数据流切换到流动态,尽快向外提供数据
end 读取完数据时触发。注意不能和 writeableStream.end() 混淆,writeableStream 并没有 end 事件,只有 .end() 方法
close 数据源关闭时触发
error 读取数据发生错误时触发
[b]可写数据流的事件[/b]
drain writable.write(chunk) 返回 false 之后,缓存全部写入完成,可以重新写入时就会触发
finish 调用 .end 方法时,所有缓存的数据释放后触发,类似于可读数据流中的 end 事件,表示写入过程结束
pipe 作为 pipe 目标时触发
unpipe 作为 unpipe 目标时触发
error 写入数据发生错误时触发
[b]状态[/b]
可读数据流有两种状态: 流动态 和 暂停态 ,改变数据流状态的方法如下:
暂停态 -> 流动态
添加 data 事件的监听函数
调用 resume 方法
调用 pipe 方法
注意:如果转为流动态时,没有 data 事件的监听函数,也没有 pipe 方法的目的地,那么数据将遗失。
流动态 -> 暂停态
不存在 pipe 方法的目的地时,调用 pause 方法
存在 pipe 方法的目的地时,移除所有 data 事件的监听函数,并且调用 unpipe 方法,移除所有 pipe 方法的目的地
注意:只移除 data 事件的监听函数,并不会自动引发数据流进入「暂停态」。另外,存在 pipe 方法的目的地时,调用 pause 方法,并不能保证数据流总是处于暂停态,一旦那些目的地发出数据请求,数据流有可能会继续提供数据。
[b]用法[/b]
读写文件
var fs = require('fs');
// 新建可读数据流
var rs = fs.createReadStream('./test1.txt');
// 新建可写数据流
var ws = fs.createWriteStream('./test2.txt');
// 监听可读数据流结束事件
rs.on('end', function() {
console.log('read text1.txt successfully!');
});
// 监听可写数据流结束事件
ws.on('finish', function() {
console.log('write text2.txt successfully!');
});
// 把可读数据流转换成流动态,流进可写数据流中
rs.pipe(ws);
读取 CSV 文件,并上传数据(我在生产环境中写过)
var fs = require('fs');
var es = require('event-stream');
var csv = require('csv');
var parser = csv.parse();
var transformer = csv.transform(function(record) {
return record.join(',');
});
var data = fs.createReadStream('./demo.csv');
data
.pipe(parser)
.pipe(transformer)
// 处理前一个 stream 传递过来的数据
.pipe(es.map(function(data, callback) {
upload(data, function(err) {
callback(err);
});
}))
// 相当于监听前一个 stream 的 end 事件
.pipe(es.wait(function(err, body) {
process.stdout.write('done!');
}));
[b]更多用法[/b]
可以参考一下 [url=https://github.com/jeresig/node-stream-playground]https://github.com/jeresig/node-stream-playground[/url] ,进去示例网站之后直接点 add stream 就能看到结果了。
[b]常见坑[/b]
用 rs.pipe(ws) 的方式来写文件并不是把 rs 的内容 append 到 ws 后面,而是直接用 rs 的内容覆盖 ws 原有的内容
已结束/关闭的流不能重复使用,必须重新创建数据流
pipe 方法返回的是目标数据流,如 a.pipe(b) 返回的是 b,因此监听事件的时候请注意你监听的对象是否正确
如果你要监听多个数据流,同时你又使用了 pipe 方法来串联数据流的话,你就要写成:
[b]data[/b]
.on('end', function() {
console.log('data end');
})
.pipe(a)
.on('end', function() {
console.log('a end');
})
.pipe(b)
.on('end', function() {
console.log('b end');
});
[b]常用类库[/b]
event-stream 用起来有函数式编程的感觉,个人比较喜欢
awesome-nodejs#streams 由于其他 stream 库我都没用过,所以有需求的就直接看这里吧
以上内容是小编给大家介绍的Node.js 中 Stream API 的使用,希望大家喜欢。