Node.js 中 Stream API 的使用

基本介绍

在 Node.js 中,读取文件的方式有两种,一种是用 fs.readFile,另外一种是利用 fs.createReadStream 来读取。

fs.readFile 对于每个 Node.js 使用者来说最熟悉不过了,简单易懂,很好上手。但它的缺点是会先将数据全部读入内存,一旦遇到大文件的时候,这种方式读取的效率就非常低下了。

fs.createReadStream 则是通过 Stream 来读取数据,它会把文件(数据)分割成小块,然后触发一些特定的事件,我们可以监听这些事件,编写特定的处理函数。这种方式相对上面来说,并不好上手,但它效率非常高。

事实上, Stream 在 Node.js 中并非仅仅用在文件处理上,其他地方也可以看到它的身影,如 process.stdin/stdout, http, tcp sockets, zlib, crypto 等都有用到。

本文是我学习 Node.js 中的 Stream API 中的一点总结,希望对大家有用。

特点

  • 基于事件通讯

  • 可以通过 pipe 来连接流

种类

  • Readable Stream 可读数据流

  • Writeable Stream 可写数据流

  • Duplex Stream 双向数据流,可以同时读和写

  • Transform Stream 转换数据流,可读可写,同时可以转换(处理)数据

事件

可读数据流的事件

  • readable 数据向外流时触发

  • data 对于那些没有显式暂停的数据流,添加data事件监听函数,会将数据流切换到流动态,尽快向外提供数据

  • end 读取完数据时触发。注意不能和 writeableStream.end() 混淆,writeableStream 并没有 end 事件,只有 .end() 方法

  • close 数据源关闭时触发

  • error 读取数据发生错误时触发

可写数据流的事件

  • drain writable.write(chunk) 返回 false 之后,缓存全部写入完成,可以重新写入时就会触发

  • finish 调用 .end 方法时,所有缓存的数据释放后触发,类似于可读数据流中的 end 事件,表示写入过程结束

  • pipe 作为 pipe 目标时触发

  • unpipe 作为 unpipe 目标时触发

  • error 写入数据发生错误时触发

状态

可读数据流有两种状态:流动态暂停态,改变数据流状态的方法如下:

暂停态 -> 流动态

  • 添加 data 事件的监听函数

  • 调用 resume 方法

  • 调用 pipe 方法

注意: 如果转为流动态时,没有 data 事件的监听函数,也没有 pipe 方法的目的地,那么数据将遗失。

流动态 -> 暂停态

  • 不存在 pipe 方法的目的地时,调用 pause 方法

  • 存在 pipe 方法的目的地时,移除所有 data 事件的监听函数,并且调用 unpipe 方法,移除所有 pipe 方法的目的地

注意: 只移除 data 事件的监听函数,并不会自动引发数据流进入「暂停态」。另外,存在 pipe 方法的目的地时,调用 pause 方法,并不能保证数据流总是处于暂停态,一旦那些目的地发出数据请求,数据流有可能会继续提供数据。

用法

读写文件

var fs = require('fs');
// 新建可读数据流
var rs = fs.createReadStream('./test1.txt');
// 新建可写数据流
var ws = fs.createWriteStream('./test2.txt');

// 监听可读数据流结束事件
rs.on('end', function() {
    console.log('read text1.txt successfully!');
});
// 监听可写数据流结束事件
ws.on('finish', function() {
    console.log('write text2.txt successfully!');
});
// 把可读数据流转换成流动态,流进可写数据流中
rs.pipe(ws);

读取 CSV 文件,并上传数据(我在生产环境中写过)

var fs = require('fs');
var es = require('event-stream');
var csv = require('csv');
var parser = csv.parse();
var transformer = csv.transform(function(record) {
    return record.join(',');
});

var data = fs.createReadStream('./demo.csv');
data
    .pipe(parser)
    .pipe(transformer)
    // 处理前一个 stream 传递过来的数据
    .pipe(es.map(function(data, callback) {
        upload(data, function(err) {
            callback(err);
        });
    }))
    // 相当于监听前一个 stream 的 end 事件
    .pipe(es.wait(function(err, body) {
        process.stdout.write('done!');
    }));

更多用法

可以参考一下 https://github.com/jeresig/node-stream-playground ,进去示例网站之后直接点 add stream 就能看到结果了。

常见坑

  • rs.pipe(ws) 的方式来写文件并不是把 rs 的内容 append 到 ws 后面,而是直接用 rs 的内容覆盖 ws 原有的内容

  • 已结束/关闭的流不能重复使用,必须重新创建数据流

  • pipe 方法返回的是目标数据流,如 a.pipe(b) 返回的是 b,因此监听事件的时候请注意你监听的对象是否正确

    • 如果你要监听多个数据流,同时你又使用了 pipe 方法来串联数据流的话,你就要写成:

      data
          .on('end', function() {
              console.log('data end');
          })
          .pipe(a)
          .on('end', function() {
              console.log('a end');
          })
          .pipe(b)
          .on('end', function() {
              console.log('b end');
          });

常用类库

  • event-stream 用起来有函数式编程的感觉,个人比较喜欢

  • awesome-nodejs#streams 由于其他 stream 库我都没用过,所以有需求的就直接看这里吧

出处

https://scarletsky.github.io/2015/10/22/node-stream-api-learning/

参考资料

阮一峰 – stream接口
nodejs.org Stream
Transforming data with Node.js transform streams
NodeJS: What’s the difference between a Duplex stream and a Transform stream?

    原文作者:scarlex
    原文地址: https://segmentfault.com/a/1190000003894042
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞