Node.js v18.16.0 文档


目录

网络流 API#

稳定性: 1 - 实验。

WHATWG 流标准 的一个实现。

概述#

WHATWG 流标准(或 "web streams")定义了一个用于处理流数据的 API。 它类似于 Node.js API,但出现较晚,已成为跨许多 JavaScript 环境流式传输数据的 "standard" API。

存在三种主要类型的对象:

  • ReadableStream - 表示流式数据源。
  • WritableStream - 表示流数据的目的地。
  • TransformStream - 表示用于转换流数据的算法。

示例 ReadableStream#

此示例创建一个简单的 ReadableStream,它永远每秒推送一次当前的 performance.now() 时间戳。 异步迭代器用于从流中读取数据。

import {
  ReadableStream,
} from 'node:stream/web';

import {
  setInterval as every,
} from 'node:timers/promises';

import {
  performance,
} from 'node:perf_hooks';

const SECOND = 1000;

const stream = new ReadableStream({
  async start(controller) {
    for await (const _ of every(SECOND))
      controller.enqueue(performance.now());
  },
});

for await (const value of stream)
  console.log(value);const {
  ReadableStream,
} = require('node:stream/web');

const {
  setInterval: every,
} = require('node:timers/promises');

const {
  performance,
} = require('node:perf_hooks');

const SECOND = 1000;

const stream = new ReadableStream({
  async start(controller) {
    for await (const _ of every(SECOND))
      controller.enqueue(performance.now());
  },
});

(async () => {
  for await (const value of stream)
    console.log(value);
})();

API#

类:ReadableStream#

new ReadableStream([underlyingSource [, strategy]])#

readableStream.locked#

readableStream.locked 属性默认为 false,当有活动读取器使用流的数据时切换为 true

readableStream.cancel([reason])#
  • reason <any>
  • 返回: 一旦取消完成,undefined 就会兑现promise。

readableStream.getReader([options])#
import { ReadableStream } from 'node:stream/web';

const stream = new ReadableStream();

const reader = stream.getReader();

console.log(await reader.read());const { ReadableStream } = require('node:stream/web');

const stream = new ReadableStream();

const reader = stream.getReader();

reader.read().then(console.log);

使 readableStream.locked 成为 true

readableStream.pipeThrough(transform[, options])#
  • transform <Object>
    • readable <ReadableStream> transform.writable 将向其推送可能修改的数据的 ReadableStream 是从该 ReadableStream 接收的。
    • writable <WritableStream> ReadableStream 的数据将写入的 WritableStream
  • options <Object>
    • preventAbort <boolean>true 时,此 ReadableStream 中的错误不会导致 transform.writable 中止。
    • preventCancel <boolean>true 时,目标 transform.writable 中的错误不会导致此 ReadableStream 被取消。
    • preventClose <boolean> true时,关闭这个ReadableStream不会导致transform.writable关闭。
    • signal <AbortSignal> 允许使用 <AbortController> 取消数据传输。
  • 返回: <ReadableStream> 来自 transform.readable

将此 <ReadableStream> 连接到 transform 参数中提供的一对 <ReadableStream><WritableStream>,以便将来自此 <ReadableStream> 的数据写入 transform.writable,可能进行转换,然后推送到 transform.readable。 配置管道后,将返回 transform.readable

当管道操作处于活动状态时,使 readableStream.locked 变为 true

import {
  ReadableStream,
  TransformStream,
} from 'node:stream/web';

const stream = new ReadableStream({
  start(controller) {
    controller.enqueue('a');
  },
});

const transform = new TransformStream({
  transform(chunk, controller) {
    controller.enqueue(chunk.toUpperCase());
  },
});

const transformedStream = stream.pipeThrough(transform);

for await (const chunk of transformedStream)
  console.log(chunk);const {
  ReadableStream,
  TransformStream,
} = require('node:stream/web');

const stream = new ReadableStream({
  start(controller) {
    controller.enqueue('a');
  },
});

const transform = new TransformStream({
  transform(chunk, controller) {
    controller.enqueue(chunk.toUpperCase());
  },
});

const transformedStream = stream.pipeThrough(transform);

(async () => {
  for await (const chunk of transformedStream)
    console.log(chunk);
})();

readableStream.pipeTo(destination[, options])#
  • destination <WritableStream> 将写入此 ReadableStream 的数据的 <WritableStream>
  • options <Object>
    • preventAbort <boolean>true 时,此 ReadableStream 中的错误不会导致 destination 中止。
    • preventCancel <boolean>true 时,destination 中的错误不会导致此 ReadableStream 被取消。
    • preventClose <boolean> true时,关闭这个ReadableStream不会导致destination关闭。
    • signal <AbortSignal> 允许使用 <AbortController> 取消数据传输。
  • 返回: undefined 兑现的promise

当管道操作处于活动状态时,使 readableStream.locked 变为 true

readableStream.tee()#

返回一对新的 <ReadableStream> 实例,此 ReadableStream 的数据将转发到该实例。 每个人都会收到相同的数据。

使 readableStream.locked 成为 true

readableStream.values([options])#

创建并返回可用于使用此 ReadableStream 的数据的异步迭代器。

当异步迭代器处于活动状态时,使 readableStream.locked 成为 true

import { Buffer } from 'node:buffer';

const stream = new ReadableStream(getSomeSource());

for await (const chunk of stream.values({ preventCancel: true }))
  console.log(Buffer.from(chunk).toString()); 

异步迭代#

<ReadableStream> 对象支持使用 for await 语法的异步迭代器协议。

import { Buffer } from 'node:buffer';

const stream = new ReadableStream(getSomeSource());

for await (const chunk of stream)
  console.log(Buffer.from(chunk).toString()); 

异步迭代器将消耗 <ReadableStream> 直到它终止。

默认情况下,如果异步迭代器提前退出(通过 breakreturnthrow),<ReadableStream> 将被关闭。 为防止<ReadableStream>自动关闭,使用readableStream.values()方法获取异步迭代器并将preventCancel选项设置为true

<ReadableStream> 不得锁定(即,它不得有现有的活动阅读器)。 在异步迭代期间,<ReadableStream> 将被锁定。

postMessage() 一起转移#

可以使用 <MessagePort> 传输 <ReadableStream> 实例。

const stream = new ReadableStream(getReadableSourceSomehow());

const { port1, port2 } = new MessageChannel();

port1.onmessage = ({ data }) => {
  data.getReader().read().then((chunk) => {
    console.log(chunk);
  });
};

port2.postMessage(stream, [stream]); 

类:ReadableStreamDefaultReader#

默认情况下,不带参数调用 readableStream.getReader() 将返回 ReadableStreamDefaultReader 的实例。 默认读取器将通过流传递的数据块视为不透明值,这允许 <ReadableStream> 通常使用任何 JavaScript 值。

new ReadableStreamDefaultReader(stream)#

创建锁定到给定 <ReadableStream> 的新 <ReadableStreamDefaultReader>

readableStreamDefaultReader.cancel([reason])#
  • reason <any>
  • 返回: undefined 兑现的promise。

取消 <ReadableStream> 并返回一个在基础流被取消时完成的promise。

readableStreamDefaultReader.closed#
  • 类型: <Promise> 当关联的 <ReadableStream> 关闭时用 undefined 完成,或者如果流错误或读取器的锁在流完成关闭之前被释放则被拒绝。

readableStreamDefaultReader.read()#

从底层 <ReadableStream> 请求下一个数据块,并返回一个promise,一旦数据可用,该promise就会实现。

readableStreamDefaultReader.releaseLock()#

释放此读者对底层 <ReadableStream> 的锁定。

类:ReadableStreamBYOBReader#

ReadableStreamBYOBReader 是面向字节的 <ReadableStream> 的替代消费者(在创建 ReadableStream 时将 underlyingSource.type 设置为 'bytes')。

BYOB 是 "带上你自己的缓冲区" 的缩写。 这是一种模式,可以更有效地读取面向字节的数据,避免多余的复制。

import {
  open,
} from 'node:fs/promises';

import {
  ReadableStream,
} from 'node:stream/web';

import { Buffer } from 'node:buffer';

class Source {
  type = 'bytes';
  autoAllocateChunkSize = 1024;

  async start(controller) {
    this.file = await open(new URL(import.meta.url));
    this.controller = controller;
  }

  async pull(controller) {
    const view = controller.byobRequest?.view;
    const {
      bytesRead,
    } = await this.file.read({
      buffer: view,
      offset: view.byteOffset,
      length: view.byteLength,
    });

    if (bytesRead === 0) {
      await this.file.close();
      this.controller.close();
    }
    controller.byobRequest.respond(bytesRead);
  }
}

const stream = new ReadableStream(new Source());

async function read(stream) {
  const reader = stream.getReader({ mode: 'byob' });

  const chunks = [];
  let result;
  do {
    result = await reader.read(Buffer.alloc(100));
    if (result.value !== undefined)
      chunks.push(Buffer.from(result.value));
  } while (!result.done);

  return Buffer.concat(chunks);
}

const data = await read(stream);
console.log(Buffer.from(data).toString()); 

new ReadableStreamBYOBReader(stream)#

创建锁定到给定 <ReadableStream> 的新 ReadableStreamBYOBReader

readableStreamBYOBReader.cancel([reason])#
  • reason <any>
  • 返回: undefined 兑现的promise。

取消 <ReadableStream> 并返回一个在基础流被取消时完成的promise。

readableStreamBYOBReader.closed#
  • 类型: <Promise> 当关联的 <ReadableStream> 关闭时用 undefined 完成,或者如果流错误或读取器的锁在流完成关闭之前被释放则被拒绝。

readableStreamBYOBReader.read(view)#

从底层 <ReadableStream> 请求下一个数据块,并返回一个promise,一旦数据可用,该promise就会实现。

不要将池化的 <Buffer> 对象实例传递给此方法。 池化的 Buffer 对象是使用 Buffer.allocUnsafe()Buffer.from() 创建的,或者通常由各种 node:fs 模块回调返回。 这些类型的 Buffer 使用共享的底层 <ArrayBuffer> 对象,该对象包含来自所有池化的 Buffer 实例的所有数据。 当 Buffer<TypedArray><DataView> 传递给 readableStreamBYOBReader.read() 时,视图的底层 ArrayBuffer 被分离,使该 ArrayBuffer 上可能存在的所有现有视图无效。 这可能会给您的应用程序带来灾难性的后果。

readableStreamBYOBReader.releaseLock()#

释放此读者对底层 <ReadableStream> 的锁定。

类:ReadableStreamDefaultController#

每个 <ReadableStream> 都有一个控制器,负责流队列的内部状态和管理。 ReadableStreamDefaultControllerReadableStream 的默认控制器实现,它不是面向字节的。

readableStreamDefaultController.close()#

关闭与此控制器关联的 <ReadableStream>

readableStreamDefaultController.desiredSize#

返回填充 <ReadableStream> 队列的剩余数据量。

readableStreamDefaultController.enqueue([chunk])#

将新数据块附加到 <ReadableStream> 的队列。

readableStreamDefaultController.error([error])#

触发导致 <ReadableStream> 出错并关闭的错误信号。

类:ReadableByteStreamController#

每个 <ReadableStream> 都有一个控制器,负责流队列的内部状态和管理。 ReadableByteStreamController 用于面向字节的 ReadableStream

readableByteStreamController.byobRequest#

readableByteStreamController.close()#

关闭与此控制器关联的 <ReadableStream>

readableByteStreamController.desiredSize#

返回填充 <ReadableStream> 队列的剩余数据量。

readableByteStreamController.enqueue(chunk)#

将新数据块附加到 <ReadableStream> 的队列。

readableByteStreamController.error([error])#

触发导致 <ReadableStream> 出错并关闭的错误信号。

类:ReadableStreamBYOBRequest#

在面向字节的流中使用 ReadableByteStreamController 和使用 ReadableStreamBYOBReader 时,readableByteStreamController.byobRequest 属性提供对表示当前读取请求的 ReadableStreamBYOBRequest 实例的访问。 该对象用于获取为读取请求填充而提供的 ArrayBuffer/TypedArray 的访问权限,并提供用于触发数据已提供信号的方法。

readableStreamBYOBRequest.respond(bytesWritten)#

表示已将 bytesWritten 个字节写入 readableStreamBYOBRequest.view

readableStreamBYOBRequest.respondWithNewView(view)#

表示请求已通过写入新的 BufferTypedArrayDataView 的字节得到满足。

readableStreamBYOBRequest.view#

类:WritableStream#

WritableStream 是流数据发送到的目的地。

import {
  WritableStream,
} from 'node:stream/web';

const stream = new WritableStream({
  write(chunk) {
    console.log(chunk);
  },
});

await stream.getWriter().write('Hello World'); 

new WritableStream([underlyingSink[, strategy]])#
  • underlyingSink <Object>
    • start <Function> 创建 WritableStream 时立即调用的用户定义函数。
    • write <Function> 将数据块写入 WritableStream 时调用的用户定义函数。
    • close <Function> WritableStream 关闭时调用的用户定义函数。
      • 返回: undefined 兑现的promise。
    • abort <Function> 调用以突然关闭 WritableStream 的用户定义函数。
      • reason <any>
      • 返回: undefined 兑现的promise。
    • type <any> type 选项保留供将来使用,必须未定义。
  • strategy <Object>
    • highWaterMark <number> 应用背压之前的最大内部队列大小。
    • size <Function> 一个用户定义的函数,用于标识每个数据块的大小。

writableStream.abort([reason])#
  • reason <any>
  • 返回: undefined 兑现的promise。

突然终止 WritableStream。 所有排队的写入都将被取消,并拒绝相关的promise。

writableStream.close()#
  • 返回: undefined 兑现的promise。

当不需要额外写入时关闭 WritableStream

writableStream.getWriter()#

创建并创建一个新的写入器实例,可用于将数据写入 WritableStream

writableStream.locked#

writableStream.locked 属性默认为 false,当有活动写入器附加到此 WritableStream 时切换为 true

使用 postMessage() 传输#

可以使用 <MessagePort> 传输 <WritableStream> 实例。

const stream = new WritableStream(getWritableSinkSomehow());

const { port1, port2 } = new MessageChannel();

port1.onmessage = ({ data }) => {
  data.getWriter().write('hello');
};

port2.postMessage(stream, [stream]); 

类:WritableStreamDefaultWriter#

new WritableStreamDefaultWriter(stream)#

创建锁定到给定 WritableStream 的新 WritableStreamDefaultWriter

writableStreamDefaultWriter.abort([reason])#
  • reason <any>
  • 返回: undefined 兑现的promise。

突然终止 WritableStream。 所有排队的写入都将被取消,并拒绝相关的promise。

writableStreamDefaultWriter.close()#
  • 返回: undefined 兑现的promise。

当不需要额外写入时关闭 WritableStream

writableStreamDefaultWriter.closed#
  • 类型: <Promise> 当关联的 <WritableStream> 关闭时用 undefined 完成,或者如果在流完成关闭之前流错误或作者的锁被释放则拒绝。

writableStreamDefaultWriter.desiredSize#

填充 <WritableStream> 队列所需的数据量。

writableStreamDefaultWriter.ready#
  • type: 当编写器准备好使用时,undefined 实现的promise。

writableStreamDefaultWriter.releaseLock()#

释放作者对底层 <ReadableStream> 的锁定。

writableStreamDefaultWriter.write([chunk])#
  • chunk: <any>
  • 返回: undefined 兑现的promise。

将新数据块附加到 <WritableStream> 的队列。

类:WritableStreamDefaultController#

WritableStreamDefaultController 管理 <WritableStream> 的内部状态。

writableStreamDefaultController.error([error])#

由用户代码调用以表示在处理 WritableStream 数据时发生了错误。 调用时,<WritableStream> 将被中止,当前挂起的写入被取消。

writableStreamDefaultController.signal#

类:TransformStream#

TransformStream<ReadableStream><WritableStream> 组成,它们相互连接,以便在将写入 WritableStream 的数据推送到 ReadableStream 的队列之前接收并可能进行转换。

import {
  TransformStream,
} from 'node:stream/web';

const transform = new TransformStream({
  transform(chunk, controller) {
    controller.enqueue(chunk.toUpperCase());
  },
});

await Promise.all([
  transform.writable.getWriter().write('A'),
  transform.readable.getReader().read(),
]); 

new TransformStream([transformer[, writableStrategy[, readableStrategy]]])#
  • transformer <Object>
    • start <Function> 创建 TransformStream 时立即调用的用户定义函数。
    • transform <Function> 一个用户定义的函数,它接收并可能修改写入 transformStream.writable 的数据块,然后再将其转发到 transformStream.readable
    • flush <Function>TransformStream 的可写端关闭之前立即调用的用户定义函数,表示转换过程结束。
    • readableType <any> readableType 选项保留供将来使用,必须是 undefined
    • writableType <any> writableType 选项保留供将来使用,必须是 undefined
  • writableStrategy <Object>
    • highWaterMark <number> 应用背压之前的最大内部队列大小。
    • size <Function> 一个用户定义的函数,用于标识每个数据块的大小。
  • readableStrategy <Object>
    • highWaterMark <number> 应用背压之前的最大内部队列大小。
    • size <Function> 一个用户定义的函数,用于标识每个数据块的大小。

transformStream.readable#

transformStream.writable#

使用 postMessage() 传输#

可以使用 <MessagePort> 传输 <TransformStream> 实例。

const stream = new TransformStream();

const { port1, port2 } = new MessageChannel();

port1.onmessage = ({ data }) => {
  const { writable, readable } = data;
  // ...
};

port2.postMessage(stream, [stream]); 

类:TransformStreamDefaultController#

TransformStreamDefaultController 管理 TransformStream 的内部状态。

transformStreamDefaultController.desiredSize#

填充可读端队列所需的数据量。

transformStreamDefaultController.enqueue([chunk])#

将一大块数据附加到可读端的队列中。

transformStreamDefaultController.error([reason])#

向可读和可写端触发信号,表明在处理转换数据时发生了错误,导致双方突然关闭。

transformStreamDefaultController.terminate()#

关闭传输的可读端并导致可写端因错误而突然关闭。

类:ByteLengthQueuingStrategy#

new ByteLengthQueuingStrategy(options)#

byteLengthQueuingStrategy.highWaterMark#

byteLengthQueuingStrategy.size#

类:CountQueuingStrategy#

new CountQueuingStrategy(options)#

countQueuingStrategy.highWaterMark#

countQueuingStrategy.size#

类:TextEncoderStream#

new TextEncoderStream()#

创建新的 TextEncoderStream 实例。

textEncoderStream.encoding#

TextEncoderStream 实例支持的编码。

textEncoderStream.readable#

textEncoderStream.writable#

类:TextDecoderStream#

new TextDecoderStream([encoding[, options]])#
  • encoding <string> 标识此 TextDecoder 实例支持的 encoding默认值: 'utf-8'
  • options <Object>
    • fatal <boolean> 如果解码失败是致命的,则为 true
    • ignoreBOM <boolean>true 时,TextDecoderStream 将在解码结果中包含字节顺序标记。 当 false 时,字节顺序标记将从输出中删除。 此选项仅在 encoding'utf-8''utf-16be''utf-16le' 时使用。 默认值: false

创建新的 TextDecoderStream 实例。

textDecoderStream.encoding#

TextDecoderStream 实例支持的编码。

textDecoderStream.fatal#

如果解码错误导致抛出 TypeError,则该值将为 true

textDecoderStream.ignoreBOM#

如果解码结果将包含字节顺序标记,则该值将为 true

textDecoderStream.readable#

textDecoderStream.writable#

类:CompressionStream#

new CompressionStream(format)#
  • format <string> 'deflate''gzip' 之一。

compressionStream.readable#

compressionStream.writable#

类:DecompressionStream#

new DecompressionStream(format)#
  • format <string> 'deflate''gzip' 之一。

decompressionStream.readable#

decompressionStream.writable#

实用工具消费者#

实用程序消费者函数提供了用于消费流的通用选项。

使用以下方式访问它们:

import {
  arrayBuffer,
  blob,
  buffer,
  json,
  text,
} from 'node:stream/consumers';const {
  arrayBuffer,
  blob,
  buffer,
  json,
  text,
} = require('node:stream/consumers');

streamConsumers.arrayBuffer(stream)#
import { buffer as arrayBuffer } from 'node:stream/consumers';
import { Readable } from 'node:stream';
import { TextEncoder } from 'node:util';

const encoder = new TextEncoder();
const dataArray = encoder.encode('hello world from consumers!');

const readable = Readable.from(dataArray);
const data = await arrayBuffer(readable);
console.log(`from readable: ${data.byteLength}`);const { arrayBuffer } = require('node:stream/consumers');
const { Readable } = require('node:stream');
const { TextEncoder } = require('node:util');

const encoder = new TextEncoder();
const dataArray = encoder.encode('hello world from consumers!');
const readable = Readable.from(dataArray);
arrayBuffer(readable).then((data) => {
  console.log(`from readable: ${data.byteLength}`);
});

streamConsumers.blob(stream)#
import { blob } from 'node:stream/consumers';

const dataBlob = new Blob(['hello world from consumers!']);

const readable = dataBlob.stream();
const data = await blob(readable);
console.log(`from readable: ${data.size}`);const { blob } = require('node:stream/consumers');

const dataBlob = new Blob(['hello world from consumers!']);

const readable = dataBlob.stream();
blob(readable).then((data) => {
  console.log(`from readable: ${data.size}`);
});

streamConsumers.buffer(stream)#
import { buffer } from 'node:stream/consumers';
import { Readable } from 'node:stream';
import { Buffer } from 'node:buffer';

const dataBuffer = Buffer.from('hello world from consumers!');

const readable = Readable.from(dataBuffer);
const data = await buffer(readable);
console.log(`from readable: ${data.length}`);const { buffer } = require('node:stream/consumers');
const { Readable } = require('node:stream');
const { Buffer } = require('node:buffer');

const dataBuffer = Buffer.from('hello world from consumers!');

const readable = Readable.from(dataBuffer);
buffer(readable).then((data) => {
  console.log(`from readable: ${data.length}`);
});

streamConsumers.json(stream)#
import { json } from 'node:stream/consumers';
import { Readable } from 'node:stream';

const items = Array.from(
  {
    length: 100,
  },
  () => ({
    message: 'hello world from consumers!',
  }),
);

const readable = Readable.from(JSON.stringify(items));
const data = await json(readable);
console.log(`from readable: ${data.length}`);const { json } = require('node:stream/consumers');
const { Readable } = require('node:stream');

const items = Array.from(
  {
    length: 100,
  },
  () => ({
    message: 'hello world from consumers!',
  }),
);

const readable = Readable.from(JSON.stringify(items));
json(readable).then((data) => {
  console.log(`from readable: ${data.length}`);
});

streamConsumers.text(stream)#
import { text } from 'node:stream/consumers';
import { Readable } from 'node:stream';

const readable = Readable.from('Hello world from consumers!');
const data = await text(readable);
console.log(`from readable: ${data.length}`);const { text } = require('node:stream/consumers');
const { Readable } = require('node:stream');

const readable = Readable.from('Hello world from consumers!');
text(readable).then((data) => {
  console.log(`from readable: ${data.length}`);
});