This is an automated email from the ASF dual-hosted git repository.

critas pushed a commit to branch main
in repository https://gitbox.apache.org/repos/asf/iotdb-docs.git


The following commit(s) were added to refs/heads/main by this push:
     new 877f463d fix style (#1004)
877f463d is described below

commit 877f463dc44c22c70939a825c764f8cf59aefb57
Author: leto-b <[email protected]>
AuthorDate: Fri Feb 6 14:18:41 2026 +0800

    fix style (#1004)
---
 .../Master/Tree/User-Manual/Streaming_timecho.md         |  9 +++------
 src/UserGuide/latest/User-Manual/Streaming_timecho.md    |  9 +++------
 .../Master/Tree/User-Manual/Streaming_apache.md          | 16 +++++-----------
 .../Master/Tree/User-Manual/Streaming_timecho.md         | 12 ++++--------
 src/zh/UserGuide/latest/User-Manual/Streaming_apache.md  | 16 +++++-----------
 src/zh/UserGuide/latest/User-Manual/Streaming_timecho.md | 12 ++++--------
 6 files changed, 24 insertions(+), 50 deletions(-)

diff --git a/src/UserGuide/Master/Tree/User-Manual/Streaming_timecho.md 
b/src/UserGuide/Master/Tree/User-Manual/Streaming_timecho.md
index 07a3e301..7cad7048 100644
--- a/src/UserGuide/Master/Tree/User-Manual/Streaming_timecho.md
+++ b/src/UserGuide/Master/Tree/User-Manual/Streaming_timecho.md
@@ -133,8 +133,7 @@ Based on the custom stream processing plugin programming 
interface, users can ea
 
 #### Data extraction plugin interface
 
-Data extraction is the first stage of the three stages of stream processing 
data from data extraction to data sending. The data extraction plugin 
(PipeSource) is the bridge between the stream processing engine and the storage 
engine. It monitors the behavior of the storage engine,
-Capture various data write events.
+Data extraction is the first stage of the three-stage process of stream 
processing, which includes data extraction, data processing, and data sending. 
The data extraction plugin (PipeSource) serves as a bridge between the stream 
processing engine and the storage engine. It captures various data write events 
by listening to the behavior of the storage engine.
 
 ```java
 /**
@@ -214,8 +213,7 @@ public interface PipeSource extends PipePlugin {
 
 #### Data processing plugin interface
 
-Data processing is the second stage of the three stages of stream processing 
data from data extraction to data sending. The data processing plugin 
(PipeProcessor) is mainly used to filter and transform the data captured by the 
data extraction plugin (PipeSource).
-various events.
+Data processing is the second stage of the three-stage process of stream 
processing, which includes data extraction, data processing, and data sending. 
The data processing plugin (PipeProcessor) is primarily used for filtering and 
transforming the various events captured by the data extraction plugin 
(PipeSource).
 
 ```java
 /**
@@ -315,8 +313,7 @@ public interface PipeProcessor extends PipePlugin {
 
 #### Data sending plugin interface
 
-Data sending is the third stage of the three stages of stream processing data 
from data extraction to data sending. The data sending plugin (PipeSink) is 
mainly used to send data processed by the data processing plugin 
(PipeProcessor).
-Various events, it serves as the network implementation layer of the stream 
processing framework, and the interface should allow access to multiple 
real-time communication protocols and multiple sinks.
+Data sending is the third stage of the three-stage process of stream 
processing, which includes data extraction, data processing, and data sending. 
The data sending plugin (PipeSink) is responsible for sending the various 
events processed by the data processing plugin (PipeProcessor). It serves as 
the network implementation layer of the stream processing framework and should 
support multiple real-time communication protocols and connectors in its 
interface.
 
 ```java
 /**
diff --git a/src/UserGuide/latest/User-Manual/Streaming_timecho.md 
b/src/UserGuide/latest/User-Manual/Streaming_timecho.md
index 07a3e301..7cad7048 100644
--- a/src/UserGuide/latest/User-Manual/Streaming_timecho.md
+++ b/src/UserGuide/latest/User-Manual/Streaming_timecho.md
@@ -133,8 +133,7 @@ Based on the custom stream processing plugin programming 
interface, users can ea
 
 #### Data extraction plugin interface
 
-Data extraction is the first stage of the three stages of stream processing 
data from data extraction to data sending. The data extraction plugin 
(PipeSource) is the bridge between the stream processing engine and the storage 
engine. It monitors the behavior of the storage engine,
-Capture various data write events.
+Data extraction is the first stage of the three-stage process of stream 
processing, which includes data extraction, data processing, and data sending. 
The data extraction plugin (PipeSource) serves as a bridge between the stream 
processing engine and the storage engine. It captures various data write events 
by listening to the behavior of the storage engine.
 
 ```java
 /**
@@ -214,8 +213,7 @@ public interface PipeSource extends PipePlugin {
 
 #### Data processing plugin interface
 
-Data processing is the second stage of the three stages of stream processing 
data from data extraction to data sending. The data processing plugin 
(PipeProcessor) is mainly used to filter and transform the data captured by the 
data extraction plugin (PipeSource).
-various events.
+Data processing is the second stage of the three-stage process of stream 
processing, which includes data extraction, data processing, and data sending. 
The data processing plugin (PipeProcessor) is primarily used for filtering and 
transforming the various events captured by the data extraction plugin 
(PipeSource).
 
 ```java
 /**
@@ -315,8 +313,7 @@ public interface PipeProcessor extends PipePlugin {
 
 #### Data sending plugin interface
 
-Data sending is the third stage of the three stages of stream processing data 
from data extraction to data sending. The data sending plugin (PipeSink) is 
mainly used to send data processed by the data processing plugin 
(PipeProcessor).
-Various events, it serves as the network implementation layer of the stream 
processing framework, and the interface should allow access to multiple 
real-time communication protocols and multiple sinks.
+Data sending is the third stage of the three-stage process of stream 
processing, which includes data extraction, data processing, and data sending. 
The data sending plugin (PipeSink) is responsible for sending the various 
events processed by the data processing plugin (PipeProcessor). It serves as 
the network implementation layer of the stream processing framework and should 
support multiple real-time communication protocols and connectors in its 
interface.
 
 ```java
 /**
diff --git a/src/zh/UserGuide/Master/Tree/User-Manual/Streaming_apache.md 
b/src/zh/UserGuide/Master/Tree/User-Manual/Streaming_apache.md
index fa974851..ef5c0f4d 100644
--- a/src/zh/UserGuide/Master/Tree/User-Manual/Streaming_apache.md
+++ b/src/zh/UserGuide/Master/Tree/User-Manual/Streaming_apache.md
@@ -133,8 +133,7 @@ public interface TsFileInsertionEvent extends Event {
 
 #### 数据抽取插件接口
 
-数据抽取是流处理数据从数据抽取到数据发送三阶段的第一阶段。数据抽取插件(PipeSource)是流处理引擎和存储引擎的桥梁,它通过监听存储引擎的行为,
-捕获各种数据写入事件。
+数据抽取是流处理数据从数据抽取到数据发送三阶段的第一阶段。数据抽取插件(PipeSource)是流处理引擎和存储引擎的桥梁,它通过监听存储引擎的行为,捕获各种数据写入事件。
 
 ```java
 /**
@@ -214,8 +213,7 @@ public interface PipeSource extends PipePlugin {
 
 #### 数据处理插件接口
 
-数据处理是流处理数据从数据抽取到数据发送三阶段的第二阶段。数据处理插件(PipeProcessor)主要用于过滤和转换由数据抽取插件(PipeSource)捕获的
-各种事件。
+数据处理是流处理数据从数据抽取到数据发送三阶段的第二阶段。数据处理插件(PipeProcessor)主要用于过滤和转换由数据抽取插件(PipeSource)捕获的各种事件。
 
 ```java
 /**
@@ -315,8 +313,7 @@ public interface PipeProcessor extends PipePlugin {
 
 #### 数据发送插件接口
 
-数据发送是流处理数据从数据抽取到数据发送三阶段的第三阶段。数据发送插件(PipeSink)主要用于发送经由数据处理插件(PipeProcessor)处理过后的
-各种事件,它作为流处理框架的网络实现层,接口上应允许接入多种实时通信协议和多种连接器。
+数据发送是流处理数据从数据抽取到数据发送三阶段的第三阶段。数据发送插件(PipeSink)主要用于发送经由数据处理插件(PipeProcessor)处理过后的各种事件,它作为流处理框架的网络实现层,接口上应允许接入多种实时通信协议和多种连接器。
 
 ```java
 /**
@@ -445,8 +442,7 @@ public interface PipeSink extends PipePlugin {
 
 ### 2.1 加载插件语句
 
-在 IoTDB 中,若要在系统中动态载入一个用户自定义插件,则首先需要基于 PipeSource、 PipeProcessor 或者 PipeSink 
实现一个具体的插件类,
-然后需要将插件类编译打包成 jar 可执行文件,最后使用加载插件的管理语句将插件载入 IoTDB。
+在 IoTDB 中,若要在系统中动态载入一个用户自定义插件,则首先需要基于 PipeSource、 PipeProcessor 或者 PipeSink 
实现一个具体的插件类,然后需要将插件类编译打包成 jar 可执行文件,最后使用加载插件的管理语句将插件载入 IoTDB。
 
 加载插件的管理语句的语法如图所示。
 
@@ -458,9 +454,7 @@ USING <JAR 包的 URI>
 
 **IF NOT EXISTS 语义**:用于创建操作中,确保当指定 Pipe Plugin 不存在时,执行创建命令,防止因尝试创建已存在的 Pipe 
Plugin 而导致报错。
 
-例如,用户实现了一个全类名为 edu.tsinghua.iotdb.pipe.ExampleProcessor 的数据处理插件,
-打包后的 jar 资源包存放到了 https://example.com:8080/iotdb/pipe-plugin.jar 
上,用户希望在流处理引擎中使用这个插件,
-将插件标记为 example。那么,这个数据处理插件的创建语句如图所示。
+例如,用户实现了一个全类名为 edu.tsinghua.iotdb.pipe.ExampleProcessor 的数据处理插件,打包后的 jar 
资源包存放到了 https://example.com:8080/iotdb/pipe-plugin.jar 
上,用户希望在流处理引擎中使用这个插件,将插件标记为 example。那么,这个数据处理插件的创建语句如图所示。
 
 ```sql
 CREATE PIPEPLUGIN IF NOT EXISTS example
diff --git a/src/zh/UserGuide/Master/Tree/User-Manual/Streaming_timecho.md 
b/src/zh/UserGuide/Master/Tree/User-Manual/Streaming_timecho.md
index a71bc736..a5944ef7 100644
--- a/src/zh/UserGuide/Master/Tree/User-Manual/Streaming_timecho.md
+++ b/src/zh/UserGuide/Master/Tree/User-Manual/Streaming_timecho.md
@@ -133,8 +133,7 @@ public interface TsFileInsertionEvent extends Event {
 
 #### 数据抽取插件接口
 
-数据抽取是流处理数据从数据抽取到数据发送三阶段的第一阶段。数据抽取插件(PipeSource)是流处理引擎和存储引擎的桥梁,它通过监听存储引擎的行为,
-捕获各种数据写入事件。
+数据抽取是流处理数据从数据抽取到数据发送三阶段的第一阶段。数据抽取插件(PipeSource)是流处理引擎和存储引擎的桥梁,它通过监听存储引擎的行为,捕获各种数据写入事件。
 
 ```java
 /**
@@ -214,8 +213,7 @@ public interface PipeSource extends PipePlugin {
 
 #### 数据处理插件接口
 
-数据处理是流处理数据从数据抽取到数据发送三阶段的第二阶段。数据处理插件(PipeProcessor)主要用于过滤和转换由数据抽取插件(PipeSource)捕获的
-各种事件。
+数据处理是流处理数据从数据抽取到数据发送三阶段的第二阶段。数据处理插件(PipeProcessor)主要用于过滤和转换由数据抽取插件(PipeSource)捕获的各种事件。
 
 ```java
 /**
@@ -315,8 +313,7 @@ public interface PipeProcessor extends PipePlugin {
 
 #### 数据发送插件接口
 
-数据发送是流处理数据从数据抽取到数据发送三阶段的第三阶段。数据发送插件(PipeSink)主要用于发送经由数据处理插件(PipeProcessor)处理过后的
-各种事件,它作为流处理框架的网络实现层,接口上应允许接入多种实时通信协议和多种连接器。
+数据发送是流处理数据从数据抽取到数据发送三阶段的第三阶段。数据发送插件(PipeSink)主要用于发送经由数据处理插件(PipeProcessor)处理过后的各种事件,它作为流处理框架的网络实现层,接口上应允许接入多种实时通信协议和多种连接器。
 
 ```java
 /**
@@ -445,8 +442,7 @@ public interface PipeSink extends PipePlugin {
 
 ### 2.1 加载插件语句
 
-在 IoTDB 中,若要在系统中动态载入一个用户自定义插件,则首先需要基于 PipeSource、 PipeProcessor 或者 PipeSink 
实现一个具体的插件类,
-然后需要将插件类编译打包成 jar 可执行文件,最后使用加载插件的管理语句将插件载入 IoTDB。
+在 IoTDB 中,若要在系统中动态载入一个用户自定义插件,则首先需要基于 PipeSource、 PipeProcessor 或者 PipeSink 
实现一个具体的插件类,然后需要将插件类编译打包成 jar 可执行文件,最后使用加载插件的管理语句将插件载入 IoTDB。
 
 加载插件的管理语句的语法如图所示。
 
diff --git a/src/zh/UserGuide/latest/User-Manual/Streaming_apache.md 
b/src/zh/UserGuide/latest/User-Manual/Streaming_apache.md
index fa974851..ef5c0f4d 100644
--- a/src/zh/UserGuide/latest/User-Manual/Streaming_apache.md
+++ b/src/zh/UserGuide/latest/User-Manual/Streaming_apache.md
@@ -133,8 +133,7 @@ public interface TsFileInsertionEvent extends Event {
 
 #### 数据抽取插件接口
 
-数据抽取是流处理数据从数据抽取到数据发送三阶段的第一阶段。数据抽取插件(PipeSource)是流处理引擎和存储引擎的桥梁,它通过监听存储引擎的行为,
-捕获各种数据写入事件。
+数据抽取是流处理数据从数据抽取到数据发送三阶段的第一阶段。数据抽取插件(PipeSource)是流处理引擎和存储引擎的桥梁,它通过监听存储引擎的行为,捕获各种数据写入事件。
 
 ```java
 /**
@@ -214,8 +213,7 @@ public interface PipeSource extends PipePlugin {
 
 #### 数据处理插件接口
 
-数据处理是流处理数据从数据抽取到数据发送三阶段的第二阶段。数据处理插件(PipeProcessor)主要用于过滤和转换由数据抽取插件(PipeSource)捕获的
-各种事件。
+数据处理是流处理数据从数据抽取到数据发送三阶段的第二阶段。数据处理插件(PipeProcessor)主要用于过滤和转换由数据抽取插件(PipeSource)捕获的各种事件。
 
 ```java
 /**
@@ -315,8 +313,7 @@ public interface PipeProcessor extends PipePlugin {
 
 #### 数据发送插件接口
 
-数据发送是流处理数据从数据抽取到数据发送三阶段的第三阶段。数据发送插件(PipeSink)主要用于发送经由数据处理插件(PipeProcessor)处理过后的
-各种事件,它作为流处理框架的网络实现层,接口上应允许接入多种实时通信协议和多种连接器。
+数据发送是流处理数据从数据抽取到数据发送三阶段的第三阶段。数据发送插件(PipeSink)主要用于发送经由数据处理插件(PipeProcessor)处理过后的各种事件,它作为流处理框架的网络实现层,接口上应允许接入多种实时通信协议和多种连接器。
 
 ```java
 /**
@@ -445,8 +442,7 @@ public interface PipeSink extends PipePlugin {
 
 ### 2.1 加载插件语句
 
-在 IoTDB 中,若要在系统中动态载入一个用户自定义插件,则首先需要基于 PipeSource、 PipeProcessor 或者 PipeSink 
实现一个具体的插件类,
-然后需要将插件类编译打包成 jar 可执行文件,最后使用加载插件的管理语句将插件载入 IoTDB。
+在 IoTDB 中,若要在系统中动态载入一个用户自定义插件,则首先需要基于 PipeSource、 PipeProcessor 或者 PipeSink 
实现一个具体的插件类,然后需要将插件类编译打包成 jar 可执行文件,最后使用加载插件的管理语句将插件载入 IoTDB。
 
 加载插件的管理语句的语法如图所示。
 
@@ -458,9 +454,7 @@ USING <JAR 包的 URI>
 
 **IF NOT EXISTS 语义**:用于创建操作中,确保当指定 Pipe Plugin 不存在时,执行创建命令,防止因尝试创建已存在的 Pipe 
Plugin 而导致报错。
 
-例如,用户实现了一个全类名为 edu.tsinghua.iotdb.pipe.ExampleProcessor 的数据处理插件,
-打包后的 jar 资源包存放到了 https://example.com:8080/iotdb/pipe-plugin.jar 
上,用户希望在流处理引擎中使用这个插件,
-将插件标记为 example。那么,这个数据处理插件的创建语句如图所示。
+例如,用户实现了一个全类名为 edu.tsinghua.iotdb.pipe.ExampleProcessor 的数据处理插件,打包后的 jar 
资源包存放到了 https://example.com:8080/iotdb/pipe-plugin.jar 
上,用户希望在流处理引擎中使用这个插件,将插件标记为 example。那么,这个数据处理插件的创建语句如图所示。
 
 ```sql
 CREATE PIPEPLUGIN IF NOT EXISTS example
diff --git a/src/zh/UserGuide/latest/User-Manual/Streaming_timecho.md 
b/src/zh/UserGuide/latest/User-Manual/Streaming_timecho.md
index a71bc736..a5944ef7 100644
--- a/src/zh/UserGuide/latest/User-Manual/Streaming_timecho.md
+++ b/src/zh/UserGuide/latest/User-Manual/Streaming_timecho.md
@@ -133,8 +133,7 @@ public interface TsFileInsertionEvent extends Event {
 
 #### 数据抽取插件接口
 
-数据抽取是流处理数据从数据抽取到数据发送三阶段的第一阶段。数据抽取插件(PipeSource)是流处理引擎和存储引擎的桥梁,它通过监听存储引擎的行为,
-捕获各种数据写入事件。
+数据抽取是流处理数据从数据抽取到数据发送三阶段的第一阶段。数据抽取插件(PipeSource)是流处理引擎和存储引擎的桥梁,它通过监听存储引擎的行为,捕获各种数据写入事件。
 
 ```java
 /**
@@ -214,8 +213,7 @@ public interface PipeSource extends PipePlugin {
 
 #### 数据处理插件接口
 
-数据处理是流处理数据从数据抽取到数据发送三阶段的第二阶段。数据处理插件(PipeProcessor)主要用于过滤和转换由数据抽取插件(PipeSource)捕获的
-各种事件。
+数据处理是流处理数据从数据抽取到数据发送三阶段的第二阶段。数据处理插件(PipeProcessor)主要用于过滤和转换由数据抽取插件(PipeSource)捕获的各种事件。
 
 ```java
 /**
@@ -315,8 +313,7 @@ public interface PipeProcessor extends PipePlugin {
 
 #### 数据发送插件接口
 
-数据发送是流处理数据从数据抽取到数据发送三阶段的第三阶段。数据发送插件(PipeSink)主要用于发送经由数据处理插件(PipeProcessor)处理过后的
-各种事件,它作为流处理框架的网络实现层,接口上应允许接入多种实时通信协议和多种连接器。
+数据发送是流处理数据从数据抽取到数据发送三阶段的第三阶段。数据发送插件(PipeSink)主要用于发送经由数据处理插件(PipeProcessor)处理过后的各种事件,它作为流处理框架的网络实现层,接口上应允许接入多种实时通信协议和多种连接器。
 
 ```java
 /**
@@ -445,8 +442,7 @@ public interface PipeSink extends PipePlugin {
 
 ### 2.1 加载插件语句
 
-在 IoTDB 中,若要在系统中动态载入一个用户自定义插件,则首先需要基于 PipeSource、 PipeProcessor 或者 PipeSink 
实现一个具体的插件类,
-然后需要将插件类编译打包成 jar 可执行文件,最后使用加载插件的管理语句将插件载入 IoTDB。
+在 IoTDB 中,若要在系统中动态载入一个用户自定义插件,则首先需要基于 PipeSource、 PipeProcessor 或者 PipeSink 
实现一个具体的插件类,然后需要将插件类编译打包成 jar 可执行文件,最后使用加载插件的管理语句将插件载入 IoTDB。
 
 加载插件的管理语句的语法如图所示。
 

Reply via email to