Copilot commented on code in PR #3354:
URL: https://github.com/apache/doris-website/pull/3354#discussion_r2785260588


##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/load-manual.md:
##########
@@ -45,6 +45,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
 | [Broker Load](./import-way/broker-load-manual.md)        | 从对象存储、HDFS 等导入    
                 | csv、json、parquet、orc | 异步     |
 | [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | 
SQL                     | 同步     |
 | [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 
可以导入外部表或者对象存储、HDFS 中的文件      | SQL                     | 同步     |
-| [Routine Load](./import-way/routine-load-manual.md)      | 从 kakfa 实时导入      
                      | csv、json               | 异步     |
+| [Routine Load](./import-way/routine-load-manual.md)      | 从 kafka 实时导入      
                      | csv、json               | 异步     |

Review Comment:
   In this table row, “kafka” should be capitalized as “Kafka” to stay 
consistent with the wording above.
   ```suggestion
   | [Routine Load](./import-way/routine-load-manual.md)      | 从 Kafka 实时导入    
                        | csv、json               | 异步     |
   ```



##########
versioned_docs/version-4.x/query-data/window-function.md:
##########
@@ -707,4 +707,4 @@ curl --location-trusted \
 http://127.0.0.1:8030/api/doc_tpcds/customer_address/_stream_load
 ```
 
-The data files ``item_1_10.dat``, ``date-dim_1_10.dat``, ``store_stales.csv``, 
and ``customer-address_1_10.dat`` can be downloaded by clicking on the 
[link](https://cdn.selectdb.com/static/doc_ddl_dir_d27a752a7b.tar).
\ No newline at end of file
+The data files ``item_1_10.dat``, ``date-dim_1_10.dat``, ``store_stales.csv``, 
and ``customer-address_1_10.dat`` can be downloaded by clicking on the 
[link](https://cdn.selectdb.com/static/doc_ddl_dir_d27a752a7b.tar).

Review Comment:
   The summary sentence lists `store_stales.csv`, `date-dim_1_10.dat`, and 
`customer-address_1_10.dat`, but the Stream Load commands above use 
`store_sales.csv`, `date_dim_1_10.dat`, and `customer_address_1_10.dat`. Please 
align the filenames to avoid confusing readers.



##########
versioned_docs/version-3.x/benchmark/tpch.md:
##########
@@ -12,7 +12,7 @@ TPC-H is a decision support benchmark (Decision Support 
Benchmark), which consis
 
 This document mainly introduces the performance of Doris on the TPC-H 1000G 
test set.
 
-On 22 queries on the TPC-H standard test data set, we conducted a comparison 
test based on Apache Doris 3.0.3-rc03 (Compute-Storage Coupled Mode) and Apache 
Doris 2.1.7-rc03 versions. The performance of the integrated storage and 
computing mode in version 3.x is based on version 2.1.x
+On 22 queries on the TPC-H standard test data set, we conducted a comparison 
test based on Apache Doris 3.0.3-rc03 (Compute-Storage Decoupled Mode) and 
Apache Doris 2.1.7-rc03 versions. The performance of the integrated storage and 
computing mode in version 3.x is based on version 2.1.x

Review Comment:
   This sentence now says the benchmark was run in “Compute-Storage Decoupled 
Mode”, but the follow-up clause still refers to “the integrated storage and 
computing mode”. Please update the wording so the deployment mode terminology 
is consistent throughout the sentence (either change the clause to decoupled 
mode, or revert the mode name if that’s what was intended).



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/import-way/routine-load-manual.md:
##########
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
 | kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka 
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker 
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
 | kafka_topic       | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
 | kafka_partitions  | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets     | 待消费的 Kakfa Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets     | 待消费的 Kafka Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |

Review Comment:
   Typo: “可以指定多个其实消费点” should be “可以指定多个起始消费点”.



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/data-operate/import/load-manual.md:
##########
@@ -46,6 +46,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
 | [Broker Load](./import-way/broker-load-manual.md)        | 从对象存储、HDFS 等导入    
                 | csv、json、parquet、orc | 异步     |
 | [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | 
SQL                     | 同步     |
 | [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 
可以导入外部表或者对象存储、HDFS 中的文件      | SQL                     | 同步     |
-| [Routine Load](./import-way/routine-load-manual.md)      | 从 kakfa 实时导入      
                      | csv、json               | 异步     |
+| [Routine Load](./import-way/routine-load-manual.md)      | 从 kafka 实时导入      
                      | csv、json               | 异步     |

Review Comment:
   In this table row, “kafka” should be capitalized as “Kafka” for consistency 
with other mentions on the page.
   ```suggestion
   | [Routine Load](./import-way/routine-load-manual.md)      | 从 Kafka 实时导入    
                        | csv、json               | 异步     |
   ```



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/import-way/routine-load-manual.md:
##########
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
 | kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka 
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker 
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
 | kafka_topic       | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
 | kafka_partitions  | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets     | 待消费的 Kakfa Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets     | 待消费的 Kafka Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |

Review Comment:
   There’s a typo in “可以指定多个其实消费点”; it should be “可以指定多个起始消费点” (or otherwise 
align with the earlier “起始消费点” wording in the same sentence).



##########
versioned_docs/version-3.x/benchmark/tpcds.md:
##########
@@ -14,7 +14,7 @@ The design goal of TPC-DS is to simulate complex decision 
support workloads in t
 
 This document mainly introduces the performance of Doris on the TPC-DS 1000G 
test set.
 
-On 99 queries on the TPC-DS standard test data set, we conducted a comparison 
test based on Apache Doris 3.0.3-rc03 (Compute-Storage Coupled Mode) and Apache 
Doris 2.1.7-rc03 versions. The performance of the integrated storage and 
computing mode in version 3.x is based on version 2.1.x
+On 99 queries on the TPC-DS standard test data set, we conducted a comparison 
test based on Apache Doris 3.0.3-rc03 (Compute-Storage Decoupled Mode) and 
Apache Doris 2.1.7-rc03 versions. The performance of the integrated storage and 
computing mode in version 3.x is based on version 2.1.x

Review Comment:
   This sentence uses “Compute-Storage Decoupled Mode” but then refers to “the 
integrated storage and computing mode in version 3.x”. Please make the 
terminology consistent (update the clause to match decoupled mode, or adjust 
the mode label if integrated/coupled is intended).



##########
docs/query-data/window-function.md:
##########
@@ -707,4 +707,4 @@ curl --location-trusted \
 http://127.0.0.1:8030/api/doc_tpcds/customer_address/_stream_load
 ```
 
-The data files ``item_1_10.dat``, ``date-dim_1_10.dat``, ``store_stales.csv``, 
and ``customer-address_1_10.dat`` can be downloaded by clicking on the 
[link](https://cdn.selectdb.com/static/doc_ddl_dir_d27a752a7b.tar).
\ No newline at end of file
+The data files ``item_1_10.dat``, ``date-dim_1_10.dat``, ``store_stales.csv``, 
and ``customer-address_1_10.dat`` can be downloaded by clicking on the 
[link](https://cdn.selectdb.com/static/doc_ddl_dir_d27a752a7b.tar).

Review Comment:
   The summary sentence lists `store_stales.csv`, `date-dim_1_10.dat`, and 
`customer-address_1_10.dat`, but the Stream Load examples just above use 
`store_sales.csv`, `date_dim_1_10.dat`, and `customer_address_1_10.dat`. Please 
make the filenames consistent so readers download and load the correct files.
   ```suggestion
   The data files ``item_1_10.dat``, ``date_dim_1_10.dat``, 
``store_sales.csv``, and ``customer_address_1_10.dat`` can be downloaded by 
clicking on the 
[link](https://cdn.selectdb.com/static/doc_ddl_dir_d27a752a7b.tar).
   ```



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/data-operate/import/import-way/routine-load-manual.md:
##########
@@ -431,7 +431,7 @@ data_source_properties 子句具体参数选项如下:
 | kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka 
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker 
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
 | kafka_topic       | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
 | kafka_partitions  | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets     | 待消费的 Kakfa Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets     | 待消费的 Kafka Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |

Review Comment:
   Typo: “可以指定多个其实消费点” should be “可以指定多个起始消费点”.



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/import-way/routine-load-manual.md:
##########
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
 | kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka 
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker 
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
 | kafka_topic       | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
 | kafka_partitions  | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets     | 待消费的 Kakfa Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets     | 待消费的 Kafka Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |

Review Comment:
   Typo: “可以指定多个其实消费点” should be “可以指定多个起始消费点” to match the earlier “起始消费点” 
wording.



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-2.0/data-operate/import/routine-load-manual.md:
##########
@@ -452,7 +452,7 @@ data_source_properties 子句具体参数选项如下:
 | kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka 
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker 
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
 | kafka_topic       | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
 | kafka_partitions  | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets     | 待销费的 Kakfa Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<br />- OFFSET_BEGINNING: 从有数据的位置开始订阅。<br />- OFFSET_END: 
从末尾开始订阅。<br />- 时间格式,如:"2021-05-22 11:00:00" <br />如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。 <br />可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"` <br />注意,时间格式不能和 OFFSET 格式混用。 |
+| kafka_offsets     | 待销费的 Kafka Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<br />- OFFSET_BEGINNING: 从有数据的位置开始订阅。<br />- OFFSET_END: 
从末尾开始订阅。<br />- 时间格式,如:"2021-05-22 11:00:00" <br />如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。 <br />可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"` <br />注意,时间格式不能和 OFFSET 格式混用。 |

Review Comment:
   Typo: “待销费的 Kafka Partition” should be “待消费的 Kafka Partition”.



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/load-manual.md:
##########
@@ -50,6 +50,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
 | [Broker Load](./import-way/broker-load-manual.md)        | 从对象存储、HDFS 等导入    
                 | csv、json、parquet、orc | 异步     |
 | [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | 
SQL                     | 同步     |
 | [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 
可以导入外部表或者对象存储、HDFS 中的文件      | SQL                     | 同步     |
-| [Routine Load](./import-way/routine-load-manual.md)      | 从 kakfa 实时导入      
                      | csv、json               | 异步     |
+| [Routine Load](./import-way/routine-load-manual.md)      | 从 kafka 实时导入      
                      | csv、json               | 异步     |

Review Comment:
   In this table row, “kafka” should be capitalized as “Kafka” to match the 
terminology used elsewhere in this document (e.g., the paragraph above).
   ```suggestion
   | [Routine Load](./import-way/routine-load-manual.md)      | 从 Kafka 实时导入    
                        | csv、json               | 异步     |
   ```



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/load-manual.md:
##########
@@ -46,6 +46,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
 | [Broker Load](./import-way/broker-load-manual.md)        | 从对象存储、HDFS 等导入    
                 | csv、json、parquet、orc | 异步     |
 | [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | 
SQL                     | 同步     |
 | [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 
可以导入外部表或者对象存储、HDFS 中的文件      | SQL                     | 同步     |
-| [Routine Load](./import-way/routine-load-manual.md)      | 从 kakfa 实时导入      
                      | csv、json               | 异步     |
+| [Routine Load](./import-way/routine-load-manual.md)      | 从 kafka 实时导入      
                      | csv、json               | 异步     |

Review Comment:
   In this table row, “kafka” should be capitalized as “Kafka” for consistency 
with the rest of the page.
   ```suggestion
   | [Routine Load](./import-way/routine-load-manual.md)      | 从 Kafka 实时导入    
                        | csv、json               | 异步     |
   ```



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-2.0/data-operate/import/routine-load-manual.md:
##########
@@ -452,7 +452,7 @@ data_source_properties 子句具体参数选项如下:
 | kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka 
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker 
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
 | kafka_topic       | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
 | kafka_partitions  | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets     | 待销费的 Kakfa Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<br />- OFFSET_BEGINNING: 从有数据的位置开始订阅。<br />- OFFSET_END: 
从末尾开始订阅。<br />- 时间格式,如:"2021-05-22 11:00:00" <br />如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。 <br />可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"` <br />注意,时间格式不能和 OFFSET 格式混用。 |
+| kafka_offsets     | 待销费的 Kafka Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<br />- OFFSET_BEGINNING: 从有数据的位置开始订阅。<br />- OFFSET_END: 
从末尾开始订阅。<br />- 时间格式,如:"2021-05-22 11:00:00" <br />如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。 <br />可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"` <br />注意,时间格式不能和 OFFSET 格式混用。 |

Review Comment:
   Typo: “可以指定多个其实消费点” should be “可以指定多个起始消费点”.



-- 
This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

To unsubscribe, e-mail: [email protected]

For queries about this service, please contact Infrastructure at:
[email protected]


---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]

Reply via email to