This is an automated email from the ASF dual-hosted git repository.
dataroaring pushed a commit to branch master
in repository https://gitbox.apache.org/repos/asf/doris-website.git
The following commit(s) were added to refs/heads/master by this push:
new 4f2c8cabff9 [typo](docs) some chinese/english typos for dev/3.x/4.x
(#3378)
4f2c8cabff9 is described below
commit 4f2c8cabff99c5655e6c72f0548c92db5a6948c8
Author: Yongqiang YANG <[email protected]>
AuthorDate: Tue Feb 10 14:15:20 2026 -0800
[typo](docs) some chinese/english typos for dev/3.x/4.x (#3378)
## Summary
- Reapply the typo fixes from #1769 for `dev`, `3.x`, and `4.x`.
- Fix `kakfa`/`Kakfa` -> `kafka`/`Kafka` in Chinese import docs and
community trino connector guides (EN/ZH).
- Fix wording in Chinese EXPLAIN docs: `具体方式先下表` -> `具体方式见下表`.
## Scope Check (dev / 3.x / 4.x)
- [x] Checked English docs
- [x] Checked Chinese docs
## Versions
- [x] dev
- [x] 4.x
- [x] 3.x
- [ ] 2.1
- [ ] 2.0
## Languages
- [x] Chinese
- [x] English
## Reference
- Original PR: https://github.com/apache/doris-website/pull/1769
---------
Co-authored-by: daveyyan <[email protected]>
Co-authored-by: Copilot <[email protected]>
---
community/how-to-contribute/trino-connector-developer-guide.md | 5 ++---
.../current/how-to-contribute/trino-connector-developer-guide.md | 5 ++---
.../current/data-operate/import/import-way/routine-load-manual.md | 3 +--
.../current/data-operate/import/load-manual.md | 2 +-
.../current/sql-manual/sql-statements/data-query/EXPLAIN.md | 4 ++--
.../data-operate/import/import-way/routine-load-manual.md | 3 +--
.../version-3.x/data-operate/import/load-manual.md | 2 +-
.../version-3.x/sql-manual/sql-statements/data-query/EXPLAIN.md | 4 ++--
.../data-operate/import/import-way/routine-load-manual.md | 3 +--
.../version-4.x/data-operate/import/load-manual.md | 2 +-
.../version-4.x/sql-manual/sql-statements/data-query/EXPLAIN.md | 4 ++--
11 files changed, 16 insertions(+), 21 deletions(-)
diff --git a/community/how-to-contribute/trino-connector-developer-guide.md
b/community/how-to-contribute/trino-connector-developer-guide.md
index 1167115c29b..a91b244448b 100644
--- a/community/how-to-contribute/trino-connector-developer-guide.md
+++ b/community/how-to-contribute/trino-connector-developer-guide.md
@@ -39,7 +39,7 @@ The following takes Trino's kafka Connector plugin as an
example to introduce in
> Note: Trino is an Apache License 2.0 protocol open source software provided
> by [Trino Software Foundation](https://trino.io/foundation). For details,
> please visit [Trino official website](https://trino.io/docs/current/).
-## Step 1: Compile Kakfa connector plugin
+## Step 1: Compile Kafka connector plugin
Trino does not provide officially compiled connector plugins, so we need to
compile the required connector plugins ourselves.
@@ -82,7 +82,7 @@ After completing the previous two steps, we can use the
Trino-Connector Catalog
```sql
create catalog kafka_tpch properties (
"type"="trino-connector",
- -- The following four properties are derived from trino and are
consistent with the properties in etc/catalog/kakfa.properties of trino. But
need to add "trino." prefix
+ -- The following four properties are derived from trino and are
consistent with the properties in etc/catalog/kafka.properties of trino. But
need to add "trino." prefix
"trino.connector.name"="kafka",
"trino.kafka.table-names"="tpch.customer,tpch.orders,tpch.lineitem,tpch.part,tpch.partsupp,tpch.supplier,tpch.nation,tpch.region",
"trino.kafka.nodes"="localhost:9092",
@@ -154,4 +154,3 @@ The following are the Doris Trino-Connector catalog
configuration of several com
"trino.bigquery.credentials-file"="/path/to/application_default_credentials.json"
);
```
-
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs-community/current/how-to-contribute/trino-connector-developer-guide.md
b/i18n/zh-CN/docusaurus-plugin-content-docs-community/current/how-to-contribute/trino-connector-developer-guide.md
index 3f27d007b1f..76fc6b7c75e 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs-community/current/how-to-contribute/trino-connector-developer-guide.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs-community/current/how-to-contribute/trino-connector-developer-guide.md
@@ -37,7 +37,7 @@ Trino Connector 兼容框架的目的在于帮助 Doris 快速对接更多的数
> 注:Trino 是一款由 [Trino 软件基金会](https://trino.io/foundation) 提供的 Apache License
> 2.0 协议开源软件,详情可访问 [Trino 官网](https://trino.io/docs/current/)。
-## Step 1:编译 Kakfa Connector 插件
+## Step 1:编译 Kafka Connector 插件
Trino 没有提供官方编译好的 Connector 插件,所以需要我们自己编译所需 Connector 插件。
@@ -81,7 +81,7 @@ Trino 没有提供官方编译好的 Connector 插件,所以需要我们自己
```sql
create catalog kafka_tpch properties (
"type"="trino-connector",
- -- 下面这四个属性来源于 trino,与 trino 的 etc/catalog/kakfa.properties
中的属性一致。但需要统一增加 "trino." 前缀
+ -- 下面这四个属性来源于 trino,与 trino 的 etc/catalog/kafka.properties
中的属性一致。但需要统一增加 "trino." 前缀
"trino.connector.name"="kafka",
"trino.kafka.table-names"="tpch.customer,tpch.orders,tpch.lineitem,tpch.part,tpch.partsupp,tpch.supplier,tpch.nation,tpch.region",
"trino.kafka.nodes"="localhost:9092",
@@ -153,4 +153,3 @@ Trino 没有提供官方编译好的 Connector 插件,所以需要我们自己
"trino.bigquery.credentials-file"="/path/to/application_default_credentials.json"
);
```
-
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/import-way/routine-load-manual.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/import-way/routine-load-manual.md
index 4c5611fd5a3..bc0594a455b 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/import-way/routine-load-manual.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/import-way/routine-load-manual.md
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
| kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
| kafka_topic | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
| kafka_partitions | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets | 待消费的 Kakfa Partition
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END:
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END`
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" =
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets | 待消费的 Kafka Partition
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END:
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END`
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" =
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
| property | 指定自定义 kafka 参数。功能等同于 kafka shell 中 "--property" 参数。当参数的
Value 为一个文件时,需要在 Value 前加上关键词:"FILE:"。创建文件可以参考 [CREATE
FILE](../../../sql-manual/sql-statements/security/CREATE-FILE)
命令文档。更多支持的自定义参数,可以参考 librdkafka 的官方
[CONFIGURATION](https://github.com/confluentinc/librdkafka/blob/master/CONFIGURATION.md)
文档中,client 端的配置项。如:`"property.client.id" = "12345"`、`"property.group.id" =
"group_id_0"`、`"property.ssl.ca.location" = "FILE:ca.pem"`。 |
通过配置 data_source_properties 中的 kafka property 参数,可以配置安全访问选项。目前 Doris 支持多种
Kafka 安全协议,如 plaintext(默认)、SSL、PLAIN、Kerberos 等。
@@ -1850,4 +1850,3 @@ FROM KAFKA (
## 更多帮助
参考 SQL 手册 [Routine
Load](../../../sql-manual/sql-statements/data-modification/load-and-export/CREATE-ROUTINE-LOAD)。也可以在客户端命令行下输入
`HELP ROUTINE LOAD` 获取更多帮助信息。
-
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/load-manual.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/load-manual.md
index 79edf02560f..2a811cc0fd5 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/load-manual.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/load-manual.md
@@ -50,6 +50,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
| [Broker Load](./import-way/broker-load-manual.md) | 从对象存储、HDFS 等导入
| csv、json、parquet、orc | 异步 |
| [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 |
SQL | 同步 |
| [INSERT INTO SELECT](./import-way/insert-into-manual.md) |
可以导入外部表或者对象存储、HDFS 中的文件 | SQL | 同步 |
-| [Routine Load](./import-way/routine-load-manual.md) | 从 kakfa 实时导入
| csv、json | 异步 |
+| [Routine Load](./import-way/routine-load-manual.md) | 从 Kafka 实时导入
| csv、json | 异步 |
| [MySQL Load](./import-way/mysql-load-manual.md) | 从本地数据导入
| csv | 同步 |
| [Group Commit](./group-commit-manual.md) | 高频小批量导入
| 根据使用的导入方式而定 | - |
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/sql-manual/sql-statements/data-query/EXPLAIN.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/sql-manual/sql-statements/data-query/EXPLAIN.md
index be750db3e85..376f050b2c0 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/sql-manual/sql-statements/data-query/EXPLAIN.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/sql-manual/sql-statements/data-query/EXPLAIN.md
@@ -109,7 +109,7 @@ Doris EXPLAIN 语句的结果是一个完整的 PLAN。PLAN 内部是按照执
| :----------------- | :--------------------------------------- |
| PARTITION | 展示当前 Fragment 的数据分布情况 |
| HAS_COLO_PLAN_NODE | 当前 fragment 中是否存在 colocate 的算子 |
-| Sink | fragment 数据输出的方式,具体方式先下表 |
+| Sink | fragment 数据输出的方式,具体方式见下表 |
Sink 方式
@@ -398,4 +398,4 @@ TupleDescriptor{id=0, tbl=t1}
| :------------ | :-------------------------------------- |
| order by | 排序的键,以及具体的排序顺序 |
| TOPN OPT | 命中 topn runtime filter 优化时有此字段 |
-| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段 |
\ No newline at end of file
+| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段 |
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/import-way/routine-load-manual.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/import-way/routine-load-manual.md
index 4c5611fd5a3..9c7c8ab550e 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/import-way/routine-load-manual.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/import-way/routine-load-manual.md
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
| kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
| kafka_topic | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
| kafka_partitions | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets | 待消费的 Kakfa Partition
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END:
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END`
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" =
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets | 待消费的 Kafka Partition
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END:
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END`
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个起始消费点,使用逗号分隔,如:`"kafka_offsets" =
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
| property | 指定自定义 kafka 参数。功能等同于 kafka shell 中 "--property" 参数。当参数的
Value 为一个文件时,需要在 Value 前加上关键词:"FILE:"。创建文件可以参考 [CREATE
FILE](../../../sql-manual/sql-statements/security/CREATE-FILE)
命令文档。更多支持的自定义参数,可以参考 librdkafka 的官方
[CONFIGURATION](https://github.com/confluentinc/librdkafka/blob/master/CONFIGURATION.md)
文档中,client 端的配置项。如:`"property.client.id" = "12345"`、`"property.group.id" =
"group_id_0"`、`"property.ssl.ca.location" = "FILE:ca.pem"`。 |
通过配置 data_source_properties 中的 kafka property 参数,可以配置安全访问选项。目前 Doris 支持多种
Kafka 安全协议,如 plaintext(默认)、SSL、PLAIN、Kerberos 等。
@@ -1850,4 +1850,3 @@ FROM KAFKA (
## 更多帮助
参考 SQL 手册 [Routine
Load](../../../sql-manual/sql-statements/data-modification/load-and-export/CREATE-ROUTINE-LOAD)。也可以在客户端命令行下输入
`HELP ROUTINE LOAD` 获取更多帮助信息。
-
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/load-manual.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/load-manual.md
index 89bcd56ee6b..6b89d50094c 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/load-manual.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/load-manual.md
@@ -45,6 +45,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
| [Broker Load](./import-way/broker-load-manual.md) | 从对象存储、HDFS 等导入
| csv、json、parquet、orc | 异步 |
| [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 |
SQL | 同步 |
| [INSERT INTO SELECT](./import-way/insert-into-manual.md) |
可以导入外部表或者对象存储、HDFS 中的文件 | SQL | 同步 |
-| [Routine Load](./import-way/routine-load-manual.md) | 从 kakfa 实时导入
| csv、json | 异步 |
+| [Routine Load](./import-way/routine-load-manual.md) | 从 Kafka 实时导入
| csv、json | 异步 |
| [MySQL Load](./import-way/mysql-load-manual.md) | 从本地数据导入
| csv | 同步 |
| [Group Commit](./group-commit-manual.md) | 高频小批量导入
| 根据使用的导入方式而定 | - |
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/sql-manual/sql-statements/data-query/EXPLAIN.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/sql-manual/sql-statements/data-query/EXPLAIN.md
index be750db3e85..376f050b2c0 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/sql-manual/sql-statements/data-query/EXPLAIN.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/sql-manual/sql-statements/data-query/EXPLAIN.md
@@ -109,7 +109,7 @@ Doris EXPLAIN 语句的结果是一个完整的 PLAN。PLAN 内部是按照执
| :----------------- | :--------------------------------------- |
| PARTITION | 展示当前 Fragment 的数据分布情况 |
| HAS_COLO_PLAN_NODE | 当前 fragment 中是否存在 colocate 的算子 |
-| Sink | fragment 数据输出的方式,具体方式先下表 |
+| Sink | fragment 数据输出的方式,具体方式见下表 |
Sink 方式
@@ -398,4 +398,4 @@ TupleDescriptor{id=0, tbl=t1}
| :------------ | :-------------------------------------- |
| order by | 排序的键,以及具体的排序顺序 |
| TOPN OPT | 命中 topn runtime filter 优化时有此字段 |
-| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段 |
\ No newline at end of file
+| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段 |
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/import-way/routine-load-manual.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/import-way/routine-load-manual.md
index 4c5611fd5a3..9c7c8ab550e 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/import-way/routine-load-manual.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/import-way/routine-load-manual.md
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
| kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
| kafka_topic | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
| kafka_partitions | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets | 待消费的 Kakfa Partition
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END:
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END`
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" =
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets | 待消费的 Kafka Partition
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END:
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END`
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个起始消费点,使用逗号分隔,如:`"kafka_offsets" =
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
| property | 指定自定义 kafka 参数。功能等同于 kafka shell 中 "--property" 参数。当参数的
Value 为一个文件时,需要在 Value 前加上关键词:"FILE:"。创建文件可以参考 [CREATE
FILE](../../../sql-manual/sql-statements/security/CREATE-FILE)
命令文档。更多支持的自定义参数,可以参考 librdkafka 的官方
[CONFIGURATION](https://github.com/confluentinc/librdkafka/blob/master/CONFIGURATION.md)
文档中,client 端的配置项。如:`"property.client.id" = "12345"`、`"property.group.id" =
"group_id_0"`、`"property.ssl.ca.location" = "FILE:ca.pem"`。 |
通过配置 data_source_properties 中的 kafka property 参数,可以配置安全访问选项。目前 Doris 支持多种
Kafka 安全协议,如 plaintext(默认)、SSL、PLAIN、Kerberos 等。
@@ -1850,4 +1850,3 @@ FROM KAFKA (
## 更多帮助
参考 SQL 手册 [Routine
Load](../../../sql-manual/sql-statements/data-modification/load-and-export/CREATE-ROUTINE-LOAD)。也可以在客户端命令行下输入
`HELP ROUTINE LOAD` 获取更多帮助信息。
-
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/load-manual.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/load-manual.md
index cecae72d1e9..560a068337e 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/load-manual.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/load-manual.md
@@ -46,6 +46,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
| [Broker Load](./import-way/broker-load-manual.md) | 从对象存储、HDFS 等导入
| csv、json、parquet、orc | 异步 |
| [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 |
SQL | 同步 |
| [INSERT INTO SELECT](./import-way/insert-into-manual.md) |
可以导入外部表或者对象存储、HDFS 中的文件 | SQL | 同步 |
-| [Routine Load](./import-way/routine-load-manual.md) | 从 kakfa 实时导入
| csv、json | 异步 |
+| [Routine Load](./import-way/routine-load-manual.md) | 从 Kafka 实时导入
| csv、json | 异步 |
| [MySQL Load](./import-way/mysql-load-manual.md) | 从本地数据导入
| csv | 同步 |
| [Group Commit](./group-commit-manual.md) | 高频小批量导入
| 根据使用的导入方式而定 | - |
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/sql-manual/sql-statements/data-query/EXPLAIN.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/sql-manual/sql-statements/data-query/EXPLAIN.md
index be750db3e85..376f050b2c0 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/sql-manual/sql-statements/data-query/EXPLAIN.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/sql-manual/sql-statements/data-query/EXPLAIN.md
@@ -109,7 +109,7 @@ Doris EXPLAIN 语句的结果是一个完整的 PLAN。PLAN 内部是按照执
| :----------------- | :--------------------------------------- |
| PARTITION | 展示当前 Fragment 的数据分布情况 |
| HAS_COLO_PLAN_NODE | 当前 fragment 中是否存在 colocate 的算子 |
-| Sink | fragment 数据输出的方式,具体方式先下表 |
+| Sink | fragment 数据输出的方式,具体方式见下表 |
Sink 方式
@@ -398,4 +398,4 @@ TupleDescriptor{id=0, tbl=t1}
| :------------ | :-------------------------------------- |
| order by | 排序的键,以及具体的排序顺序 |
| TOPN OPT | 命中 topn runtime filter 优化时有此字段 |
-| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段 |
\ No newline at end of file
+| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段 |
---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]