This is an automated email from the ASF dual-hosted git repository. vinoth pushed a commit to branch asf-site in repository https://gitbox.apache.org/repos/asf/incubator-hudi.git
The following commit(s) were added to refs/heads/asf-site by this push: new 609d5bf Travis CI build asf-site 609d5bf is described below commit 609d5bf8c3d0a1f4461ff2e4aa548daceedd11d2 Author: CI <ci...@hudi.apache.org> AuthorDate: Sat Apr 25 13:14:10 2020 +0000 Travis CI build asf-site --- content/assets/js/lunr/lunr-store.js | 2 +- content/cn/docs/quick-start-guide.html | 8 ++++---- 2 files changed, 5 insertions(+), 5 deletions(-) diff --git a/content/assets/js/lunr/lunr-store.js b/content/assets/js/lunr/lunr-store.js index 1d0335b..f690419 100644 --- a/content/assets/js/lunr/lunr-store.js +++ b/content/assets/js/lunr/lunr-store.js @@ -545,7 +545,7 @@ var store = [{ "url": "https://hudi.apache.org/docs/oss_hoodie.html", "teaser":"https://hudi.apache.org/assets/images/500x300.png"},{ "title": "Quick-Start Guide", - "excerpt":"本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新的Hudi默认存储类型数据集: 写时复制。每次写操作之后,我们还将展示如何读取快照和增量读取数据。 设置spark-shell Hudi适用于Spark-2.x版本。您可以按照此处的说明设置spark。 在提取的目录中,使用spark-shell运行Hudi: bin/spark-shell --packages org.apache.hudi:hudi-spark-bundle:0.5.0-incubating --conf 'spark.serializer=org.apache.spark.serializer.KryoSerializer' 设置表名、基本路径和数据生成器来为本指南生成记录。 import org.apache.hudi.QuickstartUtils._ import scala.collection.JavaConversions._ import org.apache.spark.sql. [...] + "excerpt":"本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新Hudi的默认存储类型数据集: 写时复制。每次写操作之后,我们还将展示如何读取快照和增量数据。 设置spark-shell Hudi适用于Spark-2.x版本。您可以按照此处的说明设置spark。 在提取的目录中,使用spark-shell运行Hudi: bin/spark-shell --packages org.apache.hudi:hudi-spark-bundle:0.5.0-incubating --conf 'spark.serializer=org.apache.spark.serializer.KryoSerializer' 设置表名、基本路径和数据生成器来为本指南生成记录。 import org.apache.hudi.QuickstartUtils._ import scala.collection.JavaConversions._ import org.apache.spark.sql.Sa [...] "tags": [], "url": "https://hudi.apache.org/cn/docs/quick-start-guide.html", "teaser":"https://hudi.apache.org/assets/images/500x300.png"},{ diff --git a/content/cn/docs/quick-start-guide.html b/content/cn/docs/quick-start-guide.html index 3dcd47b..f1bd106 100644 --- a/content/cn/docs/quick-start-guide.html +++ b/content/cn/docs/quick-start-guide.html @@ -4,7 +4,7 @@ <meta charset="utf-8"> <!-- begin _includes/seo.html --><title>Quick-Start Guide - Apache Hudi</title> -<meta name="description" content="本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新的Hudi默认存储类型数据集:写时复制。每次写操作之后,我们还将展示如何读取快照和增量读取数据。"> +<meta name="description" content="本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新Hudi的默认存储类型数据集:写时复制。每次写操作之后,我们还将展示如何读取快照和增量数据。"> <meta property="og:type" content="article"> <meta property="og:locale" content="en_US"> @@ -13,7 +13,7 @@ <meta property="og:url" content="https://hudi.apache.org/cn/docs/quick-start-guide.html"> - <meta property="og:description" content="本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新的Hudi默认存储类型数据集:写时复制。每次写操作之后,我们还将展示如何读取快照和增量读取数据。"> + <meta property="og:description" content="本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新Hudi的默认存储类型数据集:写时复制。每次写操作之后,我们还将展示如何读取快照和增量数据。"> @@ -346,8 +346,8 @@ </nav> </aside> - <p>本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新的Hudi默认存储类型数据集: -<a href="/cn/docs/concepts.html#copy-on-write-storage">写时复制</a>。每次写操作之后,我们还将展示如何读取快照和增量读取数据。</p> + <p>本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新Hudi的默认存储类型数据集: +<a href="/cn/docs/concepts.html#copy-on-write-storage">写时复制</a>。每次写操作之后,我们还将展示如何读取快照和增量数据。</p> <h2 id="设置spark-shell">设置spark-shell</h2> <p>Hudi适用于Spark-2.x版本。您可以按照<a href="https://spark.apache.org/downloads.html">此处</a>的说明设置spark。