Skip to content

Commit ba1b191

Browse files
dzygoondzy
and
dzy
authored
[Doc][Improve]Add Support Chinese for start-v2/locally/quick-start-flink.md and start-v2/locally/quick-start-spark.md (apache#6412)
* [Doc][Improve]Add Support Chinese for start-v2/locally/quick-start-flink.md and start-v2/locally/quick-start-spark.md * [Doc][Improve]Fixed dead links issue * [Doc][Improve]Fixed word capitalization problem * [Doc][Improve]Modify some links to Chinese documents --------- Co-authored-by: dzy <[email protected]>
1 parent cc66020 commit ba1b191

File tree

2 files changed

+230
-0
lines changed

2 files changed

+230
-0
lines changed

Diff for: docs/zh/start-v2/locally/quick-start-flink.md

+112
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,112 @@
1+
---
2+
3+
sidebar_position: 3
4+
-------------------
5+
6+
# Flink Engine快速开始
7+
8+
## 步骤 1: 部署SeaTunnel及连接器
9+
10+
在开始前,请确保您已经按照[部署](deployment.md)中的描述下载并部署了SeaTunnel
11+
12+
## 步骤 2: 部署并配置Flink
13+
14+
请先[下载Flink](https://flink.apache.org/downloads.html)(**需要版本 >= 1.12.0**)。更多信息您可以查看[入门: standalone模式](https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/deployment/resource-providers/standalone/overview/)
15+
16+
**配置SeaTunnel**: 修改`config/seatunnel-env.sh`中的设置,它是基于你的引擎在[部署](deployment.md)时的安装路径。
17+
将`FLINK_HOME`修改为Flink的部署目录。
18+
19+
## 步骤 3: 添加作业配置文件来定义作业
20+
21+
编辑`config/v2.streaming.conf.template`,它决定了当seatunnel启动后数据输入、处理和输出的方式及逻辑。
22+
下面是配置文件的示例,它与上面提到的示例应用程序相同。
23+
24+
```hocon
25+
env {
26+
parallelism = 1
27+
job.mode = "BATCH"
28+
}
29+
30+
source {
31+
FakeSource {
32+
result_table_name = "fake"
33+
row.num = 16
34+
schema = {
35+
fields {
36+
name = "string"
37+
age = "int"
38+
}
39+
}
40+
}
41+
}
42+
43+
transform {
44+
FieldMapper {
45+
source_table_name = "fake"
46+
result_table_name = "fake1"
47+
field_mapper = {
48+
age = age
49+
name = new_name
50+
}
51+
}
52+
}
53+
54+
sink {
55+
Console {
56+
source_table_name = "fake1"
57+
}
58+
}
59+
60+
```
61+
62+
关于配置的更多信息请查看[配置的基本概念](../../../en/concept/config.md)
63+
64+
## 步骤 4: 运行SeaTunnel应用程序
65+
66+
您可以通过以下命令启动应用程序
67+
68+
Flink版本`1.12.x`到`1.14.x`
69+
70+
```shell
71+
cd "apache-seatunnel-${version}"
72+
./bin/start-seatunnel-flink-13-connector-v2.sh --config ./config/v2.streaming.conf.template
73+
```
74+
75+
Flink版本`1.15.x`到`1.16.x`
76+
77+
```shell
78+
cd "apache-seatunnel-${version}"
79+
./bin/start-seatunnel-flink-15-connector-v2.sh --config ./config/v2.streaming.conf.template
80+
```
81+
82+
**查看输出**: 当您运行该命令时,您可以在控制台中看到它的输出。您可以认为这是命令运行成功或失败的标志。
83+
84+
SeaTunnel控制台将会打印一些如下日志信息:
85+
86+
```shell
87+
fields : name, age
88+
types : STRING, INT
89+
row=1 : elWaB, 1984352560
90+
row=2 : uAtnp, 762961563
91+
row=3 : TQEIB, 2042675010
92+
row=4 : DcFjo, 593971283
93+
row=5 : SenEb, 2099913608
94+
row=6 : DHjkg, 1928005856
95+
row=7 : eScCM, 526029657
96+
row=8 : sgOeE, 600878991
97+
row=9 : gwdvw, 1951126920
98+
row=10 : nSiKE, 488708928
99+
row=11 : xubpl, 1420202810
100+
row=12 : rHZqb, 331185742
101+
row=13 : rciGD, 1112878259
102+
row=14 : qLhdI, 1457046294
103+
row=15 : ZTkRx, 1240668386
104+
row=16 : SGZCr, 94186144
105+
```
106+
107+
## 此外
108+
109+
现在,您已经快速浏览了SeaTunnel使用Flink引擎的方式,你可以通过在[连接器](/docs/category/connector-v2)中找到SeaTunnel所支持的所有source和sink。
110+
如果您想要了解更多关于SeaTunnel运行在Flink上的信息,请参阅[基于Flink的SeaTunnel](../../other-engine/flink.md)。
111+
112+
SeaTunnel有自己的名为`Zeta`的引擎,同时`Zeta`是SeaTunnel的默认引擎。您可以参考[快速开始](quick-start-seatunnel-engine.md)配置和运行数据同步作业。

Diff for: docs/zh/start-v2/locally/quick-start-spark.md

+118
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,118 @@
1+
---
2+
3+
sidebar_position: 4
4+
-------------------
5+
6+
# Spark引擎快速开始
7+
8+
## 步骤 1: 部署SeaTunnel及连接器
9+
10+
在开始前,请确保您已经按照[部署](deployment.md)中的描述下载并部署了SeaTunnel
11+
12+
## 步骤 2: 部署并配置Spark
13+
14+
请先[下载Spark](https://spark.apache.org/downloads.html)(**需要版本 >= 2.4.0**)。 更多信息您可以查看[入门: standalone模式](https://spark.apache.org/docs/latest/spark-standalone.html#installing-spark-standalone-to-a-cluster)
15+
16+
**配置SeaTunnel**: 修改`config/seatunnel-env.sh`中的设置,它是基于你的引擎在[部署](deployment.md)时的安装路径。
17+
将`SPARK_HOME`修改为Spark的部署目录。
18+
19+
## 步骤 3: 添加作业配置文件来定义作业
20+
21+
编辑`config/v2.streaming.conf.template`,它决定了当seatunnel启动后数据输入、处理和输出的方式及逻辑。
22+
下面是配置文件的示例,它与上面提到的示例应用程序相同。
23+
24+
```hocon
25+
env {
26+
parallelism = 1
27+
job.mode = "BATCH"
28+
}
29+
30+
source {
31+
FakeSource {
32+
result_table_name = "fake"
33+
row.num = 16
34+
schema = {
35+
fields {
36+
name = "string"
37+
age = "int"
38+
}
39+
}
40+
}
41+
}
42+
43+
transform {
44+
FieldMapper {
45+
source_table_name = "fake"
46+
result_table_name = "fake1"
47+
field_mapper = {
48+
age = age
49+
name = new_name
50+
}
51+
}
52+
}
53+
54+
sink {
55+
Console {
56+
source_table_name = "fake1"
57+
}
58+
}
59+
60+
```
61+
62+
关于配置的更多信息请查看[配置的基本概念](../../../en/concept/config.md)
63+
64+
## 步骤 4: 运行SeaTunnel应用程序
65+
66+
您可以通过以下命令启动应用程序
67+
68+
Spark 2.4.x
69+
70+
```bash
71+
cd "apache-seatunnel-${version}"
72+
./bin/start-seatunnel-spark-2-connector-v2.sh \
73+
--master local[4] \
74+
--deploy-mode client \
75+
--config ./config/v2.streaming.conf.template
76+
```
77+
78+
Spark 3.x.x
79+
80+
```shell
81+
cd "apache-seatunnel-${version}"
82+
./bin/start-seatunnel-spark-3-connector-v2.sh \
83+
--master local[4] \
84+
--deploy-mode client \
85+
--config ./config/v2.streaming.conf.template
86+
```
87+
88+
**查看输出**: 当您运行该命令时,您可以在控制台中看到它的输出。您可以认为这是命令运行成功或失败的标志。
89+
90+
SeaTunnel控制台将会打印一些如下日志信息:
91+
92+
```shell
93+
fields : name, age
94+
types : STRING, INT
95+
row=1 : elWaB, 1984352560
96+
row=2 : uAtnp, 762961563
97+
row=3 : TQEIB, 2042675010
98+
row=4 : DcFjo, 593971283
99+
row=5 : SenEb, 2099913608
100+
row=6 : DHjkg, 1928005856
101+
row=7 : eScCM, 526029657
102+
row=8 : sgOeE, 600878991
103+
row=9 : gwdvw, 1951126920
104+
row=10 : nSiKE, 488708928
105+
row=11 : xubpl, 1420202810
106+
row=12 : rHZqb, 331185742
107+
row=13 : rciGD, 1112878259
108+
row=14 : qLhdI, 1457046294
109+
row=15 : ZTkRx, 1240668386
110+
row=16 : SGZCr, 94186144
111+
```
112+
113+
## 此外
114+
115+
现在,您已经快速浏览了SeaTunnel使用Spark引擎的方式,你可以通过在[连接器](/docs/category/connector-v2)中找到SeaTunnel所支持的所有source和sink。
116+
如果您想要了解更多关于SeaTunnel运行在Spark上的信息,请参阅[基于Spark的SeaTunnel](../../../en/other-engine/spark.md)。
117+
118+
SeaTunnel有自己的名为`Zeta`的引擎,同时`Zeta`是SeaTunnel的默认引擎。您可以参考[快速开始](quick-start-seatunnel-engine.md)配置和运行数据同步作业。

0 commit comments

Comments
 (0)