Skip to content

Commit ea1acf0

Browse files
committed
machine translate
1 parent e5842d5 commit ea1acf0

File tree

26 files changed

+199
-199
lines changed

26 files changed

+199
-199
lines changed
Lines changed: 6 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -1,18 +1,18 @@
11
---
2-
title: Architecture
3-
linkTitle: 1. Architecture
2+
title: アーキテクチャ
3+
linkTitle: 1. アーキテクチャ
44
weight: 2
55
time: 5 minutes
66
---
77

8-
The Spring PetClinic Java application is a simple microservices application that consists of frontend and backend services. The frontend service is a Spring Boot application that serves a web interface to interact with backend services. The backend services are Spring Boot applications that serve RESTful API's to interact with a MySQL database.
8+
Spring PetClinic Java アプリケーションは、フロントエンドとバックエンドのサービスで構成されるシンプルなマイクロサービスアプリケーションです。フロントエンドサービスは、バックエンドサービスと対話するための Web インターフェースを提供する Spring Boot アプリケーションです。バックエンドサービスは、MySQL データベースと対話するための RESTful API を提供する Spring Boot アプリケーションです。
99

10-
By the end of this workshop, you will have a better understanding of how to enable **automatic discovery and configuration** for your Java-based applications running in Kubernetes.
10+
このワークショップを終えるころには、Kubernetes で実行される Java ベースのアプリケーション向けの**自動ディスカバリーおよび設定**を有効にする方法をより深く理解できるようになります。
1111

12-
The diagram below details the architecture of the Spring PetClinic Java application running in Kubernetes with the Splunk OpenTelemetry Operator and automatic discovery and configuration enabled.
12+
以下の図は、Splunk OpenTelemetry Operator と自動ディスカバリーおよび設定を有効にした状態で Kubernetes 上で実行される Spring PetClinic Java アプリケーションのアーキテクチャを詳しく示しています。
1313

1414
![Splunk Otel Architecture](../images/auto-instrumentation-java-diagram.png)
1515

1616
---
1717

18-
Based on the [**example**](https://github.com/signalfx/splunk-otel-collector-chart/blob/main/examples/enable-operator-and-auto-instrumentation/spring-petclinic-java.md) **Josh Voravong** created.
18+
**Josh Voravong** が作成した[**サンプル**](https://github.com/signalfx/splunk-otel-collector-chart/blob/main/examples/enable-operator-and-auto-instrumentation/spring-petclinic-java.md)に基づいています。

content/ja/ninja-workshops/1-automatic-discovery/2-petclinic-kubernetes/2-preparation/1-otel.md

Lines changed: 14 additions & 14 deletions
Original file line numberDiff line numberDiff line change
@@ -1,13 +1,13 @@
11
---
22

3-
title: Deploy the Splunk OpenTelemetry Collector
4-
linkTitle: 1. Deploy OpenTelemetry Collector
3+
title: Splunk OpenTelemetry Collector のデプロイ
4+
linkTitle: 1. OpenTelemetry Collector のデプロイ
55
weight: 1
66
---
77

8-
To get Observability signals (**metrics, traces** and **logs**) into **Splunk Observability Cloud** we need to deploy the Splunk OpenTelemetry Collector into the Kubernetes cluster.
8+
オブザーバビリティシグナル(**メトリクス、トレース****ログ**)を **Splunk Observability Cloud** に送信するには、Kubernetes クラスターに Splunk OpenTelemetry Collector をデプロイする必要があります。
99

10-
For this workshop, we will be using the Splunk OpenTelemetry Collector Helm Chart. First, we need to add the Helm chart repository to Helm and run `helm repo update` to ensure the latest version:
10+
このワークショップでは、Splunk OpenTelemetry Collector Helm Chart を使用します。まず、Helm chart リポジトリを Helm に追加し、`helm repo update` を実行して最新バージョンを確認します:
1111

1212
{{< tabs >}}
1313
{{% tab title="Install Helm Chart" %}}
@@ -33,12 +33,12 @@ Update Complete. ⎈Happy Helming!⎈
3333
{{% /tab %}}
3434
{{< /tabs >}}
3535

36-
**Splunk Observability Cloud** offers wizards in the UI to walk you through the setup of the OpenTelemetry Collector on Kubernetes, but in the interest of time, we will use the Helm install command below. Additional parameters are set to enable the operator for automatic discovery and configuration and code profiling.
36+
**Splunk Observability Cloud** では、Kubernetes 上での OpenTelemetry Collector のセットアップを案内する UI ウィザードが提供されていますが、時間の都合上、以下の Helm install コマンドを使用します。自動ディスカバリーおよび設定とコードプロファイリング用のオペレーターを有効にするための追加パラメータが設定されています。
3737

38-
* `--set="operator.enabled=true"` - this will install the OpenTelemetry operator that will be used to handle automatic discovery and configuration.
39-
* `--set="splunkObservability.profilingEnabled=true"` - this enables Code Profiling via the operator.
38+
* `--set="operator.enabled=true"` - 自動ディスカバリーおよび設定を処理するための OpenTelemetry オペレーターをインストールします。
39+
* `--set="splunkObservability.profilingEnabled=true"` - オペレーター経由でコードプロファイリングを有効にします。
4040

41-
To install the collector run the following command. Do **NOT** edit this:
41+
Collector をインストールするには、以下のコマンドを実行してください。これを編集**しないでください**
4242

4343
{{< tabs >}}
4444
{{% tab title="Helm Install" %}}
@@ -80,13 +80,13 @@ Splunk OpenTelemetry Collector is installed and configured to send data to Splun
8080
{{% /tab %}}
8181
{{< /tabs >}}
8282

83-
Ensure the Pods are reported as **Running** before continuing (this typically takes around 30 seconds).
83+
続行する前に、Pod が **Running** として報告されていることを確認してください(通常約30秒かかります)。
8484

8585
{{< tabs >}}
8686
{{% tab title="kubectl get pods" %}}
8787

8888
``` bash
89-
kubectl get pods | grep splunk-otel
89+
kubectl get pods | grep splunk-otel
9090
```
9191

9292
{{% /tab %}}
@@ -101,7 +101,7 @@ splunk-otel-collector-operator-69d476cb7-j7zwd 2/2 Running
101101
{{% /tab %}}
102102
{{< /tabs >}}
103103

104-
Ensure there are no errors reported by the Splunk OpenTelemetry Collector (press `ctrl + c` to exit) or use the installed **awesome** `k9s` terminal UI for bonus points!
104+
Splunk OpenTelemetry Collector からエラーが報告されていないことを確認してください(`ctrl + c` で終了)。または、インストール済みの**素晴らしい** `k9s` ターミナル UI を使用するとボーナスポイントです!
105105

106106
{{< tabs >}}
107107
{{% tab title="kubectl logs" %}}
@@ -129,9 +129,9 @@ kubectl logs -l app=splunk-otel-collector -f --container otel-collector
129129
{{% /tab %}}
130130
{{< /tabs >}}
131131

132-
>[!INFO] Deleting a failed installation
133-
>If you make an error installing the OpenTelemetry Collector you can start over by deleting the
134-
>installation with the following command:
132+
>[!INFO] 失敗したインストールの削除
133+
>OpenTelemetry Collector のインストールでエラーが発生した場合は、
134+
>以下のコマンドでインストールを削除してやり直すことができます:
135135
>
136136
>``` bash
137137
>helm delete splunk-otel-collector

content/ja/ninja-workshops/1-automatic-discovery/2-petclinic-kubernetes/2-preparation/2-petclinic.md

Lines changed: 9 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -1,10 +1,10 @@
11
---
2-
title: Deploy the PetClinic Application
3-
linkTitle: 2. Deploy PetClinic Application
2+
title: PetClinic アプリケーションのデプロイ
3+
linkTitle: 2. PetClinic アプリケーションのデプロイ
44
weight: 3
55
---
66

7-
The first deployment of our application will be using prebuilt containers to give this base scenario: a regular Java microservices-based application running in Kubernetes that we want to start observing. So let's deploy the application:
7+
アプリケーションの最初のデプロイメントでは、ビルド済みのコンテナを使用して、観測を開始したい Kubernetes で実行される通常の Java マイクロサービスベースのアプリケーションという基本シナリオを作成します。それでは、アプリケーションをデプロイしましょう:
88

99
{{< tabs >}}
1010
{{% tab title="kubectl apply" %}}
@@ -42,7 +42,7 @@ configmap/scriptfile created
4242
{{% /tab %}}
4343
{{< /tabs >}}
4444

45-
At this point, we can verify the deployment by checking that the Pods are running. The containers need to be downloaded and started, so this may take a couple of minutes.
45+
この時点で、Pod が実行されていることを確認してデプロイメントを検証できます。コンテナのダウンロードと起動が必要なため、数分かかる場合があります。
4646

4747
{{< tabs >}}
4848
{{% tab title="kubectl get pods" %}}
@@ -73,20 +73,20 @@ discovery-server-554b45cfb-bqhgt 1/1 Running
7373
{{% /tab %}}
7474
{{< /tabs >}}
7575

76-
Make sure the output of `kubectl get pods` matches the output as shown in the above Output tab. Ensure all the services are shown as **Running** (or use `k9s` to continuously monitor the status).
76+
`kubectl get pods` の出力が、上記の Output タブに示されている出力と一致することを確認してください。すべてのサービスが **Running** と表示されていることを確認してください(または `k9s` を使用してステータスを継続的に監視できます)。
7777

78-
To test the application, you need to obtain the public IP address of your instance. You can do this by running the following command:
78+
アプリケーションをテストするには、インスタンスのパブリック IP アドレスを取得する必要があります。以下のコマンドを実行して取得できます:
7979

8080
``` bash
8181
curl http://ifconfig.me
8282

8383
```
8484

85-
Validate if the application is running by visiting **http://<IP_ADDRESS>:81** (replace **<IP_ADDRESS>** with the IP address you obtained above). You should see the PetClinic application running. The application is also running on ports **80** & **443** if you prefer to use those or port **81** is unreachable.
85+
**http://<IP_ADDRESS>:81****<IP_ADDRESS>** を上記で取得した IP アドレスに置き換えてください)にアクセスして、アプリケーションが実行されていることを確認してください。PetClinic アプリケーションが実行されているのが確認できるはずです。アプリケーションはポート **80** **443** でも実行されているので、これらを使用するか、ポート **81** に到達できない場合はそちらを使用してください。
8686

8787
![Pet shop](../../images/petclinic.png)
8888

89-
Make sure the application is working correctly by visiting the **All Owners** **(1)** and **Veterinarians** **(2)** tabs, confirming that you see a list of names on each page.
89+
**All Owners** **(1)** タブと **Veterinarians** **(2)** タブにアクセスして、各ページに名前のリストが表示されることを確認し、アプリケーションが正しく動作していることを確認してください。
9090

9191
![Owners](../../images/petclinic-owners.png)
9292

@@ -117,4 +117,4 @@ curl -X GET http://localhost:9999/v2/_catalog
117117
118118
{{% /tab %}}
119119
{{< /tabs >}}
120-
-->
120+
-->

content/ja/ninja-workshops/1-automatic-discovery/2-petclinic-kubernetes/2-preparation/_index.md

Lines changed: 15 additions & 15 deletions
Original file line numberDiff line numberDiff line change
@@ -1,29 +1,29 @@
11
---
2-
title: Preparation of the Workshop instance
3-
linkTitle: 2. Preparation
2+
title: ワークショップインスタンスの準備
3+
linkTitle: 2. 準備
44
weight: 3
55
archetype: chapter
66
time: 15 minutes
77
---
88

9-
The instructor will provide you with the login information for the instance that we will be using during the workshop.
9+
インストラクターが、このワークショップで使用するインスタンスのログイン情報を提供します。
1010

11-
When you first log into your instance, you will be greeted by the Splunk Logo as shown below. If you have any issues connecting to your workshop instance, please reach out to your Instructor.
11+
インスタンスに初めてログインすると、以下のような Splunk ロゴが表示されます。ワークショップインスタンスへの接続に問題がある場合は、インストラクターにお問い合わせください。
1212

1313
``` text
1414
$ ssh -p 2222 splunk@<IP-ADDRESS>
1515
16-
███████╗██████╗ ██╗ ██╗ ██╗███╗ ██╗██╗ ██╗ ██╗
17-
██╔════╝██╔══██╗██║ ██║ ██║████╗ ██║██║ ██╔╝ ╚██╗
16+
███████╗██████╗ ██╗ ██╗ ██╗███╗ ██╗██╗ ██╗ ██╗
17+
██╔════╝██╔══██╗██║ ██║ ██║████╗ ██║██║ ██╔╝ ╚██╗
1818
███████╗██████╔╝██║ ██║ ██║██╔██╗ ██║█████╔╝ ╚██╗
1919
╚════██║██╔═══╝ ██║ ██║ ██║██║╚██╗██║██╔═██╗ ██╔╝
20-
███████║██║ ███████╗╚██████╔╝██║ ╚████║██║ ██╗ ██╔╝
21-
╚══════╝╚═╝ ╚══════╝ ╚═════╝ ╚═╝ ╚═══╝╚═╝ ╚═╝ ╚═╝
20+
███████║██║ ███████╗╚██████╔╝██║ ╚████║██║ ██╗ ██╔╝
21+
╚══════╝╚═╝ ╚══════╝ ╚═════╝ ╚═╝ ╚═══╝╚═╝ ╚═╝ ╚═╝
2222
Last login: Mon Feb 5 11:04:54 2024 from [Redacted]
2323
splunk@show-no-config-i-0d1b29d967cb2e6ff ~ $
2424
```
2525

26-
To ensure your instance is configured correctly, we need to confirm that the required environment variables for this workshop are set correctly. In your terminal, run the following script and check that the environment variables are present and set with actual valid values:
26+
インスタンスが正しく設定されていることを確認するために、このワークショップに必要な環境変数が正しく設定されているか確認する必要があります。ターミナルで以下のスクリプトを実行し、環境変数が存在し、実際の有効な値が設定されていることを確認してください:
2727

2828
{{< tabs >}}
2929
{{% tab title="Script" %}}
@@ -47,14 +47,14 @@ INSTANCE = <instance_name>
4747
{{% /tab %}}
4848
{{< /tabs >}}
4949

50-
Please make a note of the `INSTANCE` environment variable value as this will be used later to filter data in **Splunk Observability Cloud**.
50+
`INSTANCE` 環境変数の値をメモしておいてください。後で **Splunk Observability Cloud** でデータをフィルタリングする際に使用します。
5151

52-
For this workshop, **all** the above environment variables are required. If any have values missing, please contact your Instructor.
52+
このワークショップでは、上記の環境変数が**すべて**必要です。値が不足しているものがある場合は、インストラクターに連絡してください。
5353

54-
> [!SPLUNK] Delete any existing OpenTelemetry Collectors
55-
>If you have previously completed a Splunk Observability workshop using this EC2 instance, you
56-
>need to ensure that any existing installation of the Splunk OpenTelemetry Collector is
57-
>deleted. This can be achieved by running the following command:
54+
> [!SPLUNK] 既存の OpenTelemetry Collector の削除
55+
>この EC2 インスタンスを使用して以前に Splunk Observability ワークショップを完了している場合は、
56+
>既存の Splunk OpenTelemetry Collector のインストールが削除されていることを確認する必要があります。
57+
>これは以下のコマンドを実行することで行えます:
5858
>
5959
>``` bash
6060
>helm delete splunk-otel-collector
Lines changed: 9 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -1,28 +1,28 @@
11
---
2-
title: Verify Kubernetes Cluster metrics
3-
linkTitle: 3. Verify Cluster Metrics
2+
title: Kubernetes クラスターメトリクスの確認
3+
linkTitle: 3. クラスターメトリクスの確認
44
weight: 4
55
time: 10 minutes
66
---
77

8-
Once the installation has completed, you can log in to **Splunk Observability Cloud** and verify that the metrics are flowing in from your Kubernetes cluster.
8+
インストールが完了したら、**Splunk Observability Cloud** にログインして、Kubernetes クラスターからメトリクスが流れてきていることを確認できます。
99

10-
From the left-hand menu, click on **Infrastructure** and select **Kubernetes**, then select the **Kubernetes nodes** tile.
10+
左側のメニューから **Infrastructure** をクリックし、**Kubernetes** を選択してから、**Kubernetes nodes** タイルを選択します。
1111

1212
![NavigatorList](../images/navigatorlist.png)
1313

14-
Once you are in the **Kubernetes nodes** overview, change the **Time** filter from **-1h** to the last 15 minutes **(-15m)** to focus on the latest data, then select **Table** to list all the nodes that are reporting metrics.
14+
**Kubernetes nodes** の概要画面に入ったら、**Time** フィルタを **-1h** から過去15分 **(-15m)** に変更して最新のデータに焦点を当て、次に **Table** を選択してメトリクスを報告しているすべてのノードをリスト表示します。
1515

16-
Next, in the **Refine by:** panel, select **Cluster name** and choose your cluster from the list.
16+
次に、**Refine by:** パネルで **Cluster name** を選択し、リストからご自身のクラスターを選択します。
1717

1818
{{% notice title="Tip" style="info" icon="lightbulb" %}}
19-
To identify your specific cluster, use the `INSTANCE` value from the shell script output you ran during setup. This unique identifier helps you locate your workshop cluster among other nodes in the list.
19+
特定のクラスターを識別するには、セットアップ中に実行したシェルスクリプト出力の `INSTANCE` 値を使用してください。この一意の識別子により、リスト内の他のノードの中からワークショップクラスターを見つけることができます。
2020
{{% /notice %}}
2121

22-
This will filter the list to show only the nodes from your cluster.
22+
これにより、ご自身のクラスターのノードのみを表示するようにリストがフィルタリングされます。
2323

2424
![K8s Nodes](../images/k8s-nodes.png)
2525

26-
Switch to the **K8s node logs** view to see the logs from your nodes.
26+
**K8s node logs** ビューに切り替えて、ノードからのログを確認します。
2727

2828
![Logs](../images/k8s-peek-at-logs.png)

0 commit comments

Comments
 (0)