Paragon Automationのインストールのトラブルシューティング
概要 以下のトピックを読んで、インストール中およびインストール後に発生する可能性のある一般的な問題のトラブルシューティング方法について説明します。
構成ファイルのマージの競合を解決する
init
スクリプトは、テンプレート構成ファイルを作成します。インストールに使用したのと同じ config-dir ディレクトリーを使用して既存のインストール済み環境を更新する場合、init
スクリプトが作成するテンプレート・ファイルは、既存の構成ファイルとマージされます。場合によっては、このマージ アクションによって、解決が必要なマージの競合が発生します。スクリプトは、競合を解決する方法についてプロンプトを表示します。プロンプトが表示されたら、次のいずれかのオプションを選択します。
-
C - 既存のコンフィギュレーション ファイルを保持し、新しいテンプレート ファイルを破棄できます。これはデフォルトのオプションです。
-
n:既存のコンフィギュレーション ファイルを破棄し、テンプレート ファイルを再初期化できます。
-
m - ファイルを手動でマージできます。競合するセクションは、"<<<<<<<<"、"||||||||"、"========"、および ">>>>>>>>" で始まる行でマークされます。更新を続行する前に、ファイルを編集し、差し込みマーカーを削除する必要があります。
-
d - 競合の解決方法を決定する前に、ファイル間の相違点を表示できます。
バックアップと復元に関する一般的な問題の解決
既存のクラスタを破棄し、同じクラスタ ノードにソフトウェア イメージを再展開するとします。このような場合、以前にバックアップした設定フォルダから設定を復元しようとすると、復元操作が失敗することがあります。バックアップされた構成のマウント パスが変更されているため、復元操作が失敗します。既存のクラスターを破棄すると、永続ボリュームは削除されます。新しいイメージを再デプロイすると、永続ボリュームは、使用可能な領域があるクラスター ノードの 1 つに再作成されますが、必ずしも以前と同じノードに存在する必要はありません。その結果、復元操作は失敗します。
これらのバックアップと復元の問題を回避するには:
-
新しい永続ボリュームのマウント パスを決定します。
-
以前の永続ボリュームのマウントパスの内容を新しいパスにコピーします。
-
復元操作を再試行します。
インストールログファイルの表示
deploy
スクリプトが失敗した場合は、config-dir ディレクトリー内のインストール・ログ・ファイルを確認する必要があります。既定では、config-dir ディレクトリには 6 つの圧縮されたログ ファイルが格納されます。現在のログ ファイルは log として保存され、以前のログ ファイルは log.1 から log.5 ファイルとして保存されます。deploy
スクリプトを実行するたびに、現在のログが保存され、最も古いログは破棄されます。
通常、エラー メッセージはログ ファイルの末尾にあります。エラー メッセージを表示し、構成を修正します。
キバナでログファイルを表示する
Open ディストリビューションを使用して、アプリケーション ログを統合し、インデックスを作成します。Kibana アプリケーションは、キーワードとフィルターを使用してログを検索するために使用できる視覚化ツールです。
Kibana アプリケーションでログを表示するには:
kubectl インターフェイスを使用したトラブルシューティング
kubectl(Kube Control)は、Kubernetes APIと対話するコマンドラインユーティリティであり、最も一般的なコマンドラインはKubernetesクラスターを制御するために使用されました。
kubectl コマンドは、インストール直後に 1 次ノードで発行できます。ワーカー ノードで kubectl コマンドを発行するには、 admin.conf ファイルをコピーして kubeconfig
環境変数を設定するか、 エクスポート KUBECONFIG=config-dir /admin.conf コマンドを使用する必要があります。 admin.conf ファイルは、インストール・プロセスの一環として、コントロール・ホストの config-dir ディレクトリーにコピーされます。
kubectl コマンド ライン ツールを使用して、Kubernetes API と通信し、ノード、ポッド、サービスなどの API リソースに関する情報の取得、ログ ファイルの表示、およびそれらのリソースの作成、削除、または変更を行います。
kubectl コマンドの構文は次のとおりです。
kubectl [command] [TYPE] [NAME] [flags]
[command]
は単に実行するアクションです。
次のコマンドを使用して、kubectl コマンドのリストを表示できます。
root@primary-node:/# kubectl [enter]
詳細を取得し、特定のコマンドに関連付けられているすべてのフラグとオプションを一覧表示するために、ヘルプを求めることができます。例えば:
root@primary-node:/# kubectl get -h
Paragon Automationでの動作を確認およびトラブルシューティングするには、以下のコマンドを使用します。
[コマンド] | 説明 |
---|---|
取得 | 1 つまたは複数のリソースを表示します。 出力には、指定されたリソースに関する最も重要な情報のテーブルが表示されます。 |
写す | 特定のリソースまたはリソースのグループの詳細を表示します。 |
説明する | リソースのドキュメント。 |
ログ | ポッド内のコンテナーのログを出力します。 |
ロールアウトの再開 | リソースのロールアウトを管理します。 |
編集 | リソースを編集します。 |
[TYPE]
表示するリソースの種類を表します。リソースの種類では大文字と小文字が区別されず、単数形、複数形、または省略形を使用できます。
たとえば、ポッド、ノード、サービス、デプロイなどです。リソースの完全なリストと、許可される省略形 (例: pod = po) については、次のコマンドを発行します。
kubectl api-resources
リソースの詳細については、次のコマンドを発行してください。
kubectl explain [TYPE]
例えば:
root@primary-node:/# kubectl explain pod KIND: Pod VERSION: v1 DESCRIPTION: Pod is a collection of containers that can run on a host. This resource is created by clients and scheduled onto hosts. ---more---
[NAME]
は、特定のリソースの名前 (サービスやポッドの名前など) です。名前では大文字と小文字が区別されます。
root@primary-node:/# kubectl get pod pod_name
[flags]
コマンドの追加オプションを提供します。たとえば、 -o
には、リソースのより多くの属性が一覧表示されます。ヘルプ (-h
) を使用して、使用可能なフラグに関する情報を取得します。
ほとんどの Kubernetes リソース (ポッドやサービスなど) は一部の名前空間にありますが、他の名前空間 (ノードなど) にはないことに注意してください。
名前空間は、1 つのクラスター内でリソースのグループを分離するためのメカニズムを提供します。リソースの名前は、名前空間内で一意である必要がありますが、名前空間間で一意である必要はありません。
名前空間内のリソースでコマンドを使用する場合は、コマンドの一部として名前空間を含める必要があります。名前空間では大文字と小文字が区別されます。適切な名前空間がないと、目的の特定のリソースが表示されない場合があります。
root@primary-node:/# kubectl get services mgd Error from server (NotFound): services "mgd" not found root@primary-node:/# kubectl get services mgd -n healthbot NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE mgd ClusterIP 10.102.xx.12 <none> 22/TCP,6500/TCP,8082/TCP 18h
すべての名前空間のリストを取得するには、 kubectl get namespace
コマンドを発行します。
すべての名前空間のリソースを表示する場合、または関心のある特定のリソースがどの名前空間に属しているかわからない場合は、「 --all-namespaces
」または「 - A
」と入力します。
Kubernetes の詳細については、以下を参照してください。
- https://kubernetes.io/docs/reference/kubectl/overview/
- https://kubernetes.io/docs/reference/generated/kubectl/kubectl-commands
kubectl インターフェイスを使用してインストールの詳細をトラブルシューティングおよび表示するには、次のトピックを使用します。
- ノードステータスの表示
- ポッドのステータスの表示
- ポッドに関する詳細情報の表示
- ポッド内のコンテナーのログを表示する
- ポッド内のコンテナーでコマンドを実行する
- サービスを見る
- 頻繁に使用される kubectl コマンド
ノードステータスの表示
kubectl get no
コマンドと略される kubectl get nodes
コマンドを使用して、クラスター ノードの状態を表示します。ノードの状態は [Ready
] で、ロールは [control-plane
] または [none
] である必要があります。例えば:
root@primary-node:~# kubectl get no NAME STATUS ROLES AGE VERSION 10.49.xx.x1 Ready control-plane,master 5d5h v1.20.4 10.49.xx.x6 Ready <none> 5d5h v1.20.4 10.49.xx.x7 Ready <none> 5d5h v1.20.4 10.49.xx.x8 Ready <none> 5d5h v1.20.4
ノードが Ready
されていない場合は、kubeletプロセスが実行されているかどうかを確認します。ノードのシステム ログを使用して問題を調査することもできます。
kubeletを検証するには: root@primary-node:/# kubelet
ポッドのステータスの表示
kubectl get po –n namespace
コマンドまたは kubectl get po -A
コマンドを使用して、ポッドのステータスを表示します。個々の名前空間 (healthbot
、northstar
、common
など) を指定することも、-A
パラメーターを使用してすべての名前空間の状態を表示することもできます。例えば:
root@primary-node:~# kubectl get po -n northstar NAME READY STATUS RESTARTS AGE bmp-854f8d4b58-4hwx4 3/3 Running 1 30h dcscheduler-55d69d9645-m9ncf 1/1 Running 1 7h13m
正常なポッドの状態は Running
または Completed
である必要があり、準備完了コンテナーの数は合計と一致する必要があります。ポッドの状態が Running
でない場合、またはコンテナーの数が一致しない場合は、 kubectl describe po
または kubectl log (POD | TYPE/NAME) [-c CONTAINER]
コマンドを使用して、問題のトラブルシューティングをさらに進めます。
ポッドに関する詳細情報の表示
kubectl describe po -n namespace pod-name
コマンドを使用して、特定のポッドに関する詳細情報を表示します。例えば:
root@primary-node:~# kubectl describe po -n northstar bmp-854f8d4b58-4hwx4 Name: bmp-854f8d4b58-4hwx4 Namespace: northstar Priority: 0 Node: 10.49.xx.x1/10.49.xx.x1 Start Time: Mon, 10 May 2021 07:11:17 -0700 Labels: app=bmp northstar=bmp pod-template-hash=854f8d4b58 …
ポッド内のコンテナーのログを表示する
kubectl logs -n namespace pod-name [-c container-name]
コマンドを使用して、特定のポッドのログを表示します。ポッドに複数のコンテナーがある場合は、ログを表示するコンテナーを指定する必要があります。例えば:
root@primary-node:~# kubectl logs -n common atom-db-0 | tail -3 2021-05-31 17:39:21.708 36 LOG {ticks: 0, maint: 0, retry: 0} 2021-05-31 17:39:26,292 INFO: Lock owner: atom-db-0; I am atom-db-0 2021-05-31 17:39:26,350 INFO: no action. i am the leader with the lock
ポッド内のコンテナーでコマンドを実行する
kubectl exec –ti –n namespacepod-name [-c container-name] -- command-line
コマンドを使用して、ポッド内のコンテナーでコマンドを実行します。例えば:
root@primary-node:~# kubectl exec -ti -n common atom-db-0 -- bash ____ _ _ / ___| _ __ (_) | ___ \___ \| '_ \| | |/ _ \ ___) | |_) | | | (_) | |____/| .__/|_|_|\___/ |_| This container is managed by runit, when stopping/starting services use sv Examples: sv stop cron sv restart patroni Current status: (sv status /etc/service/*) run: /etc/service/cron: (pid 29) 26948s run: /etc/service/patroni: (pid 27) 26948s run: /etc/service/pgqd: (pid 28) 26948s root@atom-db-0:/home/postgres#
exec
コマンドを実行すると、Postgresデータベースサーバーにbashシェルが表示されます。コンテナー内の bash シェルにアクセスし、コマンドを実行してデータベースに接続できます。すべてのコンテナがbashシェルを提供するわけではありません。一部のコンテナはSSHのみを提供し、一部のコンテナにはシェルがありません。
サービスを見る
kubectl get svc -n namespace
コマンドまたは kubectl get svc -A
コマンドを使用して、クラスター・サービスを表示します。個々の名前空間 (healthbot
、northstar
、common
など) を指定することも、-A
パラメーターを使用してすべての名前空間のサービスを表示することもできます。例えば:
root@primary-node:~# kubectl get svc -A --sort-by spec.type NAMESPACE NAME TYPE EXTERNAL-IP PORT(S) … healthbot tsdb-shim LoadBalancer 10.54.xxx.x3 8086:32081/TCP healthbot ingest-snmp-proxy-udp LoadBalancer 10.54.xxx.x3 162:32685/UDP healthbot hb-proxy-syslog-udp LoadBalancer 10.54.xxx.x3 514:31535/UDP ems ztpservicedhcp LoadBalancer 10.54.xxx.x3 67:30336/UDP ambassador ambassador LoadBalancer 10.54.xxx.x2 80:32214/TCP,443:31315/TCP,7804:32529/TCP,7000:30571/TCP northstar ns-pceserver LoadBalancer 10.54.xxx.x4 4189:32629/TCP …
この例では、サービスはタイプ別にソートされ、タイプ LoadBalancer
のサービスのみが表示されます。クラスターによって提供されるサービスと、それらのサービスにアクセスするためにロードバランサーによって選択された外部 IP アドレスを表示できます。
これらのサービスには、クラスターの外部からアクセスできます。外部 IP アドレスは公開され、クラスター外のデバイスからアクセスできます。
頻繁に使用される kubectl コマンド
-
レプリケーション コントローラーを一覧表示します。
# kubectl get –n namespace deploy
# kubectl get –n namespace statefulset
-
コンポーネントを再起動します。
kubectl rollout restart –n namespace deploy deployment-name
-
Kubernetes リソースの編集: デプロイまたは任意の Kubernetes API オブジェクトを編集でき、これらの変更はクラスターに保存されます。ただし、クラスターを再インストールした場合、これらの変更は保持されません。
# kubectl edit –ti –n namespace deploy deployment-name
CephとRookのトラブルシューティング
Cephには、比較的新しいカーネルバージョンが必要です。Linuxカーネルが非常に古い場合は、新しいカーネルのアップグレードまたは再インストールを検討してください。
このセクションを使用して、CephとRookに関する問題のトラブルシューティングを行います。
ディスク容量の不足
インストールが失敗する一般的な理由は、オブジェクトストレージデーモン(OSD)が作成されないことです。OSDは、クラスタノード上のストレージを設定します。OSDは、リソースが不足しているか、ディスク領域が正しくパーティション化されていないという形で、ディスクリソースが利用できないために作成されない可能性があります。ノードに十分な空きディスク・スペースがあることを確認します。
ディスクを再フォーマットする
「rook-ceph-osd-prepare-hostname-*」ジョブのログを調べます。ログは説明的です。ディスクまたはパーティションを再フォーマットしてRookを再起動する必要がある場合は、次の手順を実行します。
- 次のいずれかの方法を使用して、既存のディスクまたはパーティションを再フォーマットします。
- Cephに使用するはずだったブロックストレージデバイスがあるが、使用できない状態であったために使用されなかった場合は、ディスクを完全に再フォーマットできます。
$ sgdisk -zap /dev/disk $ dd if=/dev/zero of=/dev/disk bs=1M count=100
- Cephに使用するはずのディスクパーティションがある場合は、パーティション上のデータを完全にクリアできます。
$ wipefs -a -f /dev/partition $ dd if=/dev/zero of=/dev/partition bs=1M count=100
手記:これらのコマンドは、使用しているディスクまたはパーティションを完全に再フォーマットし、それらの上のすべてのデータが失われます。
- Cephに使用するはずだったブロックストレージデバイスがあるが、使用できない状態であったために使用されなかった場合は、ディスクを完全に再フォーマットできます。
- Rookを再起動して変更を保存し、OSDの作成プロセスを再試行します。
$ kubectl rollout restart deploy -n rook-ceph rook-ceph-operator
ポッドのステータスの表示
rook-ceph
名前空間にインストールされているRookポッドとCephポッドのステータスを確認するには、# kubectl get po -n rook-ceph
コマンドを使用します。次のポッドはrunning
状態である必要があります。
rook-ceph-mon-*
- 通常、3 つのモニター ポッドが作成されます。rook-ceph-mgr-*
- マネージャーポッド 1 台rook-ceph-osd-*
- 3 つ以上の OSD ポッドrook-ceph-mds-cephfs-*
—メタデータサーバーrook-ceph-rgw-object-store-*
- オブジェクトストア・ゲートウェイrook-ceph-tools*
- 追加のデバッグ オプション。ツールボックスに接続するには、次のコマンドを使用します。
$ kubectl exec -ti -n rook-ceph $(kubectl get po -n rook-ceph -l app=rook-ceph-tools \ -o jsonpath={..metadata.name}) -- bash
ツールボックスで使用できる一般的なコマンドには、次のようなものがあります。
# ceph status # ceph osd status, # ceph osd df, # ceph osd utilization, # ceph osd pool stats, # ceph osd tree, and # ceph pg stat
Ceph OSDの障害のトラブルシューティング
rook-ceph
名前空間にインストールされているポッドの状態を確認します。
# kubectl get po -n rook-ceph
rook-ceph-osd-*
ポッドがError
またはCrashLoopBackoff
状態の場合は、ディスクを修復する必要があります。
-
rook-ceph-operator
を停止します。# kubectl scale deploy -n rook-ceph rook-ceph-operator --replicas=0
-
問題のあるOSDプロセスを削除します。
# kubectl delete deploy -n rook-ceph rook-ceph-osd-number
-
ツールボックスに接続します。
$ kubectl exec -ti -n rook-ceph $(kubectl get po -n rook-ceph -l app=rook-ceph-tools -o jsonpath={..metadata.name}) -- bash
-
問題のあるOSDを特定します。
# ceph osd status
-
障害が発生したOSDをマークアウトします。
[root@rook-ceph-tools-/]# ceph osd out 5 marked out osd.5. [root@rook-ceph-tools-/]# ceph osd status ID HOST USED AVAIL WR OPS WR DATA RD OPS RD DATA STATE 0 10.xx.xx.210 4856M 75.2G 0 0 0 0 exists,up 1 10.xx.xx.215 2986M 77.0G 0 0 1 89 exists,up 2 10.xx.xx.98 3243M 76.8G 0 0 1 15 exists,up 3 10.xx.xx.195 4945M 75.1G 0 0 0 0 exists,up 4 10.xx.xx.170 5053M 75.0G 0 0 0 0 exists,up 5 10.xx.xx.197 0 0 0 0 0 0 exists
-
障害が発生したOSDを取り外します。
# ceph osd purge number --yes-i-really-mean-it
- 障害が発生したOSDをホストしていたノードに接続し、次のいずれかを実行します。
- ハードウェア障害が発生した場合にハードディスクを交換してください。
- ディスクを完全に再フォーマットします。
$ sgdisk -zap /dev/disk $ dd if=/dev/zero of=/dev/disk bs=1M count=100
- パーティションを完全に再フォーマットします。
$ wipefs -a -f /dev/partition $ dd if=/dev/zero of=/dev/partition bs=1M count=100
-
rook-ceph-operator
を再起動します。# kubectl scale deploy -n rook-ceph rook-ceph-operator --replicas=1
-
OSDポッドを監視します。
# kubectl get po -n rook-ceph
OSDが回復しない場合は、同じ手順でOSDを取り外し、ディスクを取り外すかパーティションを削除してから再起動
rook-ceph-operator
。
エアギャップ設置失敗のトラブルシューティング
エアギャップのインストールと kube-apiserver
は、既存の /etc/resolv.conf
ファイルがないため、次のエラーで失敗します。
TASK [kubernetes/master : Activate etcd backup cronjob] ******************************************************************** fatal: [192.xx.xx.2]: FAILED! => changed=true cmd: - kubectl - apply - -f - /etc/kubernetes/etcd-backup.yaml delta: '0:00:00.197012' end: '2022-09-13 13:46:31.220256' msg: non-zero return code rc: 1 start: '2022-09-13 13:46:31.023244' stderr: The connection to the server 192.xx.xx.2:6443 was refused - did you specify the right host or port? stderr_lines: <omitted> stdout: '' stdout_lines: <omitted>
新しいファイルを作成するには、ルートユーザーとして #touch /etc/resolv.conf
コマンドを実行し、Paragon Automation クラスターを再デプロイする必要があります。
RabbitMQ クラスターの障害から復旧する
この状態を確認するには、 kubectl get po -n northstar -l app=rabbitmq
コマンドを実行します。このコマンドでは、状態が Running
の 3 つのポッドが表示されます。例えば:
$ kubectl get po -n northstar -l app=rabbitmq NAME READY STATUS RESTARTS AGE rabbitmq-0 1/1 Running 0 10m rabbitmq-1 1/1 Running 0 10m rabbitmq-2 1/1 Running 0 9m37s
ただし、1 つ以上のポッドの状態が Error
の場合は、次の回復手順を使用します。
-
RabbitMQを削除します。
kubectl delete po -n northstar -l app=rabbitmq
-
ポッドの状態を確認します。
kubectl get po -n northstar -l app=rabbitmq
.すべてのポッドの状態が
Running
になるまで、kubectl delete po -n northstar -l app=rabbitmq
を繰り返します。 -
Paragon Pathfinderアプリケーションを再起動します。
kubectl rollout restart deploy -n northstar
OSD作成中にudevdデーモンを無効にする
udevd
デーモンは、ディスク、ネットワーク・カード、CD などの新しいハードウェアを管理するために使用します。OSDの作成中に、
udevd
デーモンはOSDを検出し、完全に初期化される前にOSDをロックできます。Paragon Automationインストーラは、インストール中に
systemd-udevd
を無効にし、RookがOSDを初期化した後に有効にします。
ノードを追加または交換し、障害が発生したノードを修復する場合は、OSDの作成が失敗しないように、 udevd
デーモンを手動で無効にする必要があります。OSDの作成後にデーモンを再度有効にすることができます。
これらのコマンドを使用して、 udevd
を手動で無効または有効にします。
- 追加または修復するノードにログインします。
udevd
デーモンを使用不可にします。- udevdが実行されているかどうかを確認してください。
# systemctl is-active systemd-udevd
udevd
がアクティブな場合は、無効にします。# systemctl mask system-udevd --now
- udevdが実行されているかどうかを確認してください。
-
ノードを修復または交換しても、Ceph分散ファイルシステムは自動的に更新されません。修復プロセスの一環としてデータ・ディスクが破壊された場合は、それらのデータ・ディスクでホストされているオブジェクト・ストレージ・デーモン(OSD)をリカバリする必要があります。
-
Cephツールボックスに接続し、OSDのステータスを表示します。
ceph-tools
スクリプトは、プライマリ ノードにインストールされます。プライマリノードにログインし、kubectl インターフェイスを使用してceph-tools
にアクセスできます。1 次ノード以外のノードを使用するには、 admin.conf ファイル(制御ホストの config-dir ディレクトリーにある)をコピーしてkubeconfig
環境変数を設定するか、またはexport KUBECONFIG=config-dir/admin.conf
コマンドを使用する必要があります。$ ceph-tools
# ceph osd status
-
すべてのOSDが
exists,up
として表示されていることを確認します。OSDが破損している場合は、 CephとRookのトラブルシューティングで説明されているトラブルシューティング手順に従ってください。
-
- すべてのOSDが作成されたことを確認した後、追加または修復したノードにログインします。
-
ノードで
udevd
を再度有効にします。systemctl unmask system-udevd
disable_udevd: true
を設定し、
./run -c config-dir deploy
コマンドを実行することもできます。
udevd
デーモンを無効にするためだけにクラスターを再デプロイすることはお勧めしません。
共通ユーティリティコマンドのラッパースクリプト
コマンド | の説明 |
---|---|
paragon-db [arguments] |
データベース サーバーに接続し、スーパーユーザー アカウントを使用して Postgres SQL シェルを起動します。オプションの引数が Postgres SQL コマンドに渡されます。 |
pf-cmgd [arguments] |
Paragon Pathfinder CMGD ポッドで CLI を起動します。オプションの引数は CLI によって実行されます。 |
pf-crpd [arguments] |
Paragon Pathfinder CRPD ポッドで CLI を起動します。オプションの引数は CLI によって実行されます。 |
pf-redis [arguments] |
Paragon Pathfinder Redis ポッドで(認証された)redis-cli を起動します。省略可能な引数は、Redis ポッドによって実行されます。 |
pf-debugutils [arguments] |
Paragon Pathfinder debugutils ポッドでシェルを起動します。オプションの引数はシェルによって実行されます。Pathfinder debugutils ユーティリティは、config.yml ファイルでinstall_northstar_debugutils: true が構成されている場合にインストールされます。 |
ceph-tools [arguments] |
シェルを起動してCephツールボックスに移動します。オプションの引数はシェルによって実行されます。 |
制御ホストのバックアップ
または、次のコマンドを使用してクラスターから情報をダウンロードして、 インベントリ ファイルと config.yml ファイルを再構築することもできます。
# kubectl get cm -n common metadata -o jsonpath={..inventory} > inventory
# kubectl get cm -n common metadata -o jsonpath={..config_yml} > config.yml
SSH キーを回復することはできません。失敗したキーを新しいキーに置き換える必要があります。
デバッグ用のユーザー サービス アカウント
Paragon Pathfinder、テレメトリマネージャー、ベースプラットフォームアプリケーションは、テレメトリ収集にParagon Insightsを内部的に使用します。これらのアプリケーションに関連する設定の問題をデバッグするために、Paragon Automationのインストール中に、デフォルトで3つのユーザーサービスアカウントが作成されます。これらのサービス アカウントのスコープは、対応するアプリケーションのデバッグのみに限定されます。サービス アカウントの詳細を次の表に示します。
アプリケーション名とスコープ | アカウントユーザー名 | アカウントのデフォルトパスワード |
---|---|---|
パラゴンパスファインダー(北極星) | HB-ノーススター-管理者 | 管理者123! |
テレメトリ マネージャー (tm) | hb-tm-admin | |
ベースプラットフォーム(ems-dmon) | HB-EMS-DMON |
これらのアカウントは、デバッグ目的でのみ使用する必要があります。これらのアカウントは、日常的な操作や構成の変更には使用しないでください。セキュリティ上の理由から、ログイン資格情報を変更することをお勧めします。