Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Pemecahan Masalah
Halaman berikut berisi solusi yang diketahui untuk memecahkan masalah kluster HyperPod EKS Anda.
Tab dasbor
Pengaya EKS gagal dipasang
Agar instalasi add-on EKS berhasil, Anda harus memiliki versi Kubernets>= 1.30. Untuk memperbarui, lihat Memperbarui versi Kubernetes.
Agar instalasi add-on EKS berhasil, semua node harus dalam status Ready dan semua pod harus dalam status Running.
Untuk memeriksa status node Anda, gunakan list-cluster-nodes AWS CLI perintah atau navigasikan ke kluster EKS Anda di konsol EKS
Untuk memeriksa status pod Anda, gunakan kubectl get pods -n cloudwatch-agent perintah CLI Kubernetescloudwatch-agent Selesaikan masalah Pod atau hubungi administrator Anda untuk menyelesaikan masalah. Setelah semua status pod Berjalan, coba lagi instal add-on EKS HyperPod dari konsol Amazon SageMaker
Untuk pemecahan masalah lainnya, lihat Memecahkan masalah add-on CloudWatch Amazon Observability EKS.
Tab Tugas
Jika Anda melihat pesan galat tentang bagaimana Definisi Sumber Daya Kustom (CRD) tidak dikonfigurasi di klaster, berikan EKSAdminViewPolicy dan ClusterAccessRole kebijakan untuk peran eksekusi domain Anda.
-
Untuk informasi tentang cara mendapatkan peran eksekusi Anda, lihatDapatkan peran eksekusi Anda.
-
Untuk mempelajari cara melampirkan kebijakan ke pengguna atau grup IAM, lihat Menambahkan dan menghapus izin identitas IAM.
Kebijakan
Berikut ini mencantumkan solusi untuk kesalahan yang berkaitan dengan kebijakan yang menggunakan HyperPod APIs atau konsol.
-
Jika kebijakan dalam
CreateFailedatauCreateRollbackFailedstatus, Anda perlu menghapus kebijakan yang gagal dan membuat yang baru. -
Jika kebijakan dalam
UpdateFailedstatus, coba lagi pembaruan dengan kebijakan yang sama ARN. -
Jika kebijakan dalam
UpdateRollbackFailedstatus, Anda perlu menghapus kebijakan yang gagal dan kemudian membuat yang baru. -
Jika kebijakan dalam
DeleteFailedatauDeleteRollbackFailedstatus, coba lagi penghapusan dengan kebijakan yang sama ARN.-
Jika Anda mengalami kesalahan saat mencoba menghapus prioritas Komputasi, atau kebijakan klaster, menggunakan HyperPod konsol, coba hapus
cluster-scheduler-configpenggunaan API. Untuk memeriksa status sumber daya, buka halaman detail alokasi komputasi.
-
Untuk melihat detail lebih lanjut tentang kegagalan, gunakan API describe.
Menghapus cluster
Berikut daftar solusi yang diketahui untuk kesalahan yang berkaitan dengan menghapus cluster.
-
Ketika penghapusan klaster gagal karena kebijakan tata kelola SageMaker HyperPod tugas terlampir, Anda harus melakukannya. Hapus kebijakan
-
Ketika penghapusan klaster gagal karena izin berikut hilang, Anda perlu memperbarui set izin minimum administrator klaster Anda. Lihat tab Amazon EKS di Pengguna IAM untuk admin cluster bagian ini.
-
sagemaker:ListComputeQuotas -
sagemaker:ListClusterSchedulerConfig -
sagemaker:DeleteComputeQuota -
sagemaker:DeleteClusterSchedulerConfig
-
Berbagi sumber daya yang tidak terisi
Jika kapasitas kumpulan sumber daya yang tidak terisi kurang dari yang diharapkan:
-
Periksa status siap node
kubectl get nodesVerifikasi semua node menampilkan
Readystatus di kolom STATUS. -
Periksa status penjadwalan node
kubectl get nodes -o custom-columns=NAME:.metadata.name,UNSCHEDULABLE:.spec.unschedulableVerifikasi node menunjukkan
<none>ataufalse(tidaktrue). -
Daftar berbagi sumber daya yang tidak terisi: ClusterQueues
kubectl get clusterqueue | grep hyperpod-ns-idle-resource-sharingIni menunjukkan semua berbagi sumber daya yang tidak terisi. ClusterQueues Jika ClusterQueues tidak muncul, periksa ClusterSchedulerConfig kebijakan di
FailureReasonbawah untuk melihat apakah ada pesan kegagalan untuk melanjutkan debugging. -
Verifikasi kuota berbagi sumber daya yang tidak dialokasikan:
kubectl describe clusterqueue hyperpod-ns-idle-resource-sharing-<index>Periksa
spec.resourceGroups[].flavors[].resourcesbagian untuk melihat kuota yang dialokasikan untuk setiap ragam sumber daya.Beberapa berbagi sumber daya yang tidak teralokasikan ClusterQueues mungkin ada tergantung pada jumlah ragam sumber daya di klaster Anda.
-
Periksa status konfigurasi MIG (node GPU):
kubectl get nodes -o jsonpath='{range .items[*]}{.metadata.name}{"\t"}{.metadata.labels.nvidia\.com/mig\.config\.state}{"\n"}{end}'Verifikasi node berkemampuan MiG menunjukkan
successstatus.