Ta sekcja wyjaśnia, jak zalogować się (bash) do swoich workloadów.
NVIDIA run:ai to platforma oparta na Kubernetes. Każdy workload, który uruchamiasz, jest w efekcie zestawem kontenerów,
czyli podów w Kubernetes. Do swoich workloadów / podów możesz zalogować się za pomocą CLI run:ai.
Instrukcje dotyczące instalacji i konfiguracji CLI run:ai znajdziesz tutaj > Installing run:ai.
Wyświetlenie listy workloadów:
runai workload list
Logowanie do workloadu:
runai <workload_type> bash <workload_name>
runai workspace bash jupypter-lab-1
runai training bash train-workload-1
runai inference bash inference-1
Logowanie do rozproszonego workloadu treningowego:
runai training pytorch bash training-cluster --pod training-cluster-master-0
Ważne: Kontenery w Kubernetes są domyślnie bezstanowe. Oznacza to, że wszelkie zmiany wprowadzone wewnątrz działającego kontenera (takie jak modyfikacja plików lub instalacja oprogramowania) zostaną utracone, gdy kontener zostanie zatrzymany i uruchomiony ponownie. Po restarcie kontener jest tworzony od nowa na podstawie oryginalnego obrazu i żadne wcześniejsze zmiany wykonane w czasie działania nie są zachowywane. Aby zachować dane lub stan, należy użyć zewnętrznych mechanizmów przechowywania, takich jak Persistent Volumes, ConfigMaps lub Secrets.