Usługa projektowa Run.ai zapewnia dostęp do projektu Nvidia Run.ai na klastrach o wysokiej wydajności opartych na DGX B200. Węzły są połączone za pomocą NVIDIA Quantum-2 400 Gbit/s Infiniband i wyposażone w 2x100 Gb/s Ethernet do komunikacji IP oraz 2x100 Gb/s dostępu do Internetu.
W ramach usługi projektowej Run.ai rezerwujesz i otrzymujesz zasoby równe konfiguracji węzła lub wielu węzłów DGX.
Twoje środowisko może być bezpośrednio dostępne za pomocą Run.ai WebUI lub Run.ai Cli.
Wraz z usługą projektową Run.ai możesz zarezerwować dedykowaną pamięć masową dla AI z Pure flash blade, która jest bezpośrednio zintegrowana z naszymi klastrami DGX i dostarczana do projektu Run.ai przez NFS z opcją RDMA oraz połączona na poziomie Kubernetes z PVC.
Istnieje opcja podłączenia zewnętrznych źródeł danych do Twojego projektu Run.ai, takich jak pamięć masowa S3 lub GitHub.
Dostępne artykuły
- Logowanie do Run.ai
- Instalacja Run.ai CLI
- Zadania
- Jak podłączyć inne źródła danych
- Jak wdrożyć workload JupyterLab
- Jak utworzyć rozproszony workload inferencyjny
- Jak skonfigurować autoskalowanie dla workloadu inferencyjnego
- Jak utworzyć workload inferencyjny autoskalowany od 0
- Jak zalogować się do swoich workloadów przez bash