Run.ai

Usługa projektowa Run.ai zapewnia dostęp do projektu Nvidia Run.ai na klastrach o wysokiej wydajności opartych na DGX B200. Węzły są połączone za pomocą NVIDIA Quantum-2 400 Gbit/s Infiniband i wyposażone w 2x100 Gb/s Ethernet do komunikacji IP oraz 2x100 Gb/s dostępu do Internetu.

W ramach usługi projektowej Run.ai rezerwujesz i otrzymujesz zasoby równe konfiguracji węzła lub wielu węzłów DGX.

Twoje środowisko może być bezpośrednio dostępne za pomocą Run.ai WebUI lub Run.ai Cli.

Wraz z usługą projektową Run.ai możesz zarezerwować dedykowaną pamięć masową dla AI z Pure flash blade, która jest bezpośrednio zintegrowana z naszymi klastrami DGX i dostarczana do projektu Run.ai przez NFS z opcją RDMA oraz połączona na poziomie Kubernetes z PVC.

Istnieje opcja podłączenia zewnętrznych źródeł danych do Twojego projektu Run.ai, takich jak pamięć masowa S3 lub GitHub.