A Nvidia disse na quarta-feira, 24, que concordou em adquirir a Run:ai, uma fornecedora de software de gerenciamento de carga de trabalho de computação de inteligência artificial com sede em Tel-Aviv. Os termos do acordo não foram divulgados.
O site da Run:ai afirma que seu software foi desenvolvido para melhorar a eficiência das cargas de trabalho executadas em unidades de processamento gráfico (GPU). A empresa afirma que seu software permite dez vezes mais cargas de trabalho executadas na mesma infraestrutura.
A Nvidia disse que seus clientes “podem esperar se beneficiar de uma melhor utilização da GPU, melhor gerenciamento da infraestrutura da GPU e maior flexibilidade”.
As implantações de IA do cliente estão se tornando cada vez mais complexas, com cargas de trabalho distribuídas pela infraestrutura de data center na nuvem, na borda e no local.
Gerenciar e orquestrar IA generativa, sistemas de recomendação, mecanismos de pesquisa e outras cargas de trabalho exige um agendamento sofisticado para otimizar o desempenho no nível do sistema e na infraestrutura subjacente.
A Run:ai permite que clientes corporativos gerenciem e otimizem sua infraestrutura de computação, seja no local, na nuvem ou em ambientes híbridos.
A empresa construiu uma plataforma aberta em Kubernetes, a camada de orquestração para IA moderna e infraestrutura em nuvem. Ele oferece suporte a todas as variantes populares do Kubernetes e integra-se a ferramentas e estruturas de IA de terceiros.
Os clientes Run:ai incluem algumas das maiores empresas do mundo em vários setores, que usam a plataforma Run:ai para gerenciar clusters de GPU em escala de data center.
“A Run:ai tem colaborado estreitamente com a NVIDIA desde 2020 e compartilhamos a paixão por ajudar nossos clientes a aproveitar ao máximo sua infraestrutura”, disse Omri Geller, cofundador e CEO da Run:ai. “Estamos entusiasmados em nos juntar à NVIDIA e ansiosos para continuar nossa jornada juntos.”
A plataforma Run:ai oferece aos desenvolvedores de IA e suas equipes uma interface centralizada para gerenciar infraestrutura de computação compartilhada, permitindo acesso mais fácil e rápido para cargas de trabalho complexas de IA.
Ela tem funcionalidade para adicionar usuários, organizá-los em equipes, fornecer acesso a recursos de cluster, controlar cotas, prioridades e pools, além de monitorar e gerar relatórios sobre o uso de recursos.
A plataforma tem também capacidade de agrupar GPUs e compartilhar poder de computação — de frações de GPUs a múltiplas GPUs ou múltiplos nós de GPUs em execução em clusters diferentes — para tarefas separadas.
A NVIDIA continuará a oferecer produtos Run:ai sob o mesmo modelo de negócios no futuro. E a NVIDIA vai investir no roteiro de produtos Run:ai como parte da NVIDIA DGX Cloud, uma plataforma de IA projetada em conjunto com as principais nuvens para desenvolvedores corporativos, oferecendo um serviço integrado e full-stack otimizado para IA generativa.
Os clientes NVIDIA DGX e DGX Cloud terão acesso aos recursos do Run:ai para suas cargas de trabalho de IA, especialmente para implantações de grandes modelos de linguagem. As soluções Run:ai já estão integradas com NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, contêineres NGC e software NVIDIA AI Enterprise, entre outros produtos.
A plataforma de computação acelerada da NVIDIA e a plataforma Run:ai continuarão a oferecer suporte a um amplo ecossistema de soluções de terceiros, oferecendo aos clientes escolha e flexibilidade.
Juntamente com o Run:ai, a NVIDIA permitirá que os clientes tenham uma única estrutura que acesse soluções de GPU em qualquer lugar. Os clientes podem esperar beneficiar-se de uma melhor utilização da GPU, melhor gerenciamento da infraestrutura de GPU e maior flexibilidade da arquitetura aberta.