Economia
Suporte

Nvidia aceita acordo para comprar provedor de software Run:ai

O site da Run:ai afirma que seu software foi desenvolvido para melhorar a eficiência das cargas de trabalho executadas em unidades de processamento gráfico (GPU).

Compartilhe:
25 de abril de 2024
Vinicius Palermo
Nvidia aceita acordo para comprar provedor de software Run:ai
A NVIDIA continuará a oferecer produtos Run:ai sob o mesmo modelo de negócios no futuro.

A Nvidia disse na quarta-feira, 24, que concordou em adquirir a Run:ai, uma fornecedora de software de gerenciamento de carga de trabalho de computação de inteligência artificial com sede em Tel-Aviv. Os termos do acordo não foram divulgados.

O site da Run:ai afirma que seu software foi desenvolvido para melhorar a eficiência das cargas de trabalho executadas em unidades de processamento gráfico (GPU). A empresa afirma que seu software permite dez vezes mais cargas de trabalho executadas na mesma infraestrutura.

A Nvidia disse que seus clientes “podem esperar se beneficiar de uma melhor utilização da GPU, melhor gerenciamento da infraestrutura da GPU e maior flexibilidade”.

As implantações de IA do cliente estão se tornando cada vez mais complexas, com cargas de trabalho distribuídas pela infraestrutura de data center na nuvem, na borda e no local.

Gerenciar e orquestrar IA generativa, sistemas de recomendação, mecanismos de pesquisa e outras cargas de trabalho exige um agendamento sofisticado para otimizar o desempenho no nível do sistema e na infraestrutura subjacente.

A Run:ai permite que clientes corporativos gerenciem e otimizem sua infraestrutura de computação, seja no local, na nuvem ou em ambientes híbridos.

A empresa construiu uma plataforma aberta em Kubernetes, a camada de orquestração para IA moderna e infraestrutura em nuvem. Ele oferece suporte a todas as variantes populares do Kubernetes e integra-se a ferramentas e estruturas de IA de terceiros.

Os clientes Run:ai incluem algumas das maiores empresas do mundo em vários setores, que usam a plataforma Run:ai para gerenciar clusters de GPU em escala de data center.

“A Run:ai tem colaborado estreitamente com a NVIDIA desde 2020 e compartilhamos a paixão por ajudar nossos clientes a aproveitar ao máximo sua infraestrutura”, disse Omri Geller, cofundador e CEO da Run:ai. “Estamos entusiasmados em nos juntar à NVIDIA e ansiosos para continuar nossa jornada juntos.”

A plataforma Run:ai oferece aos desenvolvedores de IA e suas equipes uma interface centralizada para gerenciar infraestrutura de computação compartilhada, permitindo acesso mais fácil e rápido para cargas de trabalho complexas de IA.

Ela tem funcionalidade para adicionar usuários, organizá-los em equipes, fornecer acesso a recursos de cluster, controlar cotas, prioridades e pools, além de monitorar e gerar relatórios sobre o uso de recursos.

A plataforma tem também capacidade de agrupar GPUs e compartilhar poder de computação — de frações de GPUs a múltiplas GPUs ou múltiplos nós de GPUs em execução em clusters diferentes — para tarefas separadas.

A NVIDIA continuará a oferecer produtos Run:ai sob o mesmo modelo de negócios no futuro. E a NVIDIA vai investir no roteiro de produtos Run:ai como parte da NVIDIA DGX Cloud, uma plataforma de IA projetada em conjunto com as principais nuvens para desenvolvedores corporativos, oferecendo um serviço integrado e full-stack otimizado para IA generativa.

Os clientes NVIDIA DGX e DGX Cloud terão acesso aos recursos do Run:ai para suas cargas de trabalho de IA, especialmente para implantações de grandes modelos de linguagem. As soluções Run:ai já estão integradas com NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, contêineres NGC e software NVIDIA AI Enterprise, entre outros produtos.

A plataforma de computação acelerada da NVIDIA e a plataforma Run:ai continuarão a oferecer suporte a um amplo ecossistema de soluções de terceiros, oferecendo aos clientes escolha e flexibilidade.

Juntamente com o Run:ai, a NVIDIA permitirá que os clientes tenham uma única estrutura que acesse soluções de GPU em qualquer lugar. Os clientes podem esperar beneficiar-se de uma melhor utilização da GPU, melhor gerenciamento da infraestrutura de GPU e maior flexibilidade da arquitetura aberta.