Uma plataforma de inferência escalável

Red Hat Enterprise Linux AI

Implante e personalizar modelos de IA em recursos seguros e escaláveis

Desenvolva, teste e execute modelos de IA generativa com capacidades de inferência otimizadas.

A Red Hat® Enterprise Linux® AI é uma plataforma para rodar grandes modelos de linguagem (LLMs) em ambientes individuais de servidor. A solução inclui o Red Hat AI Inference Server, que oferece inferência rápida e econômica em toda a nuvem híbrida, maximizando a taxa de transferência e minimizando a latência.

A IA Empresarial da Red Hat para Linux reúne:

  • Red Hat AI Inference Server, que oferece implantação rápida e consistente de modelos em toda a nuvem híbrida com amplo suporte de hardware.
  • Uma imagem bootável do Red Hat Enterprise Linux, incluindo bibliotecas populares de IA como PyTorch e inferência otimizada para hardware para NVIDIA, Intel e AMD.
  • Suporte técnico de nível empresarial e proteções legais de Garantia de Código Aberto.

Veja as novidades do OpenShift AI

RHEL AI

Funcionalidades

list-image

Alimentado por vLLM, o Red Hat AI Inference Server aumenta a eficiência sem sacrificar desempenho.

list-image

Gerencie sua plataforma de IA como uma imagem de contêiner, simplificando sua abordagem de escalabilidade.

list-image

Aprimore modelos menores com seus dados usando RAG para obter respostas precisas e e alinhadas ao negócio.

Consultores SManager

Fale com quem realmente entende de Red Hat

Fale conosco

Deixe seu nome, e-mail e telefone que um consultor entrará em contato com você.