Red Hat AI 3 acelera la IA empresarial en producción
Publicado por Redacción Portal ERP España en 22/12/2025 en Portal TechLa plataforma unifica herramientas para escalar cargas de IA en entornos híbridos y edge

Foto: cortesía. Portal ERP España.
Red Hat ha lanzado Red Hat AI 3, una evolución de su plataforma de inteligencia artificial empresarial que integra Red Hat AI Inference Server, Red Hat Enterprise Linux AI y Red Hat OpenShift AI. Esta solución simplifica el despliegue de inferencia de alto rendimiento a gran escala, ayudando a las empresas a pasar de pruebas de concepto a producción y mejorar la colaboración en aplicaciones de IA.
El 95% de las organizaciones no obtienen retornos financieros medibles de los 40.000 millones de dólares invertidos en IA empresarial, según el informe 'The GenAI Divide: State of AI in Business' del Massachusetts Institute of Technology NANDA project. Red Hat AI 3 responde a estos retos ofreciendo una experiencia unificada para directores de TI, maximizando las inversiones en hardware acelerado y permitiendo escalar cargas de trabajo en entornos híbridos multi-vendor.
La plataforma pone el foco en la inferencia, la fase operativa de la IA tras el entrenamiento de modelos. Red Hat OpenShift AI 3.0 introduce llm-d en disponibilidad general, una tecnología que ejecuta modelos de lenguaje grandes de forma nativa en Kubernetes con inferencia distribuida inteligente. Esta solución combina la orquestación de Kubernetes con tecnologías abiertas como vLLM, NVIDIA Dynamo y librerías para modelos Mixture-of-Experts (MoE).
Te puede interesar: Red Hat adquiere Chatterbox Labs para reforzar la seguridad en la IA
Los beneficios incluyen reducción de costes mediante programación inteligente de modelos, despliegues simplificados con guías predefinidas y soporte para aceleradores de NVIDIA y AMD. Ll-m-d evoluciona vLLM de un motor single-node a un sistema distribuido escalable, diseñado para cargas variables y rendimiento predecible.
Red Hat AI 3 fomenta la colaboración entre equipos con una plataforma común que incluye Model as a Service (MaaS) para servir modelos centralmente, un AI hub con catálogo curado de modelos optimizados como gpt-oss, DeepSeek-R1, Whisper y Voxtral Mini, y Gen AI studio para prototipar aplicaciones de chat y RAG.
Joe Fernandes, vicepresidente y director general de AI Business Unit en Red Hat, ha explicado que “al escalar la IA de la experimentación a producción, las empresas enfrentan una nueva ola de complejidad, costes y retos de control”. Añade que “con Red Hat AI 3 proporcionamos una plataforma open source de grado empresarial que minimiza estos obstáculos”, incorporando inferencia distribuida con llm-d y base para IA agéntica, permitiendo a los equipos de TI operationalizar IA de próxima generación en cualquier infraestructura.
La plataforma prepara el terreno para agentes de IA con flujos complejos mediante una API unificada basada en Llama Stack, compatible con protocolos OpenAI, y adopción del Model Context Protocol (MCP) para interacciones con herramientas externas. Incluye un toolkit con InstructLab para personalización de modelos, procesamiento de documentos con Docling y hubs para entrenamiento y evaluación.
Red Hat AI 3 se basa en estándares abiertos para soportar cualquier modelo desde datacenters hasta edge.






