Red Hat, líder mundial en soluciones de código abierto, anunció la expansión de su colaboración estratégica con Amazon Web Services (AWS) para impulsar la IA generativa empresarial en la nube. A través de Red Hat AI en AWS, la compañía busca brindar a los responsables de TI mayor libertad para ejecutar inferencias de alto rendimiento a escala, independientemente del hardware subyacente, optimizando costos y eficiencia operativa.
El crecimiento acelerado de la IA generativa está llevando a las organizaciones a replantear sus infraestructuras tecnológicas. Según IDC, para 2027 el 40% de las empresas adoptará silicio personalizado, como procesadores ARM o chips específicos para AI/ML, con el objetivo de mejorar el rendimiento y reducir costos. Esta tendencia refuerza la necesidad de plataformas optimizadas que aceleren la innovación y hagan sostenible la adopción de IA en producción.
En este contexto, la alianza entre Red Hat y AWS integra la experiencia en plataformas abiertas con la infraestructura cloud y los chips AWS Inferentia2 y AWS Trainium3. Uno de los pilares es el Red Hat AI Inference Server, basado en vLLM, que estará habilitado para ejecutarse sobre estos aceleradores, ofreciendo una capa de inferencia común capaz de soportar múltiples modelos de IA gen, con menor latencia y una eficiencia hasta un 30–40% superior frente a instancias comparables basadas en GPU.
Otro avance clave es la habilitación de la IA sobre Red Hat OpenShift. Junto a AWS, Red Hat desarrolló el operador AWS Neuron, disponible para Red Hat OpenShift, Red Hat OpenShift AI y Red Hat OpenShift Service on AWS, facilitando una ruta más simple y con soporte para ejecutar cargas de trabajo de IA utilizando los aceleradores de AWS dentro de entornos híbridos y administrados.
La colaboración también apunta a simplificar el acceso y el despliegue de estas tecnologías. Al incorporar soporte para los chips de IA de AWS, Red Hat amplía el acceso a aceleradores de alta demanda, y suma herramientas como la Colección Ansible Certificada amazon.ai, que permite orquestar servicios de IA en AWS desde la Plataforma de Automatización Red Hat Ansible, reduciendo la complejidad operativa.
Finalmente, Red Hat y AWS refuerzan su compromiso con la comunidad open source, trabajando en la optimización del plugin de chips de IA de AWS para su disponibilidad upstream en vLLM. Como principal colaborador comercial del proyecto, Red Hat busca acelerar las capacidades de inferencia y entrenamiento de IA a escala, alineadas con su visión de “cualquier modelo, cualquier hardware”, y acompañar a las organizaciones en la transición desde la experimentación hacia una IA generativa productiva, gobernada y eficiente.














