Red Hat anunció el 17 de octubre de 2025 el lanzamiento de Red Hat AI 3, una nueva versión de su plataforma empresarial para el desarrollo y despliegue de IA. Una innovación clave es el soporte para la inferencia distribuida a través del módulo llm-d. Esta tecnología permite que un único modelo de lenguaje grande se "divida" en partes y se ejecute en paralelo en múltiples servidores o GPU. Este enfoque resuelve el problema de ejecutar modelos gigantes que no caben en la memoria de un solo acelerador y hace que el proceso de inferencia sea más escalable y rentable. La plataforma también sienta las bases para la creación de sistemas agénticos al ofrecer una API unificada para la interacción con los modelos. Red Hat AI 3 está dirigido a empresas que pasan de la experimentación con IA a su uso a gran escala en producción y que necesitan una solución fiable y manejable.
Red Hat Presenta la Plataforma Red Hat AI 3 con Soporte para Inferencia Distribuida