Red Hat Presenta la Plataforma Red Hat AI 3 con Soporte para Inferencia Distribuida

Red Hat Presenta la Plataforma Red Hat AI 3 con Soporte para Inferencia Distribuida

Red Hat anunció el 17 de octubre de 2025 el lanzamiento de Red Hat AI 3, una nueva versión de su plataforma empresarial para el desarrollo y despliegue de IA. Una innovación clave es el soporte para la inferencia distribuida a través del módulo llm-d. Esta tecnología permite que un único modelo de lenguaje grande se "divida" en partes y se ejecute en paralelo en múltiples servidores o GPU. Este enfoque resuelve el problema de ejecutar modelos gigantes que no caben en la memoria de un solo acelerador y hace que el proceso de inferencia sea más escalable y rentable. La plataforma también sienta las bases para la creación de sistemas agénticos al ofrecer una API unificada para la interacción con los modelos. Red Hat AI 3 está dirigido a empresas que pasan de la experimentación con IA a su uso a gran escala en producción y que necesitan una solución fiable y manejable.

« Volver a la Lista de Noticias
Chat