NVIDIA: Nuevos Servidores Aceleran la Inferencia de Modelos MOE en 10x

NVIDIA: Nuevos Servidores Aceleran la Inferencia de Modelos MOE en 10x

NVIDIA (según informó Reuters el 3 de diciembre, relevante para el 4 de diciembre de 2025) demostró un salto significativo en el rendimiento de sus nuevas soluciones de servidor. El uso de configuraciones de 72 chips con interconexiones de alta velocidad logró una aceleración de 10x en el servicio de modelos de arquitectura Mixture-of-Experts (MOE). Esta mejora es crítica para escalar eficientemente y reducir el costo de inferencia de los LLM masivos modernos, como los de la china Moonshot AI y otros desarrolladores.

« Volver a la Lista de Noticias
Chat