DeepSeek Lanza V3.1 — un Modelo de Código Abierto con una Ventana de Contexto de 128k que Supera a sus Pares en Programación

DeepSeek Lanza V3.1 — un Modelo de Código Abierto con una Ventana de Contexto de 128k que Supera a sus Pares en Programación

La empresa china DeepSeek AI lanzó una actualización de su modelo insignia de código abierto, DeepSeek V3.1, el 20 de agosto de 2025. El nuevo lanzamiento ha causado revuelo en la comunidad de desarrolladores debido a sus impresionantes especificaciones y rendimiento. El modelo presenta una arquitectura híbrida de Mezcla de Expertos (MoE) con un total de 685 mil millones de parámetros y una ventana de contexto ampliada de hasta 128,000 tokens. Esto le permite procesar y analizar grandes cantidades de información, como bases de código completas o conjuntos de documentación, de una sola vez. Según los benchmarks publicados, DeepSeek V3.1 muestra resultados sobresalientes en tareas de programación y razonamiento lógico, superando a muchos de los principales modelos propietarios y de código abierto, incluido Claude 3.5 Sonnet. La disponibilidad del modelo bajo una licencia permisiva en plataformas como Hugging Face está acelerando su adopción y fortaleciendo la posición de DeepSeek como un jugador clave en el mundo de la IA de código abierto.

« Volver a la Lista de Noticias