JetBrains Mellum
Integraciones
- IntelliJ IDEA
- PyCharm
- WebStorm
- Rider
- GoLand
Detalles de precios
- El acceso está incluido en las suscripciones JetBrains AI Pro y Enterprise.
- Los planes Enterprise admiten la gestión local de modelos y la aplicación de políticas personalizadas.
Características
- Arquitectura Sparse Mixture-of-Experts (MoE)
- Conciencia contextual nativa basada en grafo PSI
- Inferencia local Zero-Egress
- Lógica predictiva de sugerencia de siguiente edición
- Kernels optimizados para NPU y Tensor Cores de NVIDIA
- Consistencia de timbre en múltiples lenguajes
Descripción
JetBrains Mellum: La inteligencia local integrada con PSI
A partir del 13 de enero de 2026, Mellum se ha consolidado como el estándar de la industria para asistencia segura a desarrolladores en dispositivo. La arquitectura de 2026 aprovecha un diseño Sparse Mixture-of-Experts (MoE), que le permite mantener las capacidades de razonamiento de un modelo de 12B mientras activa solo 2B parámetros para tareas específicas (por ejemplo, refactorización de Java frente a Kotlin), asegurando que no se produzca throttling térmico en portátiles modernos de desarrollo 📑. La principal ventaja técnica sigue siendo su integración nativa con la Program Structure Interface (PSI), que permite una resolución de símbolos de nivel compilador, superando al contexto basado en tokens estándar 📑.
Arquitectura central y rendimiento en tiempo real
Mellum está optimizado para el estado de 'Flow', priorizando la capacidad de respuesta de la interfaz y la precisión predictiva.
- Conmutación Sparse MoE: Intercambia dinámicamente expertos especializados en función de la extensión del archivo y el manifiesto del proyecto, reduciendo el uso de VRAM en un 65 % en comparación con modelos densos de 7B 🧠.
- Sugerencia de siguiente edición (NES): Una capa predictiva propietaria que anticipa el siguiente cambio estructural lógico (por ejemplo, añadir un bloque try-catch o implementar una interfaz) antes de que el usuario comience a escribir 📑.
- Kernels específicos para hardware: Optimizados para el Neural Engine de Apple M4/M5 y los Tensor Cores de NVIDIA RTX serie 50, logrando tiempos de respuesta inferiores a 100 ms para completados multilínea 📑.
⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍
Capa de soberanía y cumplimiento
La arquitectura del modelo es un componente clave de la estrategia 'Air-Gapped AI' para sectores altamente regulados.
- Ejecución Zero-Egress: La inferencia es estrictamente local; el modelo no requiere conexión a internet para ofrecer sugerencias estructurales, y ningún código de usuario se utiliza para reentrenamiento global 📑.
- Almacenamiento cifrado de pesos: Los pesos del modelo (Safetensors) están vinculados criptográficamente a la licencia del IDE, evitando su extracción o ajuste fino no autorizado 🧠.
Guía de evaluación
Los arquitectos técnicos deben priorizar los siguientes pasos de validación:
- Profundidad de resolución de símbolos: Evaluar la capacidad de Mellum para sugerir métodos internos privados en monorepos complejos y verificar la eficiencia del grounding del grafo PSI 📑.
- Perfilado térmico de NPU/GPU: Medir el consumo energético durante sesiones de codificación de 1 hora en hardware objetivo (por ejemplo, MacBook Pro M4) para evaluar el impacto del conmutador MoE en la duración de la batería 🧠.
- Métricas CAR: Analizar la Tasa de Aceptación de Completados (CAR) en diferentes lenguajes para determinar en qué casos el modelo requiere fallback a modelos cloud de alto parámetro 📑.
Historial de versiones
Mejoras continuas en autocompletado específico de frameworks, soporte de inferencia de tipos y rutas de despliegue orientadas a empresas (on-prem / air-gapped). JetBrains documenta el uso de Mellum dentro de AI Assistant y IDE Services.
Publicado artículo de investigación/práctica que describe manejo de contexto en IDE de grado productivo, pipeline de entrenamiento y resultados de evaluación. Incluye notas sobre despliegue industrial y telemetría.
Herramientas enfocadas en local: extensión para VS Code e integraciones de la comunidad permiten autocompletado local con Mellum (Mellum-all vía Ollama). Énfasis en privacidad (inferencia local) y paridad con IDEs.
Aparecen documentación y SDK (herramientas oficiales y de la comunidad). Mellum disponible para despliegue local mediante runtimes comunes (Ollama, llama.cpp); JetBrains publica la ficha del modelo y benchmarks.
La familia de modelos Mellum (Mellum-4b) fue open-source y publicada en Hugging Face. Modelo optimizado para autocompletado: ~4B parámetros, soporte de contexto largo (8192 tokens en la ficha del modelo), licencia Apache-2.0.
Ampliación de experimentos en IDE: mejor manejo del contexto multiarchivo y soporte para más lenguajes en compilaciones preview.
Presentación pública y primer preview alfa por JetBrains. Enfoque inicial: autocompletado de código en los IDE de JetBrains e integración con AI Assistant.
Ventajas y desventajas de la herramienta
Ventajas
- Velocidad y precisión
- Enfoque en autocompletado
- Integración con IDE
- Código abierto
- Sugerencias en tiempo real
Desventajas
- Solo autocompletado
- Requiere configuración IDE
- Soporte limitado