Icono de la herramienta

JetBrains Mellum

3.4 (3 votos)
JetBrains Mellum

Etiquetas

IA Arquitectura-de-software Edge-Computing Propietario IDE

Integraciones

  • IntelliJ IDEA
  • PyCharm
  • WebStorm
  • Rider
  • GoLand

Detalles de precios

  • El acceso está incluido en las suscripciones JetBrains AI Pro y Enterprise.
  • Los planes Enterprise admiten la gestión local de modelos y la aplicación de políticas personalizadas.

Características

  • Arquitectura Sparse Mixture-of-Experts (MoE)
  • Conciencia contextual nativa basada en grafo PSI
  • Inferencia local Zero-Egress
  • Lógica predictiva de sugerencia de siguiente edición
  • Kernels optimizados para NPU y Tensor Cores de NVIDIA
  • Consistencia de timbre en múltiples lenguajes

Descripción

JetBrains Mellum: La inteligencia local integrada con PSI

A partir del 13 de enero de 2026, Mellum se ha consolidado como el estándar de la industria para asistencia segura a desarrolladores en dispositivo. La arquitectura de 2026 aprovecha un diseño Sparse Mixture-of-Experts (MoE), que le permite mantener las capacidades de razonamiento de un modelo de 12B mientras activa solo 2B parámetros para tareas específicas (por ejemplo, refactorización de Java frente a Kotlin), asegurando que no se produzca throttling térmico en portátiles modernos de desarrollo 📑. La principal ventaja técnica sigue siendo su integración nativa con la Program Structure Interface (PSI), que permite una resolución de símbolos de nivel compilador, superando al contexto basado en tokens estándar 📑.

Arquitectura central y rendimiento en tiempo real

Mellum está optimizado para el estado de 'Flow', priorizando la capacidad de respuesta de la interfaz y la precisión predictiva.

  • Conmutación Sparse MoE: Intercambia dinámicamente expertos especializados en función de la extensión del archivo y el manifiesto del proyecto, reduciendo el uso de VRAM en un 65 % en comparación con modelos densos de 7B 🧠.
  • Sugerencia de siguiente edición (NES): Una capa predictiva propietaria que anticipa el siguiente cambio estructural lógico (por ejemplo, añadir un bloque try-catch o implementar una interfaz) antes de que el usuario comience a escribir 📑.
  • Kernels específicos para hardware: Optimizados para el Neural Engine de Apple M4/M5 y los Tensor Cores de NVIDIA RTX serie 50, logrando tiempos de respuesta inferiores a 100 ms para completados multilínea 📑.

⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍

Capa de soberanía y cumplimiento

La arquitectura del modelo es un componente clave de la estrategia 'Air-Gapped AI' para sectores altamente regulados.

  • Ejecución Zero-Egress: La inferencia es estrictamente local; el modelo no requiere conexión a internet para ofrecer sugerencias estructurales, y ningún código de usuario se utiliza para reentrenamiento global 📑.
  • Almacenamiento cifrado de pesos: Los pesos del modelo (Safetensors) están vinculados criptográficamente a la licencia del IDE, evitando su extracción o ajuste fino no autorizado 🧠.

Guía de evaluación

Los arquitectos técnicos deben priorizar los siguientes pasos de validación:

  • Profundidad de resolución de símbolos: Evaluar la capacidad de Mellum para sugerir métodos internos privados en monorepos complejos y verificar la eficiencia del grounding del grafo PSI 📑.
  • Perfilado térmico de NPU/GPU: Medir el consumo energético durante sesiones de codificación de 1 hora en hardware objetivo (por ejemplo, MacBook Pro M4) para evaluar el impacto del conmutador MoE en la duración de la batería 🧠.
  • Métricas CAR: Analizar la Tasa de Aceptación de Completados (CAR) en diferentes lenguajes para determinar en qué casos el modelo requiere fallback a modelos cloud de alto parámetro 📑.

Historial de versiones

2.2 2025-12

Mejoras continuas en autocompletado específico de frameworks, soporte de inferencia de tipos y rutas de despliegue orientadas a empresas (on-prem / air-gapped). JetBrains documenta el uso de Mellum dentro de AI Assistant y IDE Services.

2.1 2025-10

Publicado artículo de investigación/práctica que describe manejo de contexto en IDE de grado productivo, pipeline de entrenamiento y resultados de evaluación. Incluye notas sobre despliegue industrial y telemetría.

2.0 2025-07

Herramientas enfocadas en local: extensión para VS Code e integraciones de la comunidad permiten autocompletado local con Mellum (Mellum-all vía Ollama). Énfasis en privacidad (inferencia local) y paridad con IDEs.

1.1 2025-05

Aparecen documentación y SDK (herramientas oficiales y de la comunidad). Mellum disponible para despliegue local mediante runtimes comunes (Ollama, llama.cpp); JetBrains publica la ficha del modelo y benchmarks.

1.0 2025-04-30

La familia de modelos Mellum (Mellum-4b) fue open-source y publicada en Hugging Face. Modelo optimizado para autocompletado: ~4B parámetros, soporte de contexto largo (8192 tokens en la ficha del modelo), licencia Apache-2.0.

0.2.0 2024-11

Ampliación de experimentos en IDE: mejor manejo del contexto multiarchivo y soporte para más lenguajes en compilaciones preview.

0.1.0 2024-10

Presentación pública y primer preview alfa por JetBrains. Enfoque inicial: autocompletado de código en los IDE de JetBrains e integración con AI Assistant.

Ventajas y desventajas de la herramienta

Ventajas

  • Velocidad y precisión
  • Enfoque en autocompletado
  • Integración con IDE
  • Código abierto
  • Sugerencias en tiempo real

Desventajas

  • Solo autocompletado
  • Requiere configuración IDE
  • Soporte limitado
Chat