Asistente de IA de JetBrains
Integraciones
- Plataforma IntelliJ (IDEA, PyCharm, WebStorm, etc.)
- Claude 4.5 Sonnet / GPT-5 / Gemini 3 Pro
- Protocolo de Contexto de Modelo (MCP)
- Ollama / LM Studio
- GitHub / GitLab / Bitbucket
Detalles de precios
- Modelo de suscripción por niveles (AI Gratis, AI Pro, AI Ultimate) con créditos basados en consumo para modelos en la nube de alta prioridad.
- Los planes empresariales incluyen inferencia local gestionada y control centralizado de políticas.
Características
- Dominio semántico impulsado por PSI
- Orquestación de flujos de trabajo agénticos con Junie y Claude
- Integración del Protocolo de Contexto de Modelo (MCP)
- Inferencia híbrida en la nube/local (Ollama/Mellum)
- Sugerencias de Edición Siguiente (Disponibilidad General)
- Ediciones autónomas en múltiples archivos mediante RAG 2.0
Descripción
JetBrains AI Assistant: Orquestación Híbrida y Dominio Agéntico
A partir de enero de 2026, JetBrains AI Assistant ha completado la transición a una Arquitectura Híbrida Prioritaria. Utiliza Mellum, el LLM propietario de JetBrains, para tareas locales de ultra baja latencia, como Sugerencias de Edición Siguiente y completado básico de código, mientras delega flujos de trabajo agénticos complejos a modelos de alto parámetro como Claude 4.5 Sonnet y GPT-5 📑. La columna vertebral del sistema es el PSI (Program Structure Interface), que permite a la IA navegar por las jerarquías de código con precisión de nivel compilador 📑.
Orquestación Central y Motor Agéntico
La plataforma introduce agentes dedicados para ciclos de desarrollo autónomos.
- Junie y Agente Claude: Estos agentes pueden analizar tickets de forma autónoma, planificar cambios en múltiples módulos, ejecutar código y realizar pruebas para verificar la integridad. Operan dentro de un entorno seguro (sandbox) y aprovechan el Anthropic Agent SDK para el razonamiento 📑.
- Sugerencias de Edición Siguiente (GA): Un motor predictivo impulsado por Mellum que anticipa la próxima edición lógica en cualquier parte del archivo (adiciones, eliminaciones o refactorizaciones) basándose en cambios recientes 📑.
- Protocolo de Contexto de Modelo (MCP): Soporte completo en producción para MCP, permitiendo a los usuarios conectar sus propios servidores de documentación, esquemas SQL y APIs internas como herramientas para el AI Assistant 📑.
⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍
Seguridad Empresarial e Inferencia Local
Los protocolos de seguridad están diseñados para entornos Zero-Trust.
- Modo Offline mediante Ollama/LM Studio: Los desarrolladores pueden cambiar a modelos locales (por ejemplo, Qwen 2.5 Coder o Codestral) para garantizar cero fuga de datos en bases de código internas sensibles 📑.
- Gobernanza con .aiignore: Soporte integral para archivos
.aiignorecon el fin de controlar estrictamente qué archivos, directorios o símbolos pueden ser procesados por los modelos de IA 📑. - Suscripción Unificada (Gratis/Pro/Ultimate): La nueva segmentación de 2026 garantiza que los créditos de GPU de alta prioridad y las funciones agénticas se escalen según las necesidades organizativas 📑.
Guía de Evaluación
Los equipos técnicos deben priorizar los siguientes pasos de validación:
- Profundidad del PSI vs. RAG: Evaluar la precisión de la resolución de símbolos en grandes monorepositorios para verificar que el contexto basado en PSI supere al sistema de recuperación estándar mediante búsqueda vectorial 🧠.
- Bucle de Seguridad Agéntico: Auditar la fiabilidad del bucle «test-before-commit» de Junie para asegurar que los cambios autónomos no introduzcan regresiones en las canalizaciones CI/CD 📑.
- Latencia de Herramientas MCP: Medir la sobrecarga introducida por servidores MCP remotos cuando los agentes realizan llamadas frecuentes a herramientas contra bases de datos internas 🌑.
- Rendimiento de Mellum: Evaluar la latencia y precisión de la función Sugerencias de Edición Siguiente en estaciones de trabajo estándar de desarrolladores para determinar el impacto en el flujo de codificación 📑.
Historial de versiones
Actualizaciones esperadas basadas en tendencias: integración más profunda con JetBrains Space para el desarrollo colaborativo asistido por IA, sugerencias de código avanzadas con conciencia de contexto y soporte para el ajuste fino de LLM personalizados dentro de los IDE. Enfoque en mejorar el rendimiento para proyectos empresariales a gran escala y controles de privacidad mejorados para el uso local de LLM.
Actualización clave: se ha añadido soporte para ejecutar LLM localmente, lo que permite el desarrollo asistido por IA de forma privada sin conexión a la nube. Se ha mejorado la seguridad y la privacidad de los datos.
Se ha mejorado el manejo de bases de código complejas y se ha añadido soporte para explicar el código en lenguaje natural con diferentes niveles de detalle.
Actualización importante: se ha añadido soporte para generar pruebas unitarias y documentación. Se ha mejorado la finalización de código con sugerencias basadas en IA.
Se introdujeron sugerencias de refactorización y se mejoraron las capacidades de explicación del código con un contexto más detallado.
Mejorada la calidad de la generación de código y se ha añadido soporte para más lenguajes de programación (Python, JavaScript, Go).
Lanzamiento inicial integrado en los IDE de JetBrains. Características principales: finalización de código, generación básica de código y explicación sencilla de fragmentos de código.
Ventajas y desventajas de la herramienta
Ventajas
- Integración perfecta
- Generación rápida
- Refactorización inteligente
- Explicaciones claras
- Privacidad mejorada
Desventajas
- Solo IDE JetBrains
- Rendimiento variable
- Configuración compleja