JetBrains AI Assistant
Интеграции
- Платформа IntelliJ (IDEA, PyCharm, WebStorm и др.)
- Claude 4.5 Sonnet / GPT-5 / Gemini 3 Pro
- Model Context Protocol (MCP)
- Ollama / LM Studio
- GitHub / GitLab / Bitbucket
Детали цены
- Многоуровневая модель подписки (AI Free, AI Pro, AI Ultimate) с кредитами на основе потребления для высокоприоритетных облачных моделей.
- Корпоративные планы включают управляемый локальный инференс и централизованное управление политиками.
Возможности
- Мастерство семантического контекста на основе PSI
- Оркестрация агентных рабочих процессов Junie и Claude
- Интеграция с Model Context Protocol (MCP)
- Гибридный облачный/локальный инференс (Ollama/Mellum)
- Предложения следующего редактирования (General Availability)
- Автономные правки нескольких файлов через RAG 2.0
Описание
JetBrains AI Assistant: Гибридная оркестрация и агентный контроль
По состоянию на январь 2026 года JetBrains AI Assistant полностью перешёл на гибридную архитектуру. Он использует Mellum — проприетарный LLM от JetBrains — для задач с ультранизкой задержкой, таких как предложения следующего редактирования и базовое автодополнение кода, в то время как сложные агентные рабочие процессы переносятся на высокопараметрические модели, такие как Claude 4.5 Sonnet и GPT-5 📑. Основой системы является PSI (Program Structure Interface), позволяющий ИИ перемещаться по иерархиям кода с точностью компилятора 📑.
Основная оркестрация и агентный движок
Платформа включает выделенных агентов для автономных циклов разработки.
- Junie & Claude Agent: Эти агенты могут автономно анализировать задачи, планировать изменения в нескольких модулях, выполнять код и запускать тесты для проверки целостности. Они работают в защищённом песочнице и используют Anthropic Agent SDK для логического вывода 📑.
- Предложения следующего редактирования (GA): Прогнозный движок на базе Mellum, который предсказывает ваше следующее логическое изменение в любом месте файла (добавления, удаления или рефакторинг) на основе недавних правок 📑.
- Model Context Protocol (MCP): Полная поддержка MCP в продакшене, позволяющая пользователям подключать собственные серверы документации, SQL-схемы и внутренние API в качестве инструментов для AI Assistant 📑.
⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍
Корпоративная безопасность и локальный инференс
Протоколы безопасности разработаны для сред с нулевым доверием.
- Офлайн-режим через Ollama/LM Studio: Разработчики могут переключаться на локальные модели (например, Qwen 2.5 Coder или Codestral), чтобы гарантировать отсутствие утечки данных для чувствительных внутренних кодовых баз 📑.
- Управление через .aiignore: Полная поддержка файлов
.aiignoreдля строгого контроля за тем, какие файлы, каталоги или символы могут обрабатываться моделями ИИ 📑. - Единая подписка (Free/Pro/Ultimate): Новая система тарификации 2026 года обеспечивает масштабирование высокоприоритетных GPU-кредитов и агентных функций в соответствии с потребностями организации 📑.
Рекомендации по оценке
Техническим командам следует уделить первоочередное внимание следующим шагам валидации:
- Глубина PSI vs. RAG: Сравните точность разрешения символов в крупных монорепозиториях, чтобы убедиться, что контекст на основе PSI превосходит стандартный векторный поиск 🧠.
- Агентный цикл отказоустойчивости: Проверьте надёжность цикла «тестирование перед коммитом» у Junie, чтобы гарантировать, что автономные изменения не приводят к регрессиям в CI/CD-конвейерах 📑.
- Задержка MCP-инструментов: Измерьте накладные расходы, возникающие при частом вызове инструментов удалёнными MCP-серверами при работе агентов с внутренними базами данных 🌑.
- Производительность Mellum: Оцените задержку и точность функции предложений следующего редактирования на стандартных рабочих станциях разработчиков, чтобы определить влияние на процесс кодирования 📑.
История обновлений
Ожидаемые обновления на основе трендов: более глубокая интеграция с JetBrains Space для совместной разработки с помощью ИИ, расширенные контекстно-зависимые предложения кода и поддержка тонкой настройки кастомных LLM внутри IDE. Акцент на улучшении производительности для крупномасштабных корпоративных проектов и усиленных контролях конфиденциальности для локального использования LLM.
Ключевое обновление: добавлена поддержка локального запуска LLM, что позволяет проводить разработку с помощью ИИ в приватной среде без подключения к облаку. Улучшена безопасность и конфиденциальность данных.
Улучшена обработка сложных кодовых баз и добавлена поддержка объяснения кода на естественном языке с различным уровнем детализации.
Крупное обновление: добавлена поддержка генерации модульных тестов и документации. Улучшено автозавершение кода с помощью предложений на основе искусственного интеллекта.
Предложены варианты рефакторинга и улучшены возможности объяснения кода с более подробным контекстом.
Улучшено качество генерации кода и добавлена поддержка большего количества языков программирования (Python, JavaScript, Go).
Первый релиз, интегрированный в IDE JetBrains. Основные функции: завершение кода, базовая генерация кода и простое объяснение фрагментов кода.
Плюсы и минусы инструмента
Плюсы
- Бесшовная интеграция
- Быстрая генерация
- Умный рефакторинг
- Четкие объяснения
- Повышенная конфиденциальность
Минусы
- Только для JetBrains IDE
- Переменчивая производительность
- Сложная настройка