JetBrains Mellum
Интеграции
- IntelliJ IDEA
- PyCharm
- WebStorm
- Rider
- GoLand
Детали цены
- Доступ включён в подписки JetBrains AI Pro и Enterprise.
- Корпоративные планы поддерживают локальное управление моделями и настройку пользовательских политик.
Возможности
- Архитектура Sparse Mixture-of-Experts (MoE)
- Нативная осведомлённость о контексте PSI-графа
- Локальный инференс без оттока данных
- Логика предиктивного предложения Next-Edit Suggestion
- Ядра, оптимизированные для NPU и тензорных ядер NVIDIA
- Согласованность тембра для нескольких языков
Описание
JetBrains Mellum: Локальный интеллект с интеграцией PSI
По состоянию на 13 января 2026 года Mellum утвердился как отраслевой стандарт безопасной помощи разработчикам на устройстве. Архитектура 2026 года использует дизайн Sparse Mixture-of-Experts (MoE), что позволяет сохранять возможности рассуждения модели на 12 млрд параметров, активируя лишь 2 млрд параметров для конкретных задач (например, рефакторинг Java или Kotlin), исключая термическое троттлинг на современных ноутбуках разработчиков 📑. Ключевое техническое преимущество заключается в нативной интеграции с Program Structure Interface (PSI), обеспечивающей разрешение символов на уровне компилятора, что превосходит стандартный контекст на основе токенов 📑.
Базовая архитектура и производительность в реальном времени
Mellum оптимизирован для состояния 'Flow', приоритизируя отзывчивость интерфейса и точность предсказаний.
- Переключение Sparse MoE: Динамически подменяет специализированные эксперты в зависимости от расширения файла и манифеста проекта, снижая использование VRAM на 65% по сравнению с плотными моделями на 7 млрд параметров 🧠.
- Next-Edit Suggestion (NES): Проприетарный предиктивный слой, предвосхищающий следующее логическое структурное изменение (например, добавление блока try-catch или реализацию интерфейса) до начала ввода пользователем 📑.
- Аппаратно-специфичные ядра: Оптимизированы для Neural Engine Apple M4/M5 и тензорных ядер NVIDIA RTX 50-й серии, достигая времени отклика менее 100 мс для многострочных завершений 📑.
⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍
Слой суверенитета и соответствия требованиям
Архитектура модели является ключевым компонентом стратегии 'Air-Gapped AI' для высокорегулируемых секторов.
- Инференс без оттока данных: Инференс строго локальный; модель не требует активного интернет-соединения для предоставления структурных предложений, и пользовательский код не используется для глобального переобучения 📑.
- Шифрованное хранение весов: Веса модели (Safetensors) криптографически привязаны к лицензии IDE, предотвращая извлечение или несанкционированное дообучение 🧠.
Рекомендации по оценке
Техническим архитекторам следует уделить приоритетное внимание следующим шагам валидации:
- Глубина разрешения символов: Проверка способности Mellum предлагать приватные внутренние методы в сложных монорепозиториях для верификации эффективности заземления PSI-графа 📑.
- Тепловой профиль NPU/GPU: Измерение энергопотребления во время часовых сессий программирования на целевом оборудовании (например, MacBook Pro M4) для оценки влияния переключателя MoE на время работы от батареи 🧠.
- Метрики CAR: Анализ показателя принятия завершений (Completion Acceptance Rate) для разных языков с целью определения случаев, когда модель требует переключения на облачные модели с высоким числом параметров 📑.
История обновлений
Постоянные улучшения автодополнения для фреймворков, поддержка вывода типов и пути развёртывания для корпоративных клиентов (on-prem / air-gapped). JetBrains документирует использование Mellum внутри AI Assistant и IDE Services.
Опубликована научная/практическая статья, описывающая продакшн-уровневую обработку контекста в IDE, пайплайн обучения и результаты оценки. Описаны заметки по промышленному развёртыванию и телеметрии.
Инструменты с приоритетом на локальность: расширение для VS Code и интеграции сообщества позволяют локально использовать автодополнение на базе Mellum (Mellum-all через Ollama). Акцент на приватности (локальный инференс) и паритете с IDE.
Появилась документация и SDK (официальные и сообщественные инструменты). Mellum стал доступен для локального развёртывания через распространённые рантаймы (Ollama, llama.cpp и пр.); JetBrains опубликовал карточку модели и бенчмарки.
Семейство моделей Mellum (Mellum-4b) стало open-source и опубликовано на Hugging Face. Модель оптимизирована для автодополнения: ~4 млрд параметров, поддержка длинного контекста (в карточке модели указывается 8192 токена), лицензия Apache-2.0.
Расширение экспериментов в IDE: улучшена обработка мультифайлового контекста и добавлена поддержка дополнительных языков в превью-сборках.
Публичное представление и первый альфа-превью от JetBrains. Первоначальная цель: автодополнение кода в IDE JetBrains и интеграция с AI Assistant.
Плюсы и минусы инструмента
Плюсы
- Быстрый и точный
- Автозаполнение кода
- Простая интеграция
- Открытый исходный код
- Мгновенные подсказки
Минусы
- Только автозаполнение
- Требуется настройка IDE
- Ограниченная поддержка