GROMACS (с ML)
Интеграции
- LibTorch
- DeepMD-kit
- TensorFlow C++ API
- NVIDIA CUDA
- MPI
Детали цены
- Распространяется под лицензией GNU Lesser General Public License (LGPL) v2.1 или новее.
- Отсутствуют лицензионные сборы за модули ML-интерфейса.
Возможности
- Нативный NNP-интерфейс GMX_ML
- Интеграция Active Learning с DeepMD-kit
- Гибридная оценка сил ML/MM
- Ускорение молекулярной динамики интегралов по траекториям (PIMD)
- Оптимизированный инференс ML с использованием CUDA Graph
Описание
GROMACS 2026: Обзор NNP-интерфейса и гибридной ML-динамики
Цикл выпуска GROMACS 2026 знаменует переход от экспериментального оффлоадинга к готовому к производственному использованию GMX_ML NNP-интерфейсу. Эта платформа позволяет напрямую внедрять нейросетевые потенциалы (NNP) в этап интеграции молекулярной динамики, поддерживая архитектуры, такие как DeepPot-SE, Allegro и MACE 📑. Реализация использует LibTorch и TensorFlow C++ API для обработки ML-моделей как нативных поставщиков сил 🧠.
Интеграция и рабочие процессы активного обучения
GROMACS стандартизировал цикл Active Learning (AL), особенно благодаря тесной интеграции с экосистемой DeepMD-kit. Это обеспечивает замкнутый цикл уточнения моделей, где отклонения в предсказаниях запускают автономный сбор данных и циклы переобучения 📑.
- Гибридное смешивание сил: Поддерживает одновременное применение классических силовых полей и ML-потенциалов (ML/MM), обеспечивая многомасштабное моделирование с гарантиями сохранения энергии 📑.
- Поддержка PIMD: Молекулярная динамика интегралов по траекториям теперь ускоряется с помощью ML-потенциалов, что позволяет учитывать квантовые эффекты ядер при значительно меньших затратах 📑.
- Задержка инференса: Бенчмарки на оборудовании NVIDIA H100/B200 показывают, что интерфейс GMX_ML добавляет менее 5% накладных расходов к общему времени шага для оптимизированных тензорных моделей 📑.
⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍
Численная целостность и масштабирование производительности
Ядро GROMACS 2026 строго соблюдает физические ограничения, масштабируясь на тысячи GPU-узлов с использованием единой стратегии декомпозиции доменов MPI/OpenMP 📑.
- Точность вириального тензора напряжений: Точный расчет вириального тензора в рамках NNP-интерфейса обеспечивает стабильность симуляций в ансамбле NPT, хотя точность зависит от качества производных модели 🧠.
- Оптимизация CUDA Graph: Внедрение CUDA Graphs для вызовов инференса ML снижает накладные расходы на запуск со стороны CPU, что критически важно для систем малого и среднего масштаба 🧠.
Рекомендации по оценке
Техническим экспертам следует уделить первоочередное внимание валидации точности вириального тензора напряжений, так как это основная точка отказа для NPT-симуляций, управляемых ML. Рекомендуется включать оптимизации CUDA Graph для снижения задержки запуска ядер. Для длительных траекторий необходимо отслеживать дрейф энергии, чтобы подтвердить численную стабильность используемой архитектуры NNP 🌑.
История обновлений
Новый переносимый формат NNPot. Улучшенная поддержка сложных механизмов реакций.
Стратегии активного обучения для тренировки потенциалов. Улучшенная визуализация ML-данных.
Первая экспериментальная поддержка потенциалов нейронных сетей (NNPot).
Нативная поддержка CUDA для несвязанных взаимодействий. Переход на ежегодный цикл релизов.
Плюсы и минусы инструмента
Плюсы
- Высокая производительность
- Ускорение с NNPot
- Повышенная точность
- Обучение ab initio
- Универсальное моделирование
Минусы
- Необходимы знания ML
- Длительное обучение
- Качество потенциала критично