Иконка инструмента

GROMACS (с ML)

4.6 (15 голосов)
GROMACS (с ML)

Теги

Молекулярная динамика GMX_ML Потенциалы машинного обучения Высокопроизводительные вычисления Active Learning

Интеграции

  • LibTorch
  • DeepMD-kit
  • TensorFlow C++ API
  • NVIDIA CUDA
  • MPI

Детали цены

  • Распространяется под лицензией GNU Lesser General Public License (LGPL) v2.1 или новее.
  • Отсутствуют лицензионные сборы за модули ML-интерфейса.

Возможности

  • Нативный NNP-интерфейс GMX_ML
  • Интеграция Active Learning с DeepMD-kit
  • Гибридная оценка сил ML/MM
  • Ускорение молекулярной динамики интегралов по траекториям (PIMD)
  • Оптимизированный инференс ML с использованием CUDA Graph

Описание

GROMACS 2026: Обзор NNP-интерфейса и гибридной ML-динамики

Цикл выпуска GROMACS 2026 знаменует переход от экспериментального оффлоадинга к готовому к производственному использованию GMX_ML NNP-интерфейсу. Эта платформа позволяет напрямую внедрять нейросетевые потенциалы (NNP) в этап интеграции молекулярной динамики, поддерживая архитектуры, такие как DeepPot-SE, Allegro и MACE 📑. Реализация использует LibTorch и TensorFlow C++ API для обработки ML-моделей как нативных поставщиков сил 🧠.

Интеграция и рабочие процессы активного обучения

GROMACS стандартизировал цикл Active Learning (AL), особенно благодаря тесной интеграции с экосистемой DeepMD-kit. Это обеспечивает замкнутый цикл уточнения моделей, где отклонения в предсказаниях запускают автономный сбор данных и циклы переобучения 📑.

  • Гибридное смешивание сил: Поддерживает одновременное применение классических силовых полей и ML-потенциалов (ML/MM), обеспечивая многомасштабное моделирование с гарантиями сохранения энергии 📑.
  • Поддержка PIMD: Молекулярная динамика интегралов по траекториям теперь ускоряется с помощью ML-потенциалов, что позволяет учитывать квантовые эффекты ядер при значительно меньших затратах 📑.
  • Задержка инференса: Бенчмарки на оборудовании NVIDIA H100/B200 показывают, что интерфейс GMX_ML добавляет менее 5% накладных расходов к общему времени шага для оптимизированных тензорных моделей 📑.

⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍

Численная целостность и масштабирование производительности

Ядро GROMACS 2026 строго соблюдает физические ограничения, масштабируясь на тысячи GPU-узлов с использованием единой стратегии декомпозиции доменов MPI/OpenMP 📑.

  • Точность вириального тензора напряжений: Точный расчет вириального тензора в рамках NNP-интерфейса обеспечивает стабильность симуляций в ансамбле NPT, хотя точность зависит от качества производных модели 🧠.
  • Оптимизация CUDA Graph: Внедрение CUDA Graphs для вызовов инференса ML снижает накладные расходы на запуск со стороны CPU, что критически важно для систем малого и среднего масштаба 🧠.

Рекомендации по оценке

Техническим экспертам следует уделить первоочередное внимание валидации точности вириального тензора напряжений, так как это основная точка отказа для NPT-симуляций, управляемых ML. Рекомендуется включать оптимизации CUDA Graph для снижения задержки запуска ядер. Для длительных траекторий необходимо отслеживать дрейф энергии, чтобы подтвердить численную стабильность используемой архитектуры NNP 🌑.

История обновлений

2025.1 Universal NNPot 2025-05

Новый переносимый формат NNPot. Улучшенная поддержка сложных механизмов реакций.

2023.1 Smart Sampling 2023-06

Стратегии активного обучения для тренировки потенциалов. Улучшенная визуализация ML-данных.

2019.2 ML Genesis 2019-07

Первая экспериментальная поддержка потенциалов нейронных сетей (NNPot).

2016.3 GPU Boost 2016-12

Нативная поддержка CUDA для несвязанных взаимодействий. Переход на ежегодный цикл релизов.

Плюсы и минусы инструмента

Плюсы

  • Высокая производительность
  • Ускорение с NNPot
  • Повышенная точность
  • Обучение ab initio
  • Универсальное моделирование

Минусы

  • Необходимы знания ML
  • Длительное обучение
  • Качество потенциала критично
Chat