Иконка инструмента

Mistral AI

4.1 (11 голосов)
Mistral AI

Теги

LLM MoE Open-Weight Корпоративный ИИ Генерация кода

Интеграции

  • Azure AI Studio
  • AWS Bedrock
  • Google Vertex AI
  • Hugging Face
  • LangChain
  • LlamaIndex

Детали цены

  • Ценообразование API основано на потреблении токенов (ввод/вывод) по различным уровням моделей.
  • Лицензирование варьируется между Apache 2.0 и Mistral Research License (MRL) в зависимости от масштаба модели.

Возможности

  • Архитектура Sparse Mixture-of-Experts (MoE)
  • Контекстное окно 256K (серия Codestral)
  • Нативный вызов функций и использование инструментов
  • Двухуровневое лицензирование (Apache 2.0 / MRL)
  • Варианты развёртывания в VPC и локально
  • Поддержка агентной оркестрации

Описание

Техническая оценка архитектуры Mistral AI

Инфраструктура Mistral AI на 2026 год основана на модульном подходе к большим языковым моделям (LLM), преимущественно использующем Sparse Mixture-of-Experts (MoE) для оптимизации активации параметров во время выполнения. Эта архитектура позволяет системе поддерживать высокое общее количество параметров при значительном сокращении FLOPs на токен во время инференса 📑. Текущая линейка моделей, включая серию Mistral Large и Codestral 2, ориентирована на ядра, готовые к агентной оркестрации, с нативной поддержкой вызова функций и расширенными контекстными окнами 🧠.

Архитектура основной модели и логический вывод

Основной архитектурный шаблон основан на динамической маршрутизации входных токенов к специализированным подсетям (экспертам), что позволяет увеличить ёмкость модели без линейного роста вычислительных затрат.

  • Sparse Mixture-of-Experts (MoE): Реализация в моделях Mistral Large и Mixtral использует механизм маршрутизатора для выбора подмножества параметров для каждого токена 📑. Алгоритмы внутренней маршрутизации для балансировки экспертов остаются проприетарными 🌑.
  • Управление контекстом: Поддержка контекстных окон до 256K в моделях Codestral 2 обеспечивает анализ длинных кодовых блоков и ингестию крупномасштабных документов 📑.
  • Агентные возможности: Оптимизация для использования инструментов и вызова функций внедрена на уровне предобучения для поддержки автономной сборки подпроцессов 📑.

⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍

Инфраструктура и модели развёртывания

Mistral AI предлагает двухуровневую стратегию развёртывания: управляемые API-сервисы и самостоятельное хостирование.

  • Управляемый уровень персистентности: La Plateforme использует проприетарную инфраструктуру хранения и вычислений для обслуживания моделей через API 🌑.
  • Лицензирование и распространение: Модели распространяются под лицензией Apache 2.0 (для определённых небольших весов) или Mistral Research License (для флагманских/специализированных моделей), что позволяет локальное выполнение с учётом ограничений использования 📑.
  • Медиация облачных решений: Варианты развёртывания включают изоляцию на базе VPC у основных облачных провайдеров для обеспечения соответствия требованиям к резидентности данных 📑.

Рекомендации по оценке

Техническим командам следует уделить приоритетное внимание следующим шагам валидации:

  • Задержка конкуренции MoE: Проверка соотношения токен-задержка при высокой нагрузке для обеспечения стабильности механизма маршрутизации 🧠.
  • Документация по безопасности: Запрос подробных технических документов по внутренним механизмам безопасности и многоуровневым средствам контроля доступа, так как они не являются открытыми 🌑.
  • Эффективность RAG с длинным контекстом: Валидация производительности припоминания 256K контекстного окна (например, тест Needle In A Haystack) в производственных RAG-средах перед полномасштабным развёртыванием 📑.

История обновлений

Devstral 2 (123B) & Devstral Small 2 (24B) 2025-12-09

Релиз Devstral 2, семейства моделей для программирования нового поколения с передовыми агентскими возможностями. Devstral 2 (123B) и Devstral Small 2 (24B) поддерживают контекстное окно 256K и оптимизированы для кодовых агентов.

Mistral 3 (Ministral 3B/8B/14B, Mistral Large 3) 2025-12-02

Релиз семейства Mistral 3: Ministral 3 (плотные модели 3B, 8B, 14B) и Mistral Large 3 (разреженная MoE, 41B активных/675B общих параметров). Все модели с открытыми весами, лицензия Apache 2.0, поддерживают мультимодальность и мультиязычность. Mistral Large 3 — самая мощная модель на сегодня, оптимизирована для корпоративного и edge-развёртывания.

API v1.1 2025-05

Обновление API: представлена поддержка тонкой настройки моделей Mistral 7B и Mixtral 8x22B. Добавлен вариант потоковой передачи ответа.

Mistral Large v1.1 2025-02

Mistral Large обновлен с расширенными многоязыковыми возможностями и улучшенной генерацией кода для Python и JavaScript.

Mixtral 8x22B v0.1 2024-04-10

Выпуск Mixtral 8x22B, более крупной и производительной модели Mixture-of-Experts с 141 миллиардом общих параметров (39 миллиардов активных). Значительный прирост производительности по различным тестам. Снят с поддержки 30.03.2025, заменён на Mistral Small 3.2.

Mistral 7B v1.1 2024-08

Mistral 7B обновлен с улучшенным следованием инструкциям и снижением частоты галлюцинаций.

API v1.0 2024-05

Обновление API: добавлена поддержка вызова функций и улучшены лимиты скорости.

Mistral Large v0.1 2024-02

Коммерческий релиз Mistral Large, флагманской модели Mistral AI. Превосходная производительность в сложных задачах рассуждения и кодирования.

Mixtral 8x7B v0.1 2023-12

Выпуск Mixtral 8x7B, разреженной модели Mixture-of-Experts с 47 миллиардами параметров. Улучшенная производительность по сравнению с Mistral 7B.

API v0.1 2023-06

Запущен API-доступ к Mistral 7B. Доступны начальные ценовые уровни.

v0.1 2023-04

Первый релиз Mistral 7B, языковой модели с 7 миллиардами параметров. Открытый вес, лицензия Apache 2.0.

Плюсы и минусы инструмента

Плюсы

  • Высокая производительность, компактный размер
  • Открытые модели
  • Сильная генерация текста и кода
  • Быстрый и эффективный вывод
  • Хорошая многоязыковая поддержка

Минусы

  • API требуется для коммерческого использования
  • Возможна предвзятость
  • Зависимость от API

Цены (2026) – Mistral AI

Обновлено: 23.01.2026

Free

$0 / free
  • Ваш персональный ИИ-ассистент для жизни и работы. Начните работу с нашими самыми производительными моделями
  • Общайтесь. Ищите. Учитесь. Пишите код. Творите
  • Доступ к передовым ИИ-моделям Mistral
  • Сохранение и восстановление до 500 воспоминаний
  • Группировка чатов в проекты
  • Полный доступ к каталогу коннекторов

Pro

$14.99 / month
  • Повысьте продуктивность с расширенными возможностями ИИ и агентов
  • Студентам $5.99/мес
  • Больше сообщений и веб-поисков
  • В 30 раз больше расширенного мышления
  • В 5 раз больше отчётов Deep Research
  • До 15 ГБ для хранения документов
  • Неограниченное количество проектов
  • Поддержка в чате

Team

$24.99 / user/month
  • Расширьте возможности вашей команды с безопасным совместным рабочим пространством на базе ИИ
  • До 200 быстрых ответов/пользователь/день
  • До 30 ГБ хранилища/пользователь
  • Верификация доменного имени
  • Экспорт данных

Enterprise

$0 / Custom
  • Журналы аудита
  • SAML SSO
  • White label

Mistral Large 3

$0.5 / 1M tokens
  • Открытая мультимодальная и мультиязычная флагманская модель общего назначения
  • Текст-в-текст, Мультимодальность
  • Вывод (/М токенов) $1.5

Mistral Medium 3

$0.4 / 1M tokens
  • Передовая производительность. Упрощённое корпоративное развёртывание. Экономичность
  • Текст-в-текст, Мультимодальность, Агентность
  • Вывод (/М токенов) $2

Magistral Medium

$2 / 1M tokens
  • Модель мышления, отличающаяся в доменно-специфических, прозрачных и мультиязычных рассуждениях
  • Рассуждение, Текст-в-текст
  • Вывод (/М токенов) $5

Ministral 3 - 3B

$0.1 / 1M tokens
  • Передовой ИИ на периферии. Лучший в своём классе
  • Текст-в-текст, Агентность, Лёгкая модель
  • Вывод (/М токенов) $0.1

Ministral 3 - 8B

$0.15 / 1M tokens
  • Передовой ИИ на периферии. Лучший в своём классе
  • Текст-в-текст, Агентность, Лёгкая модель
  • Вывод (/М токенов) $0.15

Ministral 3 - 14B

$0.2 / 1M tokens
  • Передовой ИИ на периферии. Лучший в своём классе
  • Текст-в-текст, Агентность, Лёгкая модель
  • Вывод (/М токенов) $0.2

Devstral 2

$0 / free
  • Улучшенная модель для продвинутых агентов разработки
  • Программирование, Текст-в-текст, Агентность
  • Вывод (/М токенов) бесплатно

Codestral Api

$0.3 / 1M tokens
  • Лёгкая, быстрая модель с поддержкой более 80 языков программирования
  • Программирование, Текст-в-текст
  • Вывод (/М токенов) $0.9

Codestral Fine-Tuning

$0.2 / 1M tokens
  • Лёгкая, быстрая модель с поддержкой более 80 языков программирования
  • Программирование, Текст-в-текст
  • Стоимость обучения (/М токенов) $3
  • Стоимость хранения $2/месяц за модель
  • Ввод (/М токенов) $0.2
  • Вывод (/М токенов) $0.6

Document AI & OCR

$2 / per / 1000 pages
  • Представляем лучший в мире API для распознавания документов
  • OCR, Мультимодальность, Текст-в-текст

Voxtral Mini Transcribe

$0.002 / Audio Input/min
  • Передовая модель транскрипции
  • Голос, Текст-в-текст

Mistral Small 3.2 Api

$0.1 / 1M tokens
  • Передовая. Мультимодальная. Мультиязычная. Apache 2.0
  • Мультимодальность, Лёгкая модель, Текст-в-текст, Агентность
  • Вывод (/М токенов) $0.3

Mistral Small 3.2 Fine-Tuning

$0.1 / 1M tokens
  • Передовая. Мультимодальная. Мультиязычная. Apache 2.0
  • Мультимодальность, Лёгкая модель, Текст-в-текст, Агентность
  • Вывод (/М токенов) $0.3
  • Стоимость обучения (/М токенов) $4
  • Стоимость хранения $2/месяц за модель
  • Ввод (/М токенов) $0.1
  • Вывод (/М токенов) $0.3

Mistral Small Creative

$0.1 / 1M tokens
  • Дообученная малая модель для креативного письма, ролевых игр и чата — обучена на кураторских данных
  • Мультимодальность, Лёгкая модель, Текст-в-текст
  • Вывод (/М токенов) $0.3

Magistral Small

$0.5 / 1M tokens
  • Модель мышления, отличающаяся в доменно-специфических, прозрачных и мультиязычных рассуждениях
  • Рассуждение, Текст-в-текст, Лёгкая модель
  • Вывод (/М токенов) $1.5

Devstral Small 2

$0 / free
  • Лучшая модель с открытым исходным кодом для агентов программирования
  • Программирование, Агентность, Текст-в-текст, Лёгкая модель
  • Вывод (/М токенов) Бесплатно

Voxtral Small

$0.004 / per min / per M tok
  • Передовая производительность в понимании речи и аудио
  • Лёгкая модель, Голос, Текст-в-текст
  • Вывод (/М токенов) $0.3

Voxtral Mini

$0.001 / per min / per M tok
  • Низколатентное распознавание речи для периферийных устройств
  • Лёгкая модель, Голос, Текст-в-текст
  • Вывод (/М токенов) $0.04

Classifier API model 8B

$0.1 / 1M tokens
  • Дообучите Ministral 8B для задач классификации: модерация, анализ настроений, обнаружение мошенничества и др.
  • API классификаторов
  • Стоимость обучения (/М токенов) $1
  • Стоимость хранения $2/месяц за модель
  • Ввод (/М токенов) $0.1
  • Вывод (/М токенов) $0.1

Classifier API model 3B

$0.04 / 1M tokens
  • Дообучите Ministral 3B для задач классификации: модерация, анализ настроений, обнаружение мошенничества и др.
  • API классификаторов
  • Стоимость обучения (/М токенов) $1
  • Стоимость хранения $2/месяц за модель
  • Ввод (/М токенов) $0.04
  • Вывод (/М токенов) $0.04

Mistral Moderation 24.11

$0.1 / 1M tokens
  • Сервис классификации для модерации текстового контента
  • API классификаторов

Codestral Embed

$0.15 / 1M tokens
  • Передовая модель эмбеддингов для кода
  • Программирование, Эмбеддинги

Mistral Embed

$0.1 / 1M tokens
  • Передовая модель для извлечения представления текстовых фрагментов
  • Текст-в-текст, Эмбеддинги

Agent API

$0 / token
  • Расширяет возможности ИИ встроенными инструментами для выполнения кода, веб-поиска, генерации изображений, постоянной памяти и агентной оркестрации
  • Инструменты
  • Модель ценообразования: стоимость за М токен + вызов инструмента

Libraries

$1 / 1M tokens
  • Загружайте и управляйте документами, предоставляя агентам доступ к вашим внешним данным
  • Инструменты
  • OCR $3/1K страниц
  • Индексация $1/на М токенов
  • Вызов $0.01/за вызов

Code execution

$30 / 1000 calls
  • Выполняйте и интерпретируйте фрагменты кода в интерфейсе чата
  • Инструменты

Web search

$30 / 1000 calls
  • Улучшите свою работу, исследования и обучение с веб-поиском с цитированием для точной и актуальной информации
  • Инструменты

Images

$100 / 1000 images
  • Генерируйте изображения на основе запросов и предпочтений пользователя
  • Инструменты

Premium news

$50 / 1000 calls
  • Доступ к новостным статьям через встроенную верификацию новостных провайдеров для улучшенного поиска информации
  • Инструменты

Data capture

$0.04 / 1M tokens
  • Легко записывайте и получайте доступ к данным вызовов API для отладки и непрерывной оптимизации
  • Инструменты

Pixtral Large

$2 / 1M tokens
  • Крупная модель с визуальными возможностями и передовым рассуждением
  • Мультимодальность, Текст-в-текст
  • Вывод (/М токенов) $6

Pixtral 12B Api

$0.15 / 1M tokens
  • Малая модель с визуальными возможностями
  • Лёгкая модель, Мультимодальность, Текст-в-текст
  • Вывод (/М токенов) $0.15

Pixtral 12B Fine-Tuning

$0.15 / 1M tokens
  • Малая модель с визуальными возможностями
  • Лёгкая модель, Мультимодальность, Текст-в-текст
  • Стоимость обучения (/М токенов) $2
  • Стоимость хранения $2
  • Ввод (/М токенов) $0.15
  • Вывод (/М токенов) $0.15

Mistral NeMo Api

$0.15 / 1M tokens
  • Передовая модель Mistral, специально обученная для задач программирования
  • Программирование, Лёгкая модель
  • Вывод (/М токенов) $0.15

Mistral NeMo Fine-Tuning

$0.15 / 1M tokens
  • Передовая модель Mistral, специально обученная для задач программирования
  • Программирование, Лёгкая модель
  • Стоимость обучения (/М токенов) $1
  • Стоимость хранения $2
  • Ввод (/М токенов) $0.15
  • Вывод (/М токенов) $0.15

Mistral 7B

$0.25 / 1M tokens
  • Трансформерная модель на 7B параметров, быстрое развёртывание и лёгкая кастомизация
  • Текст-в-текст, Лёгкая модель
  • Вывод (/М токенов) $0.25

Mixtral 8x7B

$0.7 / 1M tokens
  • Разреженная смесь экспертов (SMoE) на 7B. Использует 12.9B активных параметров из 45B общих
  • Текст-в-текст
  • Вывод (/М токенов) $0.7

Mixtral 8x22B

$2 / 1M tokens
  • Mixtral 8x22B — самая производительная открытая модель на данный момент. Разреженная смесь экспертов (SMoE) на 22B. Использует только 39B активных параметров из 141B
  • Текст-в-текст
  • Вывод (/М токенов) $6
Chat