Icono de la herramienta

Mistral AI

4.1 (11 votos)
Mistral AI

Etiquetas

LLM MoE Pesos Abiertos IA Empresarial Generación de Código

Integraciones

  • Azure AI Studio
  • AWS Bedrock
  • Google Vertex AI
  • Hugging Face
  • LangChain
  • LlamaIndex

Detalles de precios

  • El precio de la API se basa en el consumo de tokens (entrada/salida) en niveles específicos de modelos.
  • Las licencias varían entre Apache 2.0 y Mistral Research License (MRL) dependiendo de la escala del modelo.

Características

  • Arquitectura Sparse Mixture-of-Experts (MoE)
  • Ventana de Contexto de 256K (serie Codestral)
  • Llamadas a Funciones y Uso de Herramientas Nativas
  • Licencias Bifurcadas (Apache 2.0 / MRL)
  • Opciones de Despliegue en VPC y On-Premise
  • Soporte para Orquestación Agentica

Descripción

Evaluación Arquitectónica de Mistral AI

La infraestructura de Mistral AI en 2026 se basa en un enfoque modular para los Large Language Models (LLMs), aprovechando principalmente Sparse Mixture-of-Experts (MoE) para optimizar la activación de parámetros durante el tiempo de ejecución. Esta arquitectura permite al sistema mantener un alto recuento total de parámetros mientras reduce significativamente los FLOPs necesarios por token durante la inferencia 📑. La actual línea de modelos, incluyendo la serie Mistral Large y Codestral 2, se centra en núcleos listos para agentes con soporte nativo para llamadas a funciones y ventanas de contexto ampliadas 🧠.

Arquitectura del Modelo Principal y Razonamiento

El patrón arquitectónico principal se basa en el enrutamiento dinámico de tokens de entrada hacia subredes especializadas (expertos), lo que permite aumentar la capacidad del modelo sin un incremento lineal en el coste computacional.

  • Sparse Mixture-of-Experts (MoE): La implementación en Mistral Large y la serie Mixtral utiliza un mecanismo de enrutamiento para seleccionar un subconjunto de parámetros para cada token 📑. Los algoritmos internos de equilibrio de expertos siguen siendo propietarios 🌑.
  • Gestión de Contexto: El soporte para ventanas de contexto de hasta 256K en los modelos Codestral 2 facilita el análisis de código de formato largo y la ingesta de documentos a gran escala 📑.
  • Capacidades Agenticas: La optimización para el uso de herramientas y llamadas a funciones está integrada a nivel de preentrenamiento para soportar el ensamblaje autónomo de subprocesos 📑.

⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍

Infraestructura y Modelos de Despliegue

Mistral AI ofrece una estrategia de despliegue bifurcada: servicios API gestionados y distribuciones autoalojadas.

  • Capa de Persistencia Gestionada: La Plateforme utiliza una infraestructura propietaria de almacenamiento y computación para el servicio de modelos basado en API 🌑.
  • Licencias y Distribución: Los modelos se distribuyen bajo Apache 2.0 (para pesos específicos más pequeños) o la Mistral Research License (para modelos insignia/especializados), permitiendo la ejecución local bajo restricciones de uso específicas 📑.
  • Mediación en la Nube: Las opciones de despliegue incluyen aislamiento basado en VPC en los principales proveedores de nube para garantizar el cumplimiento de la residencia de datos 📑.

Guía de Evaluación

Los equipos técnicos deberían priorizar los siguientes pasos de validación:

  • Latencia de Concurrencia en MoE: Verificar las relaciones token-latencia bajo cargas de alta concurrencia para asegurar la estabilidad del mecanismo de enrutamiento 🧠.
  • Documentación de Mediación de Seguridad: Solicitar documentos técnicos detallados sobre la mediación de seguridad interna y los controles de acceso por capas, ya que estos no son de código abierto 🌑.
  • Eficacia de RAG en Contexto Largo: Validar el rendimiento de recuperación de la ventana de contexto de 256K (por ejemplo, Needle In A Haystack) en entornos RAG de producción antes del despliegue a gran escala 📑.

Historial de versiones

Devstral 2 (123B) & Devstral Small 2 (24B) 2025-12-09

Lanzamiento de Devstral 2, una familia de modelos de codificación de próxima generación con capacidades de agente de vanguardia. Devstral 2 (123B) y Devstral Small 2 (24B) admiten una ventana de contexto de 256K y están optimizados para agentes de código.

Mistral 3 (Ministral 3B/8B/14B, Mistral Large 3) 2025-12-02

Lanzamiento de la familia Mistral 3: Ministral 3 (modelos densos de 3B, 8B, 14B) y Mistral Large 3 (MoE disperso, 41B activos/675B parámetros totales). Todos los modelos son de peso abierto, licencia Apache 2.0, con capacidades multimodales y multilingües. Mistral Large 3 es el modelo más capaz hasta la fecha, optimizado para implementación empresarial y en el edge.

API v1.1 2025-05

Actualización de la API: se introdujo compatibilidad con el ajuste fino de los modelos Mistral 7B y Mixtral 8x22B. Se agregó la opción de respuesta de transmisión.

Mistral Large v1.1 2025-02

Mistral Large actualizado con capacidades multilingües mejoradas y una generación de código mejorada para Python y JavaScript.

Mixtral 8x22B v0.1 2024-04-10

Lanzamiento de Mixtral 8x22B, un modelo Mixture-of-Experts más grande y capaz con 141 mil millones de parámetros totales (39 mil millones activos). Ganancias significativas en el rendimiento en varios puntos de referencia. Retirado el 30.03.2025, reemplazado por Mistral Small 3.2.

Mistral 7B v1.1 2024-08

Mistral 7B actualizado con un mejor seguimiento de instrucciones y tasas de alucinación reducidas.

API v1.0 2024-05

Actualización de la API: se agregó compatibilidad con la llamada de funciones y se mejoraron los límites de velocidad.

Mistral Large v0.1 2024-02

Lanzamiento comercial de Mistral Large, el modelo estrella de Mistral AI. Rendimiento superior en tareas complejas de razonamiento y codificación.

Mixtral 8x7B v0.1 2023-12

Lanzamiento de Mixtral 8x7B, un modelo Sparse Mixture-of-Experts con 47 mil millones de parámetros. Rendimiento mejorado en comparación con Mistral 7B.

API v0.1 2023-06

Lanzado acceso a la API de Mistral 7B. Disponibles niveles de precios iniciales.

v0.1 2023-04

Lanzamiento inicial de Mistral 7B, un modelo de lenguaje de 7 mil millones de parámetros. Peso abierto, licencia Apache 2.0.

Ventajas y desventajas de la herramienta

Ventajas

  • Alto rendimiento, tamaño pequeño
  • Opciones de código abierto
  • Fuerte en texto y código
  • Inferencia rápida y eficiente
  • Buenas capacidades multilingües

Desventajas

  • Se requiere API para uso comercial
  • Posible sesgo
  • Dependencia del acceso a la API

Precios (2026) – Mistral AI

Actualizado: 23.01.2026

Free

$0 / free
  • Tu asistente de IA personal para la vida y el trabajo. Comienza con nuestros modelos de mayor rendimiento
  • Chatea. Busca. Aprende. Codifica. Crea
  • Acceso a los modelos de IA SOTA de Mistral
  • Guarda y recupera hasta 500 recuerdos
  • Agrupa chats en proyectos
  • Acceso completo al directorio de conectores

Pro

$14.99 / month
  • Desbloquea productividad mejorada con capacidades extendidas de IA y agentes
  • Estudiantes $5.99/mes
  • Más mensajes y búsquedas web
  • 30 veces más pensamiento extendido
  • 5 veces más informes de Deep Research
  • Hasta 15GB de almacenamiento de documentos
  • Proyectos ilimitados
  • Soporte por chat

Team

$24.99 / user/month
  • Empodera a tu equipo con un espacio de trabajo colaborativo y seguro impulsado por IA
  • Hasta 200 respuestas rápidas/usuario/día
  • Hasta 30GB de almacenamiento/usuario
  • Verificación de nombre de dominio
  • Exportación de datos

Enterprise

$0 / Custom
  • Registros de auditoría
  • SAML SSO
  • Marca blanca

Mistral Large 3

$0.5 / 1M tokens
  • Modelo multimodal y multilingüe insignia de propósito general con pesos abiertos
  • Texto a texto, Multimodal
  • Salida (/M tokens) $1.5

Mistral Medium 3

$0.4 / 1M tokens
  • Rendimiento de última generación. Implementaciones empresariales simplificadas. Rentable
  • Texto a texto, Multimodal, Agéntico
  • Salida (/M tokens) $2

Magistral Medium

$2 / 1M tokens
  • Modelo de razonamiento que sobresale en razonamiento específico de dominio, transparente y multilingüe
  • Razonamiento, Texto a texto
  • Salida (/M tokens) $5

Ministral 3 - 3B

$0.1 / 1M tokens
  • IA de frontera de mejor clase hasta el borde
  • Texto a texto, Agéntico, Ligero
  • Salida (/M tokens) $0.1

Ministral 3 - 8B

$0.15 / 1M tokens
  • IA de frontera de mejor clase hasta el borde
  • Texto a texto, Agéntico, Ligero
  • Salida (/M tokens) $0.15

Ministral 3 - 14B

$0.2 / 1M tokens
  • IA de frontera de mejor clase hasta el borde
  • Texto a texto, Agéntico, Ligero
  • Salida (/M tokens) $0.2

Devstral 2

$0 / free
  • Modelo mejorado para agentes de codificación avanzados
  • Codificación, Texto a texto, Agéntico
  • Salida (/M tokens) gratis

Codestral Api

$0.3 / 1M tokens
  • Ligero, rápido y competente en más de 80 lenguajes de programación
  • Codificación, Texto a texto
  • Salida (/M tokens) $0.9

Codestral Fine-Tuning

$0.2 / 1M tokens
  • Ligero, rápido y competente en más de 80 lenguajes de programación
  • Codificación, Texto a texto
  • Costo de entrenamiento (/M tokens) $3
  • Costo de almacenamiento $2/mes por modelo
  • Entrada (/M tokens) $0.2
  • Salida (/M tokens) $0.6

Document AI & OCR

$2 / per / 1000 pages
  • Presentando la mejor API de comprensión de documentos del mundo
  • OCR, Multimodal, Texto a texto

Voxtral Mini Transcribe

$0.002 / Audio Input/min
  • Modelo de transcripción de última generación
  • Voz, Texto a texto

Mistral Small 3.2 Api

$0.1 / 1M tokens
  • SOTA. Multimodal. Multilingüe. Apache 2.0
  • Multimodal, Ligero, Texto a texto, Agéntico
  • Salida (/M tokens) $0.3

Mistral Small 3.2 Fine-Tuning

$0.1 / 1M tokens
  • SOTA. Multimodal. Multilingüe. Apache 2.0
  • Multimodal, Ligero, Texto a texto, Agéntico
  • Salida (/M tokens) $0.3
  • Costo de entrenamiento (/M tokens) $4
  • Costo de almacenamiento $2/mes por modelo
  • Entrada (/M tokens) $0.1
  • Salida (/M tokens) $0.3

Mistral Small Creative

$0.1 / 1M tokens
  • Un modelo pequeño ajustado para escritura creativa, juego de roles y chat, entrenado con datos curados
  • Multimodal, Ligero, Texto a texto
  • Salida (/M tokens) $0.3

Magistral Small

$0.5 / 1M tokens
  • Modelo de razonamiento que sobresale en razonamiento específico de dominio, transparente y multilingüe
  • Razonamiento, Texto a texto, Ligero
  • Salida (/M tokens) $1.5

Devstral Small 2

$0 / free
  • El mejor modelo de código abierto para agentes de codificación
  • Codificación, Agéntico, Texto a texto, Ligero
  • Salida (/M tokens) Gratis

Voxtral Small

$0.004 / per min / per M tok
  • Rendimiento de última generación en comprensión de voz y audio
  • Ligero, Voz, Texto a texto
  • Salida (/M tokens) $0.3

Voxtral Mini

$0.001 / per min / per M tok
  • Reconocimiento de voz de baja latencia para el borde y dispositivos
  • Ligero, Voz, Texto a texto
  • Salida (/M tokens) $0.04

Classifier API model 8B

$0.1 / 1M tokens
  • Ajusta Ministral 8B para tareas de clasificación como moderación, análisis de sentimientos, detección de fraude y más
  • APIs de clasificadores
  • Costo de entrenamiento (/M tokens) $1
  • Costo de almacenamiento $2/mes por modelo
  • Entrada (/M tokens) $0.1
  • Salida (/M tokens) $0.1

Classifier API model 3B

$0.04 / 1M tokens
  • Ajusta Ministral 3B para tareas de clasificación como moderación, análisis de sentimientos, detección de fraude y más
  • APIs de clasificadores
  • Costo de entrenamiento (/M tokens) $1
  • Costo de almacenamiento $2/mes por modelo
  • Entrada (/M tokens) $0.04
  • Salida (/M tokens) $0.04

Mistral Moderation 24.11

$0.1 / 1M tokens
  • Un servicio de clasificación para moderación de contenido de texto
  • APIs de clasificadores

Codestral Embed

$0.15 / 1M tokens
  • Modelo de incrustación de última generación para código
  • Codificación, Incrustación

Mistral Embed

$0.1 / 1M tokens
  • Modelo de última generación para extraer representación de extractos de texto
  • Texto a texto, Incrustación

Agent API

$0 / token
  • Mejora la IA con herramientas integradas para ejecución de código, búsqueda web, generación de imágenes, memoria persistente y orquestación agéntica
  • Herramientas
  • Modelo de precio: costo por M token + llamada de herramienta

Libraries

$1 / 1M tokens
  • Carga y gestiona documentos, permitiendo que los agentes accedan a tus datos externos
  • Herramientas
  • OCR $3/1K páginas
  • Indexación $1/por M tokens
  • Llamada $0.01/por llamada

Code execution

$30 / 1000 calls
  • Ejecuta e interpreta fragmentos de código dentro de la interfaz de chat
  • Herramientas

Web search

$30 / 1000 calls
  • Mejora tu trabajo, investigación y aprendizaje con búsqueda web, con citas para información precisa y actualizada
  • Herramientas

Images

$100 / 1000 images
  • Genera imágenes basadas en solicitudes y preferencias del usuario
  • Herramientas

Premium news

$50 / 1000 calls
  • Acceso a artículos de noticias mediante verificación integrada de proveedores de noticias para recuperación mejorada de información
  • Herramientas

Data capture

$0.04 / 1M tokens
  • Graba y accede fácilmente a datos de llamadas API para depuración y optimización continua
  • Herramientas

Pixtral Large

$2 / 1M tokens
  • Modelo grande con capacidad de visión y capacidades de razonamiento de frontera
  • Multimodal, Texto a texto
  • Salida (/M tokens) $6

Pixtral 12B Api

$0.15 / 1M tokens
  • Modelo pequeño con capacidad de visión
  • Ligero, Multimodal, Texto a texto
  • Salida (/M tokens) $0.15

Pixtral 12B Fine-Tuning

$0.15 / 1M tokens
  • Modelo pequeño con capacidad de visión
  • Ligero, Multimodal, Texto a texto
  • Costo de entrenamiento (/M tokens) $2
  • Costo de almacenamiento $2
  • Entrada (/M tokens) $0.15
  • Salida (/M tokens) $0.15

Mistral NeMo Api

$0.15 / 1M tokens
  • Modelo Mistral de última generación entrenado específicamente para tareas de código
  • Codificación, Ligero
  • Salida (/M tokens) $0.15

Mistral NeMo Fine-Tuning

$0.15 / 1M tokens
  • Modelo Mistral de última generación entrenado específicamente para tareas de código
  • Codificación, Ligero
  • Costo de entrenamiento (/M tokens) $1
  • Costo de almacenamiento $2
  • Entrada (/M tokens) $0.15
  • Salida (/M tokens) $0.15

Mistral 7B

$0.25 / 1M tokens
  • Un modelo transformador de 7B, de implementación rápida y fácilmente personalizable
  • Texto a texto, Ligero
  • Salida (/M tokens) $0.25

Mixtral 8x7B

$0.7 / 1M tokens
  • Una mezcla dispersa de expertos (SMoE) de 7B. Usa 12.9B parámetros activos de 45B totales
  • Texto a texto
  • Salida (/M tokens) $0.7

Mixtral 8x22B

$2 / 1M tokens
  • Mixtral 8x22B es actualmente el modelo abierto más eficiente. Una mezcla dispersa de expertos (SMoE) de 22B. Usa solo 39B parámetros activos de 141B
  • Texto a texto
  • Salida (/M tokens) $6
Chat