spaCy
Integraciones
- PyTorch
- Hugging Face Hub
- OpenAI / Anthropic / Google Vertex
- vLLM
- LangChain
- Prodigy
Detalles de precios
- La biblioteca principal es gratuita.
- Se ofrece soporte comercial y desarrollo de canalizaciones personalizadas a través de los servicios especializados de Explosion.
- Los costes de infraestructura para tokens de LLM o clústeres de GPU son gestionados por el usuario.
Características
- Núcleo optimizado con Cython con soporte para Python 3.13
- Curated Transformers 2.1 (soporte nativo para 4/8 bits)
- Orquestación asíncrona de componentes de LLM
- Estrategia de caché de respuestas para reducción de costes
- Sistema de configuración unificado (Thinc v8.3+)
- Integración de tareas basadas en agentes (NER, clasificación, resumen)
Descripción
spaCy: Orquestación de NLP basada en agentes y auditoría de eficiencia (2026)
A partir de enero de 2026, spaCy ha evolucionado hacia un Marco Híbrido Basado en Agentes. El objeto central Doc actúa ahora como un contenedor de estado multimodal que sincroniza lógica determinista basada en reglas con salidas estocásticas de LLM. La versión 4.0 (noviembre de 2025) introduce formalmente la ejecución asíncrona de componentes, permitiendo que las canalizaciones escalen en entornos de API distribuidos 📑.
Canalización principal y orquestación
La arquitectura aprovecha Curated Transformers 2.1, que proporciona bloques de construcción independientes en PyTorch para modelos SOTA como Llama 3 y Falcon, optimizados para huellas de memoria reducidas.
- Escenario operativo: Auditoría regulatoria automatizada:
Entrada: Flujo de 10.000 contratos legales en formato PDF/texto 📑.
Proceso: Etiquetado POS y análisis de dependencias mediante base Cython, seguido de reconocimiento de entidades nombradas (NER) de cero disparos utilizando spacy-llm. El motor asíncrono paraleliza llamadas a API de Claude-3.5/4 mientras verifica la Caché de Respuestas para cláusulas idénticas 🧠.
Salida: UnDocBinestructurado que contiene riesgos extraídos, metadatos y trazas de razonamiento de LLM 📑. - Arquitectura de Curated Transformers: Cada modelo se compone de 'bloques' reutilizables (ALBERT, BERT, RoBERTa), soportando inicialización meta-dispositivo para evitar asignaciones innecesarias de VRAM durante la carga del modelo 📑.
⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍
Rendimiento y gestión de recursos
La iteración de 2026 se centra en tiempos de CLI e importación 'extremadamente rápidos' al desacoplar el registro de funciones de los efectos secundarios en tiempo de importación.
- Soporte de cuantización: Integración nativa con
bitsandbytespara inferencia en 4 y 8 bits, permitiendo la ejecución local de modelos grandes codificador-decodificador en hardware de consumo 📑. - Tokens multimodales (Alfa): Aunque el objeto
Docsoporta atributos de extensión para datos multimodales, la integración nativa de lenguaje-visión se limita actualmente a envoltorios experimentales decurated-transformers⌛.
Directrices de evaluación
Los evaluadores técnicos deben verificar las siguientes características arquitectónicas:
- Rendimiento (throughput) asíncrono: Evaluar el rendimiento de
nlp.pipecon diferentes configuraciones den_processpara encontrar el punto de saturación de la CPU local frente a los límites de tasa de las LLM externas [Inference]. - Eficiencia de aciertos en caché: Auditar el directorio de caché de
spacy-llmpara garantizar que la versión de los prompts invalide correctamente las entradas antiguas cuando cambie el prompt del sistema 🧠. - Consistencia de tipos: Aprovechar los stubs de tipos PEP 561 mejorados de spaCy para validación en CI/CD, especialmente al utilizar analizadores de LLM basados en Pydantic 📑.
- Residencia de datos: Para implementaciones en nube soberana, verificar que
spacy-llmesté configurado para utilizar backends de LLM locales (por ejemplo, vLLM u Ollama) en lugar de APIs alojadas 🌑.
Historial de versiones
Actualización de fin de año: el objeto `Doc` ahora admite tokens multimodales (imagen+texto).
Soporte oficial para 'Pipelines Agénticos' en spaCy.
Inicio del ciclo v4.0. Nueva biblioteca 'Curated Transformers' para inferencia rápida.
Introducción de embeddings estáticos refinados y rendimiento mejorado de la CPU.
Lanzamiento de `spacy-llm`. Permite integrar LLM directamente en los pipelines de spaCy.
Cambio arquitectónico masivo. Pipelines de transformadores de última generación.
Introducción de modelos de redes neuronales convolucionales.
Lanzamiento inicial de spaCy. NLP de fuerza industrial centrado en el rendimiento.
Ventajas y desventajas de la herramienta
Ventajas
- Procesamiento rápido de texto
- Modelos pre-entrenados
- Diseño flexible
- Fácil integración
- Soporte multilingüe
- Excelente documentación
- Comunidad activa
- Eficiencia de memoria
Desventajas
- Curva de aprendizaje pronunciada
- Requiere Python
- Optimización de grandes datos