Icono de la herramienta

spaCy

4.7 (30 votos)
spaCy

Etiquetas

Infraestructura-NLP Ingeniería-Python IA-basada-en-agentes Alto-rendimiento Código-abierto

Integraciones

  • PyTorch
  • Hugging Face Hub
  • OpenAI / Anthropic / Google Vertex
  • vLLM
  • LangChain
  • Prodigy

Detalles de precios

  • La biblioteca principal es gratuita.
  • Se ofrece soporte comercial y desarrollo de canalizaciones personalizadas a través de los servicios especializados de Explosion.
  • Los costes de infraestructura para tokens de LLM o clústeres de GPU son gestionados por el usuario.

Características

  • Núcleo optimizado con Cython con soporte para Python 3.13
  • Curated Transformers 2.1 (soporte nativo para 4/8 bits)
  • Orquestación asíncrona de componentes de LLM
  • Estrategia de caché de respuestas para reducción de costes
  • Sistema de configuración unificado (Thinc v8.3+)
  • Integración de tareas basadas en agentes (NER, clasificación, resumen)

Descripción

spaCy: Orquestación de NLP basada en agentes y auditoría de eficiencia (2026)

A partir de enero de 2026, spaCy ha evolucionado hacia un Marco Híbrido Basado en Agentes. El objeto central Doc actúa ahora como un contenedor de estado multimodal que sincroniza lógica determinista basada en reglas con salidas estocásticas de LLM. La versión 4.0 (noviembre de 2025) introduce formalmente la ejecución asíncrona de componentes, permitiendo que las canalizaciones escalen en entornos de API distribuidos 📑.

Canalización principal y orquestación

La arquitectura aprovecha Curated Transformers 2.1, que proporciona bloques de construcción independientes en PyTorch para modelos SOTA como Llama 3 y Falcon, optimizados para huellas de memoria reducidas.

  • Escenario operativo: Auditoría regulatoria automatizada:
    Entrada: Flujo de 10.000 contratos legales en formato PDF/texto 📑.
    Proceso: Etiquetado POS y análisis de dependencias mediante base Cython, seguido de reconocimiento de entidades nombradas (NER) de cero disparos utilizando spacy-llm. El motor asíncrono paraleliza llamadas a API de Claude-3.5/4 mientras verifica la Caché de Respuestas para cláusulas idénticas 🧠.
    Salida: Un DocBin estructurado que contiene riesgos extraídos, metadatos y trazas de razonamiento de LLM 📑.
  • Arquitectura de Curated Transformers: Cada modelo se compone de 'bloques' reutilizables (ALBERT, BERT, RoBERTa), soportando inicialización meta-dispositivo para evitar asignaciones innecesarias de VRAM durante la carga del modelo 📑.

⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍

Rendimiento y gestión de recursos

La iteración de 2026 se centra en tiempos de CLI e importación 'extremadamente rápidos' al desacoplar el registro de funciones de los efectos secundarios en tiempo de importación.

  • Soporte de cuantización: Integración nativa con bitsandbytes para inferencia en 4 y 8 bits, permitiendo la ejecución local de modelos grandes codificador-decodificador en hardware de consumo 📑.
  • Tokens multimodales (Alfa): Aunque el objeto Doc soporta atributos de extensión para datos multimodales, la integración nativa de lenguaje-visión se limita actualmente a envoltorios experimentales de curated-transformers .

Directrices de evaluación

Los evaluadores técnicos deben verificar las siguientes características arquitectónicas:

  • Rendimiento (throughput) asíncrono: Evaluar el rendimiento de nlp.pipe con diferentes configuraciones de n_process para encontrar el punto de saturación de la CPU local frente a los límites de tasa de las LLM externas [Inference].
  • Eficiencia de aciertos en caché: Auditar el directorio de caché de spacy-llm para garantizar que la versión de los prompts invalide correctamente las entradas antiguas cuando cambie el prompt del sistema 🧠.
  • Consistencia de tipos: Aprovechar los stubs de tipos PEP 561 mejorados de spaCy para validación en CI/CD, especialmente al utilizar analizadores de LLM basados en Pydantic 📑.
  • Residencia de datos: Para implementaciones en nube soberana, verificar que spacy-llm esté configurado para utilizar backends de LLM locales (por ejemplo, vLLM u Ollama) en lugar de APIs alojadas 🌑.

Historial de versiones

v4.5 (Multimodal Docs) 2025-12

Actualización de fin de año: el objeto `Doc` ahora admite tokens multimodales (imagen+texto).

v4.2 (Production Agents) 2025-06

Soporte oficial para 'Pipelines Agénticos' en spaCy.

v4.0 Alpha (Curated Transformers) 2024-11

Inicio del ciclo v4.0. Nueva biblioteca 'Curated Transformers' para inferencia rápida.

v3.7 (Static Embeddings) 2024-02

Introducción de embeddings estáticos refinados y rendimiento mejorado de la CPU.

spacy-llm (v0.1) 2023-05

Lanzamiento de `spacy-llm`. Permite integrar LLM directamente en los pipelines de spaCy.

v3.0 (Transformer Era) 2021-01

Cambio arquitectónico masivo. Pipelines de transformadores de última generación.

v2.0 (Neural Models) 2017-11

Introducción de modelos de redes neuronales convolucionales.

v1.0 Launch 2015-10

Lanzamiento inicial de spaCy. NLP de fuerza industrial centrado en el rendimiento.

Ventajas y desventajas de la herramienta

Ventajas

  • Procesamiento rápido de texto
  • Modelos pre-entrenados
  • Diseño flexible
  • Fácil integración
  • Soporte multilingüe
  • Excelente documentación
  • Comunidad activa
  • Eficiencia de memoria

Desventajas

  • Curva de aprendizaje pronunciada
  • Requiere Python
  • Optimización de grandes datos
Chat