IBM AI Explainability 360
Integraciones
- Scikit-learn
- PyTorch
- TensorFlow
- Pandas / NumPy
- IBM watsonx.governance
Detalles de precios
- La biblioteca es gratuita bajo la licencia Apache 2.0.
- El soporte empresarial y los flujos de trabajo de gobernanza gestionados están disponibles a través de IBM watsonx.governance .
Características
- Taxonomía de explicaciones basada en perfiles
- Método de Explicación Contrastiva (CEM)
- Inducción de Reglas de Decisión Globales (BRCG)
- Métricas Proxy: Fidelidad y Monotonicidad
- Selección de Prototipos (ProtoDash)
- Arquitectura de kit de herramientas extensible
Descripción
IBM AIX360: Interpretabilidad de código abierto y revisión de LF AI
A enero de 2026, AI Explainability 360 (AIX360) sigue siendo un proyecto en fase de incubación gestionado por la LF AI & Data Foundation. La arquitectura está diseñada como un kit de herramientas desacoplado y agnóstico a modelos, que se integra con pilas ML estándar (Scikit-learn, PyTorch, TensorFlow). Su principal valor radica en su enfoque basado en taxonomía, que asigna métodos explicativos específicos a diferentes perfiles de usuarios —desde científicos de datos hasta auditores regulatorios— [Documentado].
Orquestación de modelos y arquitectura explicativa
El sistema utiliza una arquitectura extensible basada en clases, donde los algoritmos se categorizan según su nivel explicativo (local vs. global) y la naturaleza de los datos (basado en características vs. basado en instancias) [Documentado].
- Método de Explicación Contrastiva (CEM): Identifica 'negativos pertinentes' (qué debe estar ausente) y 'positivos pertinentes' (qué debe estar presente) para justificar una decisión mediante contrafactuales [Documentado].
- Motores de Surrogación Global: Incluye Reglas de Decisión Booleanas (BRCG) y ProtoDash para aproximar el comportamiento de modelos de caja negra mediante conjuntos de reglas interpretables [Documentado].
⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍
Patrones de integración y pipeline de datos
El kit de herramientas está diseñado para ejecución local, garantizando que los datos sensibles de entrenamiento no abandonen el perímetro seguro de cómputo. Proporciona envoltorios nativos para Pandas DataFrames y matrices NumPy, simplificando el pipeline para la perturbación de datos requerida por métodos post-hoc como LIME y SHAP [Documentado].
Rendimiento y gestión de recursos
La sobrecarga analítica varía significativamente: la atribución de características locales (LIME/SHAP) es altamente paralelizable, pero computacionalmente costosa para datos de alta dimensionalidad [Inferencia]. CEM y ProtoDash pueden requerir una asignación de memoria significativa (8GB+ RAM) al procesar conjuntos de datos tabulares o de imagen a gran escala debido a la complejidad de la búsqueda de vecinos más cercanos [Inferencia].
Guía de evaluación
Los evaluadores técnicos deben verificar las siguientes características arquitectónicas:
- Fidelidad Explicativa: Utilice las métricas integradas de 'Fidelidad' y 'Monotonicidad' para validar qué tan cerca sigue el modelo sustituto la lógica original de la caja negra [Documentado].
- Estabilidad de Contrafactuales: Audite la consistencia de los resultados de CEM en múltiples ejecuciones para garantizar que los negativos pertinentes sean robustos y no artefactos de mínimos locales [Inferencia].
- Brecha de Atribución en LLM: Tenga en cuenta que el rastreo semántico nativo para LLM no es una característica estándar en el kit de herramientas de código abierto; la interpretabilidad de GenAI de nivel empresarial suele requerir extensiones comerciales como watsonx.governance [No verificado/Legado].
Historial de versiones
Hito de fin de año: Integración de métodos de inferencia causal para explicar relaciones de causa y efecto.
Lanzamiento del generador de informes de explicabilidad automatizados para auditores y equipos legales.
Introducción de herramientas para explicar modelos de lenguaje grandes (LLM) y atribución semántica.
Actualización importante centrada en la gobernanza de modelos e integración con AI FactSheets.
Se agregó una suite de explicación visual que incluye Grad-CAM y CEM para datos de imágenes.
Integración de ProtoDash y reglas de decisión booleanas. Capacidades mejoradas para datos tabulares.
Lanzamiento inicial del conjunto de herramientas AIX360. Introdujo 8 algoritmos para explicar las predicciones de ML.
Ventajas y desventajas de la herramienta
Ventajas
- Algoritmos potentes
- Soporte de datos diverso
- Comunidad open-source
- Depuración de modelos
- Cumplimiento normativo
Desventajas
- Implementación compleja
- Explicaciones limitadas
- Optimización del rendimiento