Icono de la herramienta

IBM AI Explainability 360

2.7 (3 votos)
IBM AI Explainability 360

Etiquetas

Explicabilidad-IA Código-abierto Gobernanza Ciencia-de-datos LF-AI

Integraciones

  • Scikit-learn
  • PyTorch
  • TensorFlow
  • Pandas / NumPy
  • IBM watsonx.governance

Detalles de precios

  • La biblioteca es gratuita bajo la licencia Apache 2.0.
  • El soporte empresarial y los flujos de trabajo de gobernanza gestionados están disponibles a través de IBM watsonx.governance .

Características

  • Taxonomía de explicaciones basada en perfiles
  • Método de Explicación Contrastiva (CEM)
  • Inducción de Reglas de Decisión Globales (BRCG)
  • Métricas Proxy: Fidelidad y Monotonicidad
  • Selección de Prototipos (ProtoDash)
  • Arquitectura de kit de herramientas extensible

Descripción

IBM AIX360: Interpretabilidad de código abierto y revisión de LF AI

A enero de 2026, AI Explainability 360 (AIX360) sigue siendo un proyecto en fase de incubación gestionado por la LF AI & Data Foundation. La arquitectura está diseñada como un kit de herramientas desacoplado y agnóstico a modelos, que se integra con pilas ML estándar (Scikit-learn, PyTorch, TensorFlow). Su principal valor radica en su enfoque basado en taxonomía, que asigna métodos explicativos específicos a diferentes perfiles de usuarios —desde científicos de datos hasta auditores regulatorios— [Documentado].

Orquestación de modelos y arquitectura explicativa

El sistema utiliza una arquitectura extensible basada en clases, donde los algoritmos se categorizan según su nivel explicativo (local vs. global) y la naturaleza de los datos (basado en características vs. basado en instancias) [Documentado].

  • Método de Explicación Contrastiva (CEM): Identifica 'negativos pertinentes' (qué debe estar ausente) y 'positivos pertinentes' (qué debe estar presente) para justificar una decisión mediante contrafactuales [Documentado].
  • Motores de Surrogación Global: Incluye Reglas de Decisión Booleanas (BRCG) y ProtoDash para aproximar el comportamiento de modelos de caja negra mediante conjuntos de reglas interpretables [Documentado].

⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍

Patrones de integración y pipeline de datos

El kit de herramientas está diseñado para ejecución local, garantizando que los datos sensibles de entrenamiento no abandonen el perímetro seguro de cómputo. Proporciona envoltorios nativos para Pandas DataFrames y matrices NumPy, simplificando el pipeline para la perturbación de datos requerida por métodos post-hoc como LIME y SHAP [Documentado].

Rendimiento y gestión de recursos

La sobrecarga analítica varía significativamente: la atribución de características locales (LIME/SHAP) es altamente paralelizable, pero computacionalmente costosa para datos de alta dimensionalidad [Inferencia]. CEM y ProtoDash pueden requerir una asignación de memoria significativa (8GB+ RAM) al procesar conjuntos de datos tabulares o de imagen a gran escala debido a la complejidad de la búsqueda de vecinos más cercanos [Inferencia].

Guía de evaluación

Los evaluadores técnicos deben verificar las siguientes características arquitectónicas:

  • Fidelidad Explicativa: Utilice las métricas integradas de 'Fidelidad' y 'Monotonicidad' para validar qué tan cerca sigue el modelo sustituto la lógica original de la caja negra [Documentado].
  • Estabilidad de Contrafactuales: Audite la consistencia de los resultados de CEM en múltiples ejecuciones para garantizar que los negativos pertinentes sean robustos y no artefactos de mínimos locales [Inferencia].
  • Brecha de Atribución en LLM: Tenga en cuenta que el rastreo semántico nativo para LLM no es una característica estándar en el kit de herramientas de código abierto; la interpretabilidad de GenAI de nivel empresarial suele requerir extensiones comerciales como watsonx.governance [No verificado/Legado].

Historial de versiones

Causal Guardian v4.5 2025-12

Hito de fin de año: Integración de métodos de inferencia causal para explicar relaciones de causa y efecto.

v4.0 Automated Compliance Hub 2025-01

Lanzamiento del generador de informes de explicabilidad automatizados para auditores y equipos legales.

v3.5 LLM Interpretability Beta 2024-06

Introducción de herramientas para explicar modelos de lenguaje grandes (LLM) y atribución semántica.

v3.0 Governance & Monitoring 2022-07

Actualización importante centrada en la gobernanza de modelos e integración con AI FactSheets.

v2.0 Computer Vision Focus 2021-05

Se agregó una suite de explicación visual que incluye Grad-CAM y CEM para datos de imágenes.

v1.5 Global & Local Context 2020-09

Integración de ProtoDash y reglas de decisión booleanas. Capacidades mejoradas para datos tabulares.

v1.0 The Explainability Debut 2019-08

Lanzamiento inicial del conjunto de herramientas AIX360. Introdujo 8 algoritmos para explicar las predicciones de ML.

Ventajas y desventajas de la herramienta

Ventajas

  • Algoritmos potentes
  • Soporte de datos diverso
  • Comunidad open-source
  • Depuración de modelos
  • Cumplimiento normativo

Desventajas

  • Implementación compleja
  • Explicaciones limitadas
  • Optimización del rendimiento
Chat