Icono de la herramienta

Google What-If Tool

4.5 (19 votos)
Google What-If Tool

Etiquetas

Explicabilidad-IA Depuración-de-Modelos Código-Abierto Vertex-AI MLOps

Integraciones

  • Google Cloud Vertex AI
  • TensorFlow / TensorBoard
  • PyTorch / TorchServe
  • BigQuery
  • Jupyter y Colab Enterprise

Detalles de precios

  • Kit de herramientas de código abierto gratuito.
  • El uso dentro de Google Cloud Vertex AI está sujeto a los costes estándar de computación y almacenamiento asociados a su proyecto .

Características

  • Federación de datos Zero-copy en Vertex AI
  • Razonamiento contrafáctico multimodal (imagen/texto)
  • Visualización de mapas de atención y calor
  • Auditoría de equidad por subgrupos
  • Atribución mediante Integrated Gradients y SHAP
  • Optimización de umbrales de clasificación en tiempo real

Descripción

Google What-If Tool: Revisión de orquestación multimodal en Vertex AI

A enero de 2026, el What-If Tool (WIT) funciona como la interfaz visual principal para Vertex AI Explainable AI (xAI). Ha evolucionado desde un simple widget de notebook hasta convertirse en una potente capa de orquestación para la depuración de modelos multimodales Gemini. La arquitectura facilita la federación de datos Zero-copy, permitiendo a los usuarios analizar el rendimiento del modelo en conjuntos de datos alojados en BigQuery sin mover ni duplicar los datos subyacentes [Documentado]. Este enfoque garantiza la seguridad de los datos y el acceso en tiempo real a las últimas instantáneas de producción [Inferencia].

Arquitectura de orquestación y perturbación de modelos

WIT utiliza un motor de razonamiento del lado del cliente para gestionar perturbaciones interactivas. El sistema envía puntos de datos modificados a los endpoints del modelo (Vertex AI, TensorFlow Serving o PyTorch a través de TorchServe) para observar la variación de salida en tiempo real [Documentado].

  • Contrafácticos multimodales: Admite la perturbación visual de imágenes y prompts de texto para encontrar cambios mínimos que alteren la predicción de un modelo Gemini [Documentado].
  • Visualización de mapas de atención: Se integra con Vertex AI para renderizar mapas de calor y capas de atención, proporcionando transparencia en los caminos de razonamiento multimodal [Documentado].

⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍

Patrones de integración y pipeline de datos

El pipeline de 2026 está optimizado para Vertex AI Model Monitoring. WIT actúa como proxy, extrayendo muestras de flujos de producción para identificar la deriva de sesgo. Estandariza los resultados de atribución de características utilizando Integrated Gradients o SHAP, dependiendo de las propiedades diferenciables del modelo [Documentado].

Gestión de rendimiento y recursos

Aunque la inferencia se gestiona en el endpoint del lado del servidor, la visualización y las búsquedas de contrafácticos por vecino más cercano se realizan en el navegador. Para conjuntos de datos a escala de retail (>100k puntos), el rendimiento depende del tamaño del heap del navegador en el lado del cliente; los arquitectos deben recomendar estaciones de trabajo con alta memoria para la depuración multimodal compleja [Inferencia].

Guía de evaluación

Los evaluadores técnicos deben verificar las siguientes características arquitectónicas:

  • Latencia de federación con BigQuery: Medir el tiempo de renderizado al recuperar más de 10k registros multimodales mediante Zero-copy frente a la carga por lotes tradicional [Desconocido].
  • Compatibilidad con la firma del modelo: Asegurar que el endpoint del modelo en Vertex AI admita anulaciones de características personalizadas (perturbaciones) necesarias para la búsqueda contrafáctica [Inferencia].
  • Fidelidad de la atribución multimodal: Validar la salida de Grad-CAM/Attention frente a regiones de interés etiquetadas por humanos para garantizar que los mapas de calor de xAI no produzcan artefactos [Desconocido].

Historial de versiones

Autonomous Auditor v3.5 2025-12

Hito de fin de año: Auditoría de deriva en tiempo real. WIT señala desviaciones en la lógica de decisión del modelo.

v3.0 Multimodal Explanation 2025-04

Lanzamiento del soporte para modelos multimodales con sugerencias automáticas de mitigación de sesgos.

Vertex AI Integration 2023-06

Integración completa con Google Cloud Vertex AI para el análisis de grandes conjuntos de datos.

v2.5 Transformer & NLP Analysis 2022-03

Soporte para modelos de PNL basados en Transformers y visualización de atención.

v2.0 Computer Vision Support 2021-05

Expansión más allá de los datos tabulares. Soporte de imágenes con visualizaciones Grad-CAM.

v1.5 Fairness Focus 2020-03

Se agregaron restricciones de equidad avanzadas para optimizar la paridad demográfica.

v1.0 PAIR Launch 2018-09

Lanzamiento inicial de Google PAIR. Se introdujo una interfaz visual sin código para probar modelos de ML.

Ventajas y desventajas de la herramienta

Ventajas

  • Interfaz visual intuitiva
  • Análisis profundo
  • Soporte de datos diverso
  • Visualización de modelos
  • Análisis de equidad
  • Pruebas de escenarios

Desventajas

  • Soporte limitado
  • Rendimiento con modelos grandes
  • No crea modelos
Chat