Icono de la herramienta

ServiceNow AI Governance

2.9 (4 votos)
ServiceNow AI Governance

Etiquetas

AI-Governance Risk-Management NVIDIA-NeMo Enterprise-AI Security

Integraciones

  • NVIDIA NeMo Guardrails
  • ServiceNow IRM / GRC
  • Azure OpenAI / Vertex AI
  • IBM watsonx.governance
  • Snowflake (Zero-ETL)

Detalles de precios

  • Normalmente forma parte del SKU AI Trust & Governance; requiere licencia Now Platform Pro/Enterprise.
  • Los créditos para el procesamiento de tokens de Guardian dependen del volumen .

Características

  • Descubrimiento Automático de Shadow AI
  • Integración de NVIDIA NeMo Guardrails
  • Enmascaramiento en Tiempo Real de PII y Toxicidad
  • Explicaciones de Decisiones Basadas en xAI
  • Orquestación BYOM (Bring Your Own Model)
  • Cumplimiento Automatizado de la Ley de IA de la UE y NIST

Descripción

ServiceNow AI Governance: NeMo Guardrails y Revisión de Shadow AI 2026

A partir de enero de 2026, ServiceNow AI Governance ha evolucionado hacia una Pasarela de IA de Capa 7 dentro de la plataforma Now. La arquitectura ahora integra NVIDIA NeMo Guardrails, permitiendo un filtrado de seguridad en menos de 40 ms y el enmascaramiento de PII para flujos de trabajo agenticos de alta velocidad [Documentado]. Clave en la versión de 2026 es Shadow AI Discovery, un motor de orquestación especializado que escanea el tráfico de API de la plataforma para identificar e incorporar integraciones de IA no gestionadas bajo protocolos oficiales de gobernanza [Documentado].

Orquestación de Modelos y Arquitectura de Gobernanza

El sistema funciona como un Registro Centralizado de Modelos de IA, soportando modelos nativos y patrones Bring Your Own Model (BYOM). Aprovecha Explainable AI (xAI) para proporcionar trazas auditables de cada decisión de gobernanza [Documentado].

  • Now Assist Guardian: Impulsado por NeMo, proporciona filtrado en tiempo real basado en intenciones. Puede bloquear automáticamente ataques de inyección de prompts y evitar la fuga de datos empresariales sensibles en conjuntos de entrenamiento de LLM públicos [Documentado].
  • Detección de Shadow AI: Entrada: Llamada no autorizada a la API de LLM detectada en una aplicación con ámbito → Proceso: El motor de gobernanza marca el activo y activa una evaluación de riesgo automatizada → Salida: Inclusión en el inventario de modelos con una tarea de cumplimiento obligatoria [Documentado].

⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍

Patrones de Integración y Pipeline de Datos

La plataforma utiliza conectores Zero-ETL para monitorizar el rendimiento y la deriva de proveedores externos (OpenAI, Azure, Vertex AI). Los metadatos se asignan al Common Service Data Model (CSDM), asegurando que los riesgos de IA estén directamente vinculados a los servicios empresariales y sus responsables [Documentado].

Gestión de Rendimiento y Recursos

La sobrecarga de orquestación se mitiga mediante la aceleración WebGPU para la consola de gestión. Aunque el filtrado basado en NeMo es extremadamente rápido (< 40 ms), la Resolución de Identidad entre Modelos para configuraciones BYOM puede introducir una latencia variable dependiendo de la región en la nube [Inferencia].

Guía de Evaluación

Los evaluadores técnicos deben verificar las siguientes características arquitectónicas:

  • Profundidad del Escaneo de Shadow AI: Auditar la eficacia de los agentes de descubrimiento en la identificación de integraciones REST no estándar dentro de scripts heredados [Desconocido].
  • Rendimiento (throughput) de Guardian: Evaluar el impacto en tokens por segundo (TPS) al ejecutar guardarraíles multinivel (PII + Toxicidad + Detección de Jailbreak) en flujos de producción de alta concurrencia [Inferencia].
  • Claridad de la Narrativa xAI: Validar que las explicaciones de los prompts bloqueados sean accionables para los usuarios finales, reduciendo el volumen de tickets de soporte [Desconocido].

Historial de versiones

Responsible Enterprise v3.5 2025-12

Hito de fin de año: Lanzamiento de 'Strategic Trust Dashboard'. Visualización en tiempo real del riesgo de IA corporativo.

v3.1 Vancouver Release (New Cycle) 2025-07

Remediación autónoma. La IA activa bloqueos automáticos cuando la deriva del modelo supera los umbrales de seguridad.

v3.0 Utah Release 2025-02

Motor de detección de alucinaciones. Puntuación integrada para identificar salidas de LLM inexactas.

v2.1 Xanadu Release 2024-09

Lanzamiento de AI Data Kit. Detección automática de sesgos en conjuntos de datos de entrenamiento.

v2.0 Washington DC Release 2024-03

Introducción de 'Now Assist Guardian'. Medidas de seguridad en tiempo real para IA generativa.

v1.0 AI GRC Integration 2023-09

Lanzamiento inicial. Establecimiento del marco de riesgo de IA, integrando el monitoreo de modelos en el módulo GRC.

Ventajas y desventajas de la herramienta

Ventajas

  • Gobernanza integral de IA
  • Herramientas de mitigación de riesgos
  • Detecta sesgos de IA
  • Procesos de IA simplificados
  • Mayor transparencia

Desventajas

  • Dependencia de ServiceNow
  • Experiencia en IA requerida
  • Coste de implementación elevado
Chat