Google Cloud AI Platform
Integraciones
- BigQuery (cero copia)
- ApiRegistry de Apigee
- Salesforce Agentforce (A2A)
- ServiceNow (A2A)
- NVIDIA NeMo
- Ray en Vertex AI
Detalles de precios
- La facturación se basa en el consumo de tokens (API de Gemini), tiempo de actividad de nodos de computación (vCPU/GPU/TPU) y uso de VM Flex-Start.
- El grounding con Google Search se factura como una función independiente desde enero de 2025.
Características
- Modelos estables Gemini 3 y 2.5
- Vertex AI Agent Builder (A2A y MCP)
- Model Garden (más de 200 modelos base)
- Planificador Dinámico de Cargas de Trabajo (VM Flex-Start)
- Banco de Memoria del Motor de Agentes y Ejecución de Código
- Seguridad Empresarial (Model Armor y VPC Privada)
Descripción
Revisión de la Infraestructura de Orquestación de Vertex AI y Agentes
La iteración 2026 de Vertex AI actúa como una Capa de Orquestación de Agentes, centrada en el Vertex AI Agent Builder y el protocolo abierto Agent-to-Agent (A2A). Este estándar permite a los agentes de Vertex colaborar de forma segura con agentes de ecosistemas externos (Salesforce, ServiceNow, UiPath), independientemente del marco subyacente 📑.
Orquestación de Modelos e IA Agentiva
El Model Garden ofrece una biblioteca curada de más de 200 modelos base, incluyendo las últimas versiones estables de Gemini 3 y Gemini 2.5.
- Ingesta Multimodal en Tiempo Real: Entrada: Flujos bidireccionales de audio/vídeo en tiempo real → Proceso: Inferencia de baja latencia mediante la API Gemini Live 2.5 Flash → Salida: Respuestas multimodales con conciencia contextual y latencia inferior al segundo 📑.
- Orquestación A2A: Entrada: Objetivo de alto nivel que requiere datos entre plataformas → Proceso: El Agente Supervisor negocia con agentes externos mediante el protocolo A2A y herramientas ApiRegistry → Salida: Finalización autónoma de tareas en ecosistemas heterogéneos 📑.
- Ajuste Fino en Model Garden: Soporta LoRA gestionado y especialización de dominio completo para Gemini y modelos de código abierto como Llama 4; sin embargo, las prioridades de planificación a nivel de hardware dentro del AI Hypercomputer permanecen sin revelar 🌑.
⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍
Infraestructura y Capa de Confianza
La arquitectura de 2026 aprovecha el hardware TPU v5p y el Planificador Dinámico de Cargas de Trabajo (DWS) para la eficiencia de recursos.
- VM Flex-Start de DWS: Proporciona inferencia optimizada en costes para cargas de trabajo de corta duración, planificando capacidad en clústeres de aceleradores reservados durante ciclos inactivos 📑.
- Motor de Agentes y Banco de Memoria: Ofrece un entorno de ejecución gestionado con un 'Banco de Memoria' persistente para la retención de contexto a largo plazo de los agentes y la ejecución de código en entornos aislados 📑.
- Barreras de Seguridad: Integra Model Armor para protección contra inyección de prompts y Private Service Connect para despliegues de agentes aislados en VPC 📑.
Directrices de Evaluación
Los evaluadores técnicos deben verificar las siguientes características arquitectónicas:
- Latencia de Negociación A2A: Medir la sobrecarga del apretón de manos y la negociación de capacidades entre agentes de Vertex AI y marcos compatibles con A2A de terceros 🌑.
- Disponibilidad de VM Flex-Start: Validar los tiempos de espera típicos para la asignación de VM Flex-Start en diferentes zonas geográficas para garantizar la alineación con los SLA de inferencia por lotes 🧠.
- Gobernanza de Herramientas: Auditar la configuración de ApiRegistry para asegurar que las herramientas accesibles por los agentes cumplan con las políticas de seguridad y acceso a datos a nivel empresarial 📑.
Historial de versiones
Actualización de fin de año: Lanzamiento del Autonomous Model Hub con más de 500 modelos.
Lanzamiento de Gemini 1.5 Pro con ventana de contexto de 2 millones de tokens.
Lanzamiento de Agent Builder para desplegar agentes de IA basados en datos empresariales.
Integración de la familia Gemini con capacidades multimodales.
Introducción de GenAI con Model Garden y Generative AI Studio.
Lanzamiento de Vertex AI, unificando AI Platform y AutoML en una sola interfaz.
Rebranding a AI Platform e introducción de Notebooks y servicios de etiquetado de datos.
Lanzamiento inicial de Cloud ML Engine con entrenamiento gestionado de TensorFlow.
Ventajas y desventajas de la herramienta
Ventajas
- Infraestructura ML escalable
- Herramientas ML integradas
- Soporte multi-framework
- Integración fácil con Python
- Desarrollo automatizado de modelos
- Despliegue en tiempo real
- Procesamiento robusto de datos
- Aprendizaje simplificado
Desventajas
- Configuración compleja
- Costo potencial
- Bloqueo del proveedor