Amazon Rekognition (Objetos)
Integraciones
- Amazon Bedrock (Nova)
- Amazon Kinesis Video Streams
- AWS Step Functions
- AWS Agentic Foundry
- Amazon S3 (Índice Vectorial-Espacial)
Detalles de precios
- Análisis estándar facturado por cada 1.000 imágenes.
- Flujos de vídeo facturados por minuto.
- Las actualizaciones de 2026 incluyen créditos de 'Flujo de Trabajo Agéntico' para la orquestación automatizada de Step Function.
Características
- Detección de Objetos y Escenas (v4)
- Estimación de Vértices y Profundidad 3D Espacial
- Disparadores Lógicos de Visión Agéntica
- Integración en Tiempo Real con Kinesis Video
- Interpretación Generativa de Escenas (Bedrock)
- Aprendizaje por Transferencia de Etiquetas Personalizadas (GA)
Descripción
Amazon Rekognition 2026: Visión Espacial-Agéntica y Auditoría de AI Foundry
A partir del 13 de enero de 2026, Amazon Rekognition ha completado su transición a Inteligencia Espacial. La arquitectura aprovecha los clústeres AWS Inferentia 3 para proporcionar estimación de cajas delimitadoras 3D de alta fidelidad e interpretación generativa de escenas, funcionando como la capa sensorial visual principal para agentes autónomos 📑.
Inteligencia Espacial y Orquestación 3D
El motor central utiliza estimación de profundidad monocular combinada con geometría multivista para devolver vértices 3D normalizados de entidades visuales, permitiendo un análisis volumétrico preciso en entornos de almacén y seguridad 📑.
- Escenario de Eficiencia Logística: Entrada: Flujo de cámara 4K desde clasificadores automatizados → Proceso: Localización de objetos 3D + cálculo de volumen mediante Inferentia 3 → Salida: Comandos de optimización de espacio en estanterías en tiempo real en AWS Step Functions 📑.
- Escenario de Zona Peligrosa: Entrada: Imágenes estáticas de drones de un sitio industrial → Proceso: API DetectProtectiveEquipment con validación de profundidad espacial → Salida: Alertas de seguridad de alta confianza con mapeo de coordenadas 3D 📑.
⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍
Persistencia e Infraestructura de Inferentia 3
El sistema utiliza una Capa de Persistencia Vectorial-Espacial optimizada para la recuperación en menos de un segundo de patrones visuales en lagos de datos S3 de varios petabytes. Aunque los pesos de inferencia son propietarios, la arquitectura de despliegue soporta aislamiento VPC y procesamiento regional local para garantizar la soberanía de datos 🧠.
- Fundamentación Generativa: Los metadatos visuales se dirigen a Amazon Bedrock, donde los modelos Nova transforman las etiquetas brutas en informes estructurados en lenguaje natural con citas de auditoría 📑.
- Transparencia del Modelo: Las topologías neuronales internas y los conjuntos de datos específicos de entrenamiento para 'Custom Labels' permanecen sin revelar para evitar la ingeniería inversa competitiva 🌑.
Directrices de Evaluación
Los evaluadores técnicos deben verificar las siguientes características arquitectónicas:
- Precisión de la Estimación de Profundidad: Evaluar la precisión de las coordenadas en el eje Z en condiciones de iluminación variables, ya que la profundidad monocular sigue siendo sensible a oclusiones de alto contraste [Documented].
- Latencia de Disparo Agéntico: Medir el RTT extremo a extremo desde un evento visual de Kinesis hasta el inicio de un flujo de trabajo en Step Function para garantizar el cumplimiento de los SLA críticos [Unknown].
- Paridad de Alojamiento Soberano: Verificar que las API de Estimación 3D funcionen plenamente en regiones fuera de EE.UU., respetando específicamente las banderas de Residencia de Datos en la UE y Japón [Inference].
Historial de versiones
Actualización de fin de año: Lanzamiento de Agentic Vision para flujos de trabajo autónomos.
Disponibilidad general de funciones espaciales con cuadros delimitadores 3D.
Integración con Amazon Bedrock para búsqueda en lenguaje natural y resúmenes generativos.
Se agregó detección de Face Liveness y propiedades de objetos mejoradas.
Actualización significativa de Moderación de Contenido con etiquetas jerárquicas.
Lanzamiento de Etiquetas Personalizadas. Permite entrenar modelos para identificar objetos específicos.
Expansión a video. Análisis de video en tiempo real y por lotes para rastrear personas y objetos.
Lanzamiento inicial. Análisis de imágenes basado en la nube para detección de objetos, escenas y rostros.
Ventajas y desventajas de la herramienta
Ventajas
- Alta precisión en la detección
- Escalable y fiable
- Localización precisa
- Fácil integración API
- Amplia gama de categorías
Desventajas
- Costo de uso posible elevado
- Dependencia de la calidad de imagen
- Conocimientos de AWS necesarios