Icono de la herramienta

Amazon Rekognition (Objetos)

4.7 (32 votos)
Amazon Rekognition (Objetos)

Etiquetas

Visión-por-Computadora Visión-Agéntica AWS-Foundry Aprendizaje-Profundo IA-Espacial

Integraciones

  • Amazon Bedrock (Nova)
  • Amazon Kinesis Video Streams
  • AWS Step Functions
  • AWS Agentic Foundry
  • Amazon S3 (Índice Vectorial-Espacial)

Detalles de precios

  • Análisis estándar facturado por cada 1.000 imágenes.
  • Flujos de vídeo facturados por minuto.
  • Las actualizaciones de 2026 incluyen créditos de 'Flujo de Trabajo Agéntico' para la orquestación automatizada de Step Function.

Características

  • Detección de Objetos y Escenas (v4)
  • Estimación de Vértices y Profundidad 3D Espacial
  • Disparadores Lógicos de Visión Agéntica
  • Integración en Tiempo Real con Kinesis Video
  • Interpretación Generativa de Escenas (Bedrock)
  • Aprendizaje por Transferencia de Etiquetas Personalizadas (GA)

Descripción

Amazon Rekognition 2026: Visión Espacial-Agéntica y Auditoría de AI Foundry

A partir del 13 de enero de 2026, Amazon Rekognition ha completado su transición a Inteligencia Espacial. La arquitectura aprovecha los clústeres AWS Inferentia 3 para proporcionar estimación de cajas delimitadoras 3D de alta fidelidad e interpretación generativa de escenas, funcionando como la capa sensorial visual principal para agentes autónomos 📑.

Inteligencia Espacial y Orquestación 3D

El motor central utiliza estimación de profundidad monocular combinada con geometría multivista para devolver vértices 3D normalizados de entidades visuales, permitiendo un análisis volumétrico preciso en entornos de almacén y seguridad 📑.

  • Escenario de Eficiencia Logística: Entrada: Flujo de cámara 4K desde clasificadores automatizados → Proceso: Localización de objetos 3D + cálculo de volumen mediante Inferentia 3 → Salida: Comandos de optimización de espacio en estanterías en tiempo real en AWS Step Functions 📑.
  • Escenario de Zona Peligrosa: Entrada: Imágenes estáticas de drones de un sitio industrial → Proceso: API DetectProtectiveEquipment con validación de profundidad espacial → Salida: Alertas de seguridad de alta confianza con mapeo de coordenadas 3D 📑.

⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍

Persistencia e Infraestructura de Inferentia 3

El sistema utiliza una Capa de Persistencia Vectorial-Espacial optimizada para la recuperación en menos de un segundo de patrones visuales en lagos de datos S3 de varios petabytes. Aunque los pesos de inferencia son propietarios, la arquitectura de despliegue soporta aislamiento VPC y procesamiento regional local para garantizar la soberanía de datos 🧠.

  • Fundamentación Generativa: Los metadatos visuales se dirigen a Amazon Bedrock, donde los modelos Nova transforman las etiquetas brutas en informes estructurados en lenguaje natural con citas de auditoría 📑.
  • Transparencia del Modelo: Las topologías neuronales internas y los conjuntos de datos específicos de entrenamiento para 'Custom Labels' permanecen sin revelar para evitar la ingeniería inversa competitiva 🌑.

Directrices de Evaluación

Los evaluadores técnicos deben verificar las siguientes características arquitectónicas:

  • Precisión de la Estimación de Profundidad: Evaluar la precisión de las coordenadas en el eje Z en condiciones de iluminación variables, ya que la profundidad monocular sigue siendo sensible a oclusiones de alto contraste [Documented].
  • Latencia de Disparo Agéntico: Medir el RTT extremo a extremo desde un evento visual de Kinesis hasta el inicio de un flujo de trabajo en Step Function para garantizar el cumplimiento de los SLA críticos [Unknown].
  • Paridad de Alojamiento Soberano: Verificar que las API de Estimación 3D funcionen plenamente en regiones fuera de EE.UU., respetando específicamente las banderas de Residencia de Datos en la UE y Japón [Inference].

Historial de versiones

Agentic Vision Hub 2025-12

Actualización de fin de año: Lanzamiento de Agentic Vision para flujos de trabajo autónomos.

Rekognition Spatial (v2.0) 2025-06

Disponibilidad general de funciones espaciales con cuadros delimitadores 3D.

Bedrock Multimodal Integration 2024-04

Integración con Amazon Bedrock para búsqueda en lenguaje natural y resúmenes generativos.

Face Liveness & Properties 2023-05

Se agregó detección de Face Liveness y propiedades de objetos mejoradas.

Content Moderation v6 2022-09

Actualización significativa de Moderación de Contenido con etiquetas jerárquicas.

Custom Labels 2019-12

Lanzamiento de Etiquetas Personalizadas. Permite entrenar modelos para identificar objetos específicos.

Video Analysis Launch 2017-11

Expansión a video. Análisis de video en tiempo real y por lotes para rastrear personas y objetos.

AWS re:Invent Launch 2016-11

Lanzamiento inicial. Análisis de imágenes basado en la nube para detección de objetos, escenas y rostros.

Ventajas y desventajas de la herramienta

Ventajas

  • Alta precisión en la detección
  • Escalable y fiable
  • Localización precisa
  • Fácil integración API
  • Amplia gama de categorías

Desventajas

  • Costo de uso posible elevado
  • Dependencia de la calidad de imagen
  • Conocimientos de AWS necesarios
Chat