
TensorFlow Serving

Detalles de precios
Gratis (código abierto). Pueden aplicarse costos al usar recursos de cómputo para el alojamiento.Características
Servicio de modelos de alto rendimiento, compatible con modelos de TensorFlow, APIs REST y gRPC, versionado de modelos, escalabilidad, código abierto.Integraciones
Integración con modelos de TensorFlow. API para integración en cualquier aplicación. Se puede implementar en Docker, Kubernetes, Google Cloud, AWS, Azure.Vista previa
TensorFlow Serving es un sistema flexible y de alto rendimiento para servir modelos de aprendizaje automático en producción. Está desarrollado por Google y facilita la implementación de modelos de TensorFlow entrenados (y otros modelos compatibles) para obtener predicciones a través de APIs (REST y gRPC). TensorFlow Serving admite el versionado de modelos, lo que permite actualizaciones y reversiones sencillas de modelos. El sistema está optimizado para un alto rendimiento y baja latencia, lo que lo hace ideal para aplicaciones que requieren predicciones rápidas en tiempo real. Es de código abierto y se puede implementar en varios entornos, incluidas plataformas en la nube y servidores locales.