Integración de TensorFlow

En esta página se explica la integración de TensorFlow en Vertex AI y se proporcionan recursos que muestran cómo usar TensorFlow en Vertex AI. La integración de TensorFlow en Vertex AI te facilita el entrenamiento, el despliegue y la orquestación de modelos de TensorFlow en la fase de producción.

Ejecutar código en cuadernos

Vertex AI ofrece dos opciones para ejecutar tu código en cuadernos: Colab Enterprise y Vertex AI Workbench. Para obtener más información sobre estas opciones, consulta el artículo sobre cómo elegir una solución de cuaderno.

Contenedores prediseñados para el entrenamiento

Vertex AI proporciona imágenes de contenedor Docker prediseñadas para el entrenamiento de modelos. Estos contenedores se organizan por frameworks de aprendizaje automático y versiones de frameworks, e incluyen dependencias comunes que puedes usar en tu código de entrenamiento.

Para saber qué versiones de TensorFlow tienen contenedores de entrenamiento prediseñados y cómo entrenar modelos con un contenedor de entrenamiento prediseñado, consulta Contenedores prediseñados para el entrenamiento personalizado.

Preparación distribuida

Puedes ejecutar el entrenamiento distribuido de modelos de TensorFlow en Vertex AI. Para el entrenamiento con varios trabajadores, puedes usar Reduction Server para optimizar aún más el rendimiento de las operaciones colectivas de reducción total. Para obtener más información sobre el entrenamiento distribuido en Vertex AI, consulta Entrenamiento distribuido.

Contenedores prediseñados para la inferencia

Al igual que los contenedores precompilados para el entrenamiento, Vertex AI proporciona imágenes de contenedores precompilados para ofrecer inferencias y explicaciones de modelos de TensorFlow que hayas creado en Vertex AI o fuera de ella. Estas imágenes proporcionan servidores de inferencia HTTP que puedes usar para servir inferencias con una configuración mínima.

Para saber qué versiones de TensorFlow tienen contenedores de entrenamiento prediseñados y cómo entrenar modelos con un contenedor de entrenamiento prediseñado, consulta Contenedores prediseñados para el entrenamiento personalizado.

Entorno de ejecución de TensorFlow optimizado

El runtime de TensorFlow optimizado usa optimizaciones de modelos y nuevas tecnologías propias de Google para mejorar la velocidad y reducir el coste de las inferencias en comparación con los contenedores de inferencia precompilados estándar de TensorFlow de Vertex AI.

Integración de TensorFlow Cloud Profiler

Entrena modelos de forma más económica y rápida monitorizando y optimizando el rendimiento de tu trabajo de entrenamiento con la integración de TensorFlow Cloud Profiler de Vertex AI. TensorFlow Cloud Profiler te ayuda a comprender el consumo de recursos de las operaciones de entrenamiento para que puedas identificar y eliminar los cuellos de botella del rendimiento.

Para obtener más información sobre TensorFlow Cloud Profiler de Vertex AI, consulta el artículo Perfil del rendimiento del entrenamiento de modelos con Profiler.

Recursos para usar TensorFlow en Vertex AI

Para obtener más información y empezar a usar TensorFlow en Vertex AI, consulta los siguientes recursos.