En esta página se explica la integración de TensorFlow en Vertex AI y se proporcionan recursos que muestran cómo usar TensorFlow en Vertex AI. La integración de TensorFlow en Vertex AI te facilita el entrenamiento, el despliegue y la orquestación de modelos de TensorFlow en la fase de producción.
Ejecutar código en cuadernos
Vertex AI ofrece dos opciones para ejecutar tu código en cuadernos: Colab Enterprise y Vertex AI Workbench. Para obtener más información sobre estas opciones, consulta el artículo sobre cómo elegir una solución de cuaderno.
Contenedores prediseñados para el entrenamiento
Vertex AI proporciona imágenes de contenedor Docker prediseñadas para el entrenamiento de modelos. Estos contenedores se organizan por frameworks de aprendizaje automático y versiones de frameworks, e incluyen dependencias comunes que puedes usar en tu código de entrenamiento.
Para saber qué versiones de TensorFlow tienen contenedores de entrenamiento prediseñados y cómo entrenar modelos con un contenedor de entrenamiento prediseñado, consulta Contenedores prediseñados para el entrenamiento personalizado.
Preparación distribuida
Puedes ejecutar el entrenamiento distribuido de modelos de TensorFlow en Vertex AI. Para el entrenamiento con varios trabajadores, puedes usar Reduction Server para optimizar aún más el rendimiento de las operaciones colectivas de reducción total. Para obtener más información sobre el entrenamiento distribuido en Vertex AI, consulta Entrenamiento distribuido.
Contenedores prediseñados para la inferencia
Al igual que los contenedores precompilados para el entrenamiento, Vertex AI proporciona imágenes de contenedores precompilados para ofrecer inferencias y explicaciones de modelos de TensorFlow que hayas creado en Vertex AI o fuera de ella. Estas imágenes proporcionan servidores de inferencia HTTP que puedes usar para servir inferencias con una configuración mínima.
Para saber qué versiones de TensorFlow tienen contenedores de entrenamiento prediseñados y cómo entrenar modelos con un contenedor de entrenamiento prediseñado, consulta Contenedores prediseñados para el entrenamiento personalizado.
Entorno de ejecución de TensorFlow optimizado
El runtime de TensorFlow optimizado usa optimizaciones de modelos y nuevas tecnologías propias de Google para mejorar la velocidad y reducir el coste de las inferencias en comparación con los contenedores de inferencia precompilados estándar de TensorFlow de Vertex AI.
Integración de TensorFlow Cloud Profiler
Entrena modelos de forma más económica y rápida monitorizando y optimizando el rendimiento de tu trabajo de entrenamiento con la integración de TensorFlow Cloud Profiler de Vertex AI. TensorFlow Cloud Profiler te ayuda a comprender el consumo de recursos de las operaciones de entrenamiento para que puedas identificar y eliminar los cuellos de botella del rendimiento.
Para obtener más información sobre TensorFlow Cloud Profiler de Vertex AI, consulta el artículo Perfil del rendimiento del entrenamiento de modelos con Profiler.
Recursos para usar TensorFlow en Vertex AI
Para obtener más información y empezar a usar TensorFlow en Vertex AI, consulta los siguientes recursos.
Del prototipo a la producción: una serie de vídeos que ofrece un ejemplo integral de cómo desarrollar y desplegar un modelo de TensorFlow personalizado en Vertex AI.
Optimizar el rendimiento del entrenamiento con Reduction Server en Vertex AI: entrada de blog sobre la optimización del entrenamiento distribuido en Vertex AI mediante Reduction Server.
Cómo optimizar el rendimiento del entrenamiento con TensorFlow Cloud Profiler en Vertex AI: una entrada de blog que muestra cómo identificar los cuellos de botella del rendimiento en tu tarea de entrenamiento mediante Vertex AI TensorFlow Cloud Profiler.
Predicción por lotes de modelos personalizados con filtrado de características: un tutorial en formato de cuaderno que muestra cómo usar el SDK de Vertex AI para Python con el fin de entrenar un modelo de clasificación tabular personalizado y realizar inferencias por lotes con filtrado de características.
Vertex AI Pipelines: entrenamiento personalizado con componentes de flujo de procesamiento precompilados Google Cloud: un tutorial en formato de cuaderno que muestra cómo usar Vertex AI Pipelines con componentes de flujo de procesamiento precompilados Google Cloud para el entrenamiento personalizado.
Co-alojar modelos de TensorFlow en la misma VM para obtener predicciones: un codelab que muestra cómo usar la función de modelo de co-alojamiento en Vertex AI para alojar varios modelos en la misma VM para obtener inferencias online.