En esta página, se muestra cómo crear una instancia de Deep Learning VM Image de TensorFlow con TensorFlow y otras herramientas preinstaladas. Puedes crear una instancia de TensorFlow desde Cloud Marketplace dentro de la consola de Google Cloud o mediante la línea de comandos.
Antes de comenzar
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
- Si usas GPU con la VM de aprendizaje profundo, revisa la página de cuotas para asegurarte de tener suficientes GPU disponibles en el proyecto. Si las GPU no están enumeradas en la página de las cuotas o necesitas una cuota de GPU adicional, solicita un aumento de la cuota.
Crea una instancia de VM de aprendizaje profundo de TensorFlow desde Cloud Marketplace
Para crear una instancia de VM de aprendizaje profundo de TensorFlow desde Cloud Marketplace, completa los siguientes pasos:
Ve a la página VM de aprendizaje profundo de Cloud Marketplace en la consola de Google Cloud.
Ir a la página Deep Learning VM de aprendizaje profundo de Cloud Marketplace
Haz clic en Comenzar.
Ingresa el Nombre de la implementación que será la raíz del nombre de tu VM. Compute Engine agrega
-vm
a este nombre cuando nombras la instancia.Selecciona una zona.
En Tipo de máquina, selecciona las especificaciones que quieres para tu VM. Obtén más información sobre los tipos de máquinas.
En GPU, selecciona el Tipo de GPU y la Cantidad de GPU. Si no deseas usar las GPU, haz clic en el botón Borrar GPU y avanza al paso 7. Obtén más información sobre GPU.
- Selecciona un Tipo de GPU. No todos los tipos de GPU están disponibles en todas las zonas. Encuentra una combinación compatible.
- Selecciona la Cantidad de GPU. Cada GPU admite diferentes cantidades de GPU. Encuentra una combinación compatible.
En Framework, selecciona una de las versiones del framework de TensorFlow.
Si usas GPU, se requiere un controlador NVIDIA. Puedes instalar el controlador tú mismo o seleccionar Instalar automáticamente el controlador de GPU de NVIDIA en el primer inicio.
Puedes seleccionar Habilitar el acceso a JupyterLab mediante una URL en lugar de SSH (Beta). Habilitar esta función Beta te permite acceder a tu instancia de JupyterLab mediante una URL. Cualquier persona que tenga la función de editor o propietario en tu proyecto de Google Cloud puede acceder a esta URL. En la actualidad, esta característica solo funciona en Estados Unidos, la Unión Europea y Asia.
Selecciona un tipo de disco de arranque y su tamaño.
Selecciona la configuración de red que desees.
Haga clic en Implementar.
Si eliges instalar los controladores NVIDIA, espera de 3 a 5 minutos para que se complete la instalación.
Después de implementar la VM, la página se actualiza con instrucciones para que puedas acceder a la instancia.
Crea una instancia de Deep Learning VM de TensorFlow desde la línea de comandos
Para usar Google Cloud CLI a fin de crear una nueva instancia de VM de aprendizaje profundo, primero debes instalar y, luego, inicializar Google Cloud CLI:
- Descarga y, luego, instala Google Cloud CLI en función de las instrucciones que se indican en Instala Google Cloud CLI.
- Inicializa el SDK en función de las instrucciones de Inicializa el SDK de Cloud.
Para usar gcloud
en Cloud Shell, primero debes activar Cloud Shell mediante las instrucciones que se proporcionan en Inicia Cloud Shell.
Puedes crear una instancia de TensorFlow con o sin GPU.
Sin GPU
Para aprovisionar una instancia de VM de aprendizaje profundo sin GPU, sigue estos pasos:
export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release
Opciones:
--image-family
debe ser una de las siguientes opciones:tf-ent-latest-cpu
para obtener la última imagen de TensorFlow Enterprise 2- Un nombre anterior de familia de imágenes de TensorFlow o TensorFlow Enterprise (consulta la sección sobre cómo elegir una imagen)
--image-project
debe serdeeplearning-platform-release
Con una o más GPU
Compute Engine ofrece la opción de agregar una o más GPU a tus instancias de máquina virtual. Las GPU ofrecen un procesamiento más rápido para muchas tareas complejas de datos y aprendizaje automático. Para obtener más información sobre las GPU, consulta GPU en Compute Engine.
Si deseas aprovisionar una instancia de VM de aprendizaje profundo con una o más GPU, sigue estos pasos:
export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release \
--maintenance-policy=TERMINATE \
--accelerator="type=nvidia-tesla-v100,count=1" \
--metadata="install-nvidia-driver=True"
Opciones:
--image-family
debe ser una de las siguientes opciones:tf-ent-latest-gpu
para obtener la última imagen de TensorFlow Enterprise 2- Un nombre anterior de familia de imágenes de TensorFlow o TensorFlow Enterprise (consulta la sección sobre cómo elegir una imagen)
--image-project
debe serdeeplearning-platform-release
--maintenance-policy
debe serTERMINATE
Para obtener más información, consulta Restricciones de GPU.--accelerator
especifica el tipo de GPU que se usará. Debe especificarse con el formato--accelerator="type=TYPE,count=COUNT"
. Por ejemplo,--accelerator="type=nvidia-tesla-p100,count=2"
. Consulta la tabla de modelos de GPU para obtener una lista de los tipos y recuentos de GPU disponibles.No todos los tipos de GPU se admiten en todas las regiones. Para obtener más detalles, consulta Disponibilidad de regiones y zonas de GPU.
--metadata
se usa para especificar que el controlador NVIDIA se debe instalar en tu nombre. El valor esinstall-nvidia-driver=True
. Si se especifica, Compute Engine carga el controlador estable más reciente en el primer arranque y realiza los pasos necesarios (incluido un reinicio final para activar el controlador).
Si elegiste instalar los controladores NVIDIA, espera de 3 a 5 minutos para que se complete la instalación.
La VM puede demorar hasta 5 minutos en terminar de aprovisionarse. En este momento, no podrás establecer una conexión SSH en tu máquina. Cuando se complete la instalación, puedes establecer una conexión SSH y ejecutar nvidia-smi
para verificar que la instalación del controlador se haya realizado de forma correcta.
Cuando hayas configurado la imagen, puedes guardar una instantánea para poder iniciar instancias derivadas sin tener que esperar la instalación del controlador.
Acerca de TensorFlow Enterprise
TensorFlow Enterprise es un distribución de TensorFlow que se optimizó para ejecutarse en Google Cloud y que incluye Versión a largo plazo Asistencia.
Crea una instancia interrumpible
Puedes crear una instancia de VM de aprendizaje profundo interrumpible. Una instancia interrumpible es una que puedes crear y ejecutar a un precio mucho menor que las instancias normales. Sin embargo, Compute Engine podría detener (interrumpir) estas instancias si requiere acceso a los recursos para otras tareas. Las instancias interrumpibles siempre se detienen después de 24 horas. Para obtener más información acerca de las instancias interrumpibles, consulta Instancias de VM interrumpibles.
Si deseas crear una instancia de VM de aprendizaje profundo interrumpible, sigue estos pasos:
Sigue las instrucciones que se encuentran arriba para crear una instancia nueva mediante la línea de comandos. Agrega lo siguiente al comando
gcloud compute instances create
:--preemptible
¿Qué sigue?
Si deseas obtener instrucciones para conectarte a la nueva instancia de VM de aprendizaje profundo por medio de la consola de Google Cloud o la línea de comandos, consulta Conéctate a instancias. El nombre de la instancia es el nombre de la implementación que especificaste con -vm
agregado.