Más modelos

En esta página, se describen algunos de los modelos experimentales que se optimizaron para ejecutarse en Cloud TPU. En la actualidad, Google no admite oficialmente estos modelos, pero pueden ser útiles para algunos tipos de investigaciones.

Obtén el código

El código fuente para los modelos experimentales está disponible en GitHub. A menudo, agregamos modelos al repositorio, así que asegúrate de revisar GitHub periódicamente.

Varios de los modelos están preinstalados en la imagen de VM tf-1-15 que configuraste al seguir la guía de inicio rápido. Los modelos se encuentran en los siguientes directorios de la VM:

/usr/share/models/official/
/usr/share/tpu/

Clasificación de imágenes

DenseNet

DenseNet es una variación del modelo de clasificación de imágenes de ResNet en la cual existe un conjunto completo ("denso") de conexiones de omisión de capa. Consulta el modelo DenseNet optimizado para Cloud TPU en GitHub. Esta muestra es una implementación del modelo de clasificación de imágenes DenseNet.

MobileNet

MobileNet es un modelo de clasificación de imágenes que funciona bien en dispositivos de potencia limitada, como teléfonos celulares, que aprovechan las convoluciones que se pueden separar en profundidad. Consulta el modelo MobileNet v1 optimizado para Cloud TPU en GitHub. Esta muestra es una implementación del modelo de clasificación de imágenes MobileNet.

El código para el modelo se basa en la versión MobileNet_v1 de TensorFlow original, con los siguientes ajustes:

  • Interfaz de TPUEstimator
  • Canalización de procesamiento de datos para ImageNet

SqueezeNet

SqueezeNet es un modelo de clasificación de imágenes que está optimizado para menos parámetros y un tamaño de modelo mucho más pequeño sin afectar la calidad en comparación con los modelos de clasificación de imágenes contemporáneos (AlexNet). Consulta el modelo SqueezeNet optimizado para Cloud TPU en GitHub. Esta muestra es una implementación del modelo de clasificación de imágenes SqueezeNet.

Generación de imágenes

El proyecto DCGAN experimental entrena un modelo de redes convolucionales profundas generativas adversarias (DCGAN) para producir imágenes generadas según conjuntos de datos MNIST y CIFAR-10.

El proyecto incluye modelos generadores y discriminadores simples basados en los modelos convolucionales y deconvolucionales presentados en Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks (Aprendizaje de representación no supervisado con redes convolucionales profundas generativas adversarias).

Qué sigue