Autres modèles

Cette page décrit certains des modèles expérimentaux qui ont été optimisés pour s'exécuter sur Cloud TPU. Pour le moment, ces modèles ne sont pas officiellement compatibles avec Google, mais ils peuvent être utiles pour certains types de recherches.

Récupérer le code

Le code source des modèles expérimentaux est disponible sur GitHub. Nous ajoutons souvent des modèles au dépôt. Veillez donc à consulter régulièrement GitHub.

Plusieurs des modèles sont préinstallés sur l'image de la VM tf-1-15 que vous configurez en suivant le guide de démarrage rapide. Ils se trouvent dans les répertoires suivants de la VM :

/usr/share/models/official/
/usr/share/tpu/

Classification d'images

DenseNet

DenseNet est une variante du modèle de classification d'images ResNet, dans lequel il existe un ensemble complet ("dense") de connexions sans couche cachée. Consultez le modèle DenseNet optimisé pour Cloud TPU sur GitHub. Cet exemple est une mise en œuvre du modèle de classification d'images DenseNet.

MobileNet

MobileNet est un modèle de classification d'images qui donne de bons résultats sur les appareils dont la puissance est limitée, tels que les téléphones mobiles, en exploitant des convolutions séparables en profondeur. Consultez le modèle MobileNet v1 optimisé pour Cloud TPU sur GitHub. Cet exemple est une mise en œuvre du modèle de classification d'images MobileNet.

Le code du modèle repose sur le modèle MobileNet_v1 TensorFlow d'origine, auxquels les ajustements suivants ont été apportés :

  • Interface TPUEstimator
  • Pipeline de traitement des données pour ImageNet

SqueezeNet

SqueezeNet est un modèle de classification d'images optimisé pour fonctionner avec moins de paramètres et une taille de modèle beaucoup plus petite, tout en continuant d'offrir la même qualité que les modèles de classification d'images actuels (AlexNet). Consultez le modèle SqueezeNet optimisé pour Cloud TPU sur GitHub. Cet exemple est une mise en œuvre du modèle de classification d'images SqueezeNet.

Génération d'images

Le projet DCGAN expérimental entraîne un modèle de réseaux antagonistes génératifs à convolution profonde (DCGAN) pour produire des images générées à partir des ensembles de données MNIST et CIFAR-10.

Le projet comprend des modèles simples de générateur et de discriminateur basés sur les modèles convolutifs et déconvolutifs présentés dans l'article Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks.

Étape suivante