Weitere Modelle

Auf dieser Seite werden einige der experimentellen Modelle beschrieben, die für die Ausführung in Cloud TPU optimiert wurden. Diese Modelle werden derzeit nicht von Google unterstützt. Sie können aber für einige Forschungsarten nützlich sein.

Code abrufen

Der Quellcode für die experimentellen Modelle ist auf GitHub verfügbar. Da wir dem Repository Modelle hinzufügen, sollten Sie GitHub regelmäßig überprüfen.

Einige Modelle sind auf dem VM-Image von tf-1-15 vorinstalliert, das beim Ausführen der Schritte aus der Kurzanleitung eingerichtet wird. Die Modelle befinden sich in den folgenden Verzeichnissen auf der VM:

/usr/share/models/official/
/usr/share/tpu/

Klassifizierung von Bildern

DenseNet

DenseNet ist eine Variante des ResNet-Bildklassifizierungsmodells mit einer Reihe von vollständigen ("dichten") Skip-Layer-Verbindungen. Sehen Sie sich das für Cloud TPU optimierte DenseNet-Modell auf GitHub an. Dieses Beispiel ist eine Implementierung des DenseNet-Bildklassifizierungsmodells.

MobileNet

MobileNet ist ein Bildklassifizierungsmodell, das auf Geräten mit Leistungsbegrenzung, z. B. Mobiltelefonen, gut funktioniert und dabei in der Tiefe trennbare Faltungen nutzt. Sehen Sie sich auf GitHub das für Cloud TPU optimierte MobileNet v1-Modell an. Dieses Beispiel ist eine Implementierung des MobileNet-Bildqualifizierungsmodells.

Der Code für das Modell basiert auf dem ursprünglichen MobileNet_v1 von TensorFlow mit den folgenden Anpassungen:

  • TPUEstimator-Schnittstelle.
  • Datenverarbeitungspipeline für ImageNet.

SqueezeNet

SqueezeNet ist ein Bildklassifizierungsmodell, das für weniger Parameter und eine viel kleinere Modellgröße optimiert ist, ohne die Qualität im Vergleich zu modernen Bildklassifizierungsmodellen (AlexNet) zu beeinträchtigen. Sehen Sie sich auf GitHub das für Cloud TPU optimierte SqueezeNet-Modell an. Dieses Beispiel ist eine Implementierung des SqueezeNet-Bildklassifizierungsmodells.

Bilderstellung

Das experimentelle DCGAN-Projekt trainiert ein DCGAN-Modell (Deep Convolutional Generative Adversarial Networks), um generierte Bilder basierend auf den Datasets MNIST und CIFAR-10 zu erzeugen.

Das Projekt umfasst einfache Generator- und Diskriminatormodelle, die auf den Convolutional- und Deconvolutional-Modellen basieren, die unter Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks vorgestellt werden.

Nächste Schritte