Bildklassifizierung
-
MNIST auf Cloud TPU ausführen (TF 2.x)
MNIST-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung in der Cloud TPU
-
ResNet auf Cloud TPU trainieren (TF 2.x)
ResNet-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
Keras ResNet-RS auf Cloud TPU trainieren (TF 2.x)
Keras ResNet-RS-Modell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
ResNet in der Cloud TPU trainieren (PyTorch)
ResNet-Bildklassifizierungsmodell mit PyTorch, optimiert für die Ausführung auf Cloud TPU
-
EfficientNet auf Cloud TPU trainieren (TF 2.x)
EfficientNet-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
Objekterkennung
-
RetinaNet auf Cloud TPU trainieren (TF 2.x)
RetinaNet-Objekterkennungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
ShapeMask auf Cloud TPU trainieren (TF 2.x)
Ein ShapeMask-Objekterkennungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
Mask RCNN auf Cloud TPU trainieren (TF 2.x)
Mask RCNN-Modell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
Empfehlungssysteme
-
DLRM-Modell auf Cloud TPU (PyTorch) trainieren
Eine Anleitung zum Trainieren des PyTorch DLRM-Modells auf Cloud TPU.
-
DLRM- und DCN-Modelle auf Cloud TPU trainieren (TF 2.x)
Leitfaden für das Training von DLRM- und DCN v2-Rankingmodellen für Aufgaben wie die CTR-Vorhersage (Click-through-Rate, Klickrate).
-
Trainieren eines neuronalen Modells zur Zusammenarbeit in Cloud TPU (TF 2.x)
Implementierung des Frameworks für die neuronale Collaborative Filterung (NCF) mit dem Neural-Matrix-Faktorisierungsmodell (NeuMF)
Verteilte Verarbeitung auf einem Pod
Natural Language Processing
-
BERT-Feinabstimmung mit Cloud TPU: Satz- und Satzpaar-Klassifizierungsaufgaben (TF 2.x)
Anleitung zur Verwendung von BERT (Bidirectional Encoder Representations from Transformers) mit Cloud TPU
-
FairSeq RoBERTa vor dem Training auf Cloud TPU (PyTorch) vor dem Training
Eine Anleitung zum Vortrainieren der FairSeq-Version des RoBERTa-Modells auf Cloud TPU mit dem öffentlichen Wikitext-103-Dataset.
T2T Transformer
-
Transformer auf Cloud TPU trainieren (TF 2.x)
Eine Anleitung zum Trainieren des Tensor2Tensor-Modells auf Cloud TPU für die deutsch-englische Übersetzung.
-
FairSeq Transformer auf Cloud TPU (PyTorch) trainieren
Eine Anleitung zum Trainieren der FairSeq-Version des Transformer-Modells auf Cloud TPU und zum Ausführen der WMT 18-Übersetzungsaufgabe vom Englischen ins Deutsche.