Bildklassifizierung
-
MNIST auf Cloud TPU ausführen (TF 2.x)
MNIST-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung in der Cloud TPU
-
ResNet auf Cloud TPU trainieren (TF 2.x)
ResNet-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
Training von Keras ResNet-RS auf Cloud TPU (TF 2.x)
Keras ResNet-RS-Modell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
ResNet in Cloud TPU trainieren (PyTorch)
ResNet-Bildklassifizierungsmodell mit PyTorch, optimiert für die Ausführung auf Cloud TPU
-
EfficientNet auf Cloud TPU trainieren (TF 2.x)
EfficientNet-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
Objekterkennung
-
RetinaNet auf Cloud TPU trainieren (TF 2.x)
RetinaNet-Objekterkennungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
ShapeMask auf Cloud TPU trainieren (TF 2.x)
Ein ShapeMask-Objekterkennungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU.
-
Mask RCNN auf Cloud TPU trainieren (TF 2.x)
Mask RCNN-Modell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
Empfehlungssysteme
-
DLRM-Modell auf Cloud TPU (PyTorch) trainieren
Eine Anleitung zum Trainieren des PyTorch DLRM-Modells auf Cloud TPU.
-
DLRM- und DCN-Modelle auf Cloud TPU trainieren (TF 2.x)
Leitfaden für das Training von DLRM- und DCN v2-Rankingmodellen für Aufgaben wie die CTR-Vorhersage (Click-through-Rate, Klickrate).
-
Trainieren eines neuronalen Modells zur Zusammenarbeit in Cloud TPU (TF 2.x)
Implementierung des Frameworks für neuronale Collaborative Filtering (NCF) mit dem Modell Neural Matrix Factorization (NeuMF)
Verteilte Verarbeitung auf einem Pod
Natural Language Processing
-
BERT-Feinabstimmung mit Cloud TPU: Satz- und Satzpaar-Klassifizierungsaufgaben (TF 2.x)
Anleitung zur Verwendung von BERT (Bidirectional Encoder Representations from Transformers) mit Cloud TPU
-
FairSeq RoBERTa vor dem Training auf Cloud TPU (PyTorch)
Eine Anleitung zum Vortrainieren der FairSeq-Version des RoBERTa-Modells auf Cloud TPU mithilfe des öffentlichen Wikitext-103-Datasets.
Transformer
-
Training von HuggingFace GPT2 in Cloud TPU (TF 2.x)
Eine Anleitung zum Trainieren des HuggingFace GPT-Modells in Cloud TPU.
-
Transformer auf Cloud TPU trainieren (TF 2.x)
Eine Anleitung für das Training des Tensor2Tensor-Transformators-Modells auf Cloud TPU für die englisch-deutsche Übersetzung.
-
FairSeq Transformer auf Cloud TPU trainieren (PyTorch)
Ein Leitfaden zum Trainieren der FairSeq-Version des Transformer-Modells auf Cloud TPU und zum Ausführen der WMT 18-Übersetzungsaufgabe, die vom Englischen ins Deutsche übersetzt wird.