Bildklassifizierung
-
MNIST auf Cloud TPU ausführen (TF 2.x)
MNIST-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung in der Cloud TPU
-
ResNet auf Cloud TPU trainieren (TF 2.x)
ResNet-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
Keras ResNet-RS auf Cloud TPU (TF 2.x) trainieren
Keras ResNet-RS-Modell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
ResNet auf Cloud TPU (PyTorch) trainieren
ResNet-Bildklassifizierungsmodell mit PyTorch, optimiert für die Ausführung auf Cloud TPU
-
EfficientNet auf Cloud TPU trainieren (TF 2.x)
EfficientNet-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
Objekterkennung
-
RetinaNet auf Cloud TPU trainieren (TF 2.x)
RetinaNet-Objekterkennungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
ShapeMask auf Cloud TPU trainieren (TF 2.x)
ShapeMask-Objekterkennungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
Mask RCNN auf Cloud TPU trainieren (TF 2.x)
Mask RCNN-Modell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
Empfehlungssysteme
-
DLRM- und DCN-Modelle auf Cloud TPU trainieren (TF 2.x)
Leitfaden für das Training von DLRM- und DCN v2-Rankingmodellen für Aufgaben wie die CTR-Vorhersage (Click-through-Rate, Klickrate).
-
Trainieren eines neuronalen Modells zur Zusammenarbeit in Cloud TPU (TF 2.x)
Implementierung des NFL-Frameworks (Neural Collaborative Filtering) mit dem Modell Neural Matrix Factorization (Neu)
Verteilte Verarbeitung auf einem Pod
Natural Language Processing
Large Language Models
-
Mit Pax auf einer Einzelgerät-TPU trainieren
Leitfaden zum Trainieren eines SPMD-Modells mit Pax auf einer einzelnen Cloud TPU.
-
JetStream MaxText-Inferenz auf v5e
Anleitung zum Einrichten und Verwenden von JetStream mit MaxText für die Inferenz.
-
JetStream-PyTorch-Inferenz in Version 5e
Eine Anleitung zum Einrichten und Verwenden von JetStream mit PyTorch für die Inferenz.
-
Llama 2 mit SAX in v5e bereitstellen
Anleitung zur Verwendung von SAX für die Bereitstellung der Llama 2-Familie mit Large Language Models.