Bildklassifizierung
-
MNIST auf Cloud TPU ausführen (TF 2.x)
MNIST-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung in der Cloud TPU
-
ResNet auf Cloud TPU trainieren (TF 2.x)
ResNet-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
Keras ResNet-RS auf Cloud TPU (TF 2.x) trainieren
ResNet-RS-Modell von Keras mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
ResNet auf Cloud TPU (PyTorch) trainieren
ResNet-Bildklassifizierungsmodell mit PyTorch, optimiert für die Ausführung auf Cloud TPU
-
EfficientNet auf Cloud TPU trainieren (TF 2.x)
EfficientNet-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
Objekterkennung
-
RetinaNet auf Cloud TPU trainieren (TF 2.x)
RetinaNet-Objekterkennungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
ShapeMask auf Cloud TPU trainieren (TF 2.x)
ShapeMask-Objekterkennungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
Mask RCNN auf Cloud TPU trainieren (TF 2.x)
Mask RCNN-Modell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
Empfehlungssysteme
-
DLRM- und DCN-Modelle auf Cloud TPU trainieren (TF 2.x)
Leitfaden für das Training von DLRM- und DCN v2-Rankingmodellen für Aufgaben wie die CTR-Vorhersage (Click-through-Rate, Klickrate).
-
Trainieren eines neuronalen Modells zur Zusammenarbeit in Cloud TPU (TF 2.x)
Implementierung des NFL-Frameworks (Neural Collaborative Filtering) mit dem Modell Neural Matrix Factorization (Neu)
Verteilte Verarbeitung auf einem Pod
Natural Language Processing
Large Language Models
-
Mit Pax auf einer Einzelgerät-TPU trainieren
Anleitung zum Trainieren eines SPMD-Modells mit Pax auf einem einzigen Gerät Cloud TPU
-
JetStream MaxText-Inferenz in Version 5e
Leitfaden zum Einrichten und Verwenden von JetStream mit MaxText für die Inferenz.
-
JetStream-PyTorch-Inferenz in Version 5e
Anleitung zum Einrichten und Verwenden von JetStream mit PyTorch für Inferenz
-
Llama 2 mit SAX in v5e bereitstellen
Anleitung zur Verwendung von SAX für die Bereitstellung der Llama 2-Familie mit Large Language Models.