Bildklassifizierung
-
MNIST auf Cloud TPU ausführen (TF 2.x)
MNIST-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung in der Cloud TPU
-
ResNet auf Cloud TPU trainieren (TF 2.x)
ResNet-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
Keras ResNet-RS auf Cloud TPU (TF 2.x) trainieren
Keras ResNet-RS-Modell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
ResNet auf Cloud TPU (PyTorch) trainieren
ResNet-Bildklassifizierungsmodell mit PyTorch, optimiert für die Ausführung auf Cloud TPU
-
EfficientNet auf Cloud TPU trainieren (TF 2.x)
EfficientNet-Bildklassifizierungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
Objekterkennung
-
RetinaNet auf Cloud TPU trainieren (TF 2.x)
RetinaNet-Objekterkennungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
ShapeMask auf Cloud TPU trainieren (TF 2.x)
ShapeMask-Objekterkennungsmodell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
-
Mask RCNN auf Cloud TPU trainieren (TF 2.x)
Mask RCNN-Modell mit TensorFlow, optimiert für die Ausführung auf Cloud TPU
Empfehlungssysteme
-
DLRM- und DCN-Modelle auf Cloud TPU trainieren (TF 2.x)
Leitfaden für das Training von DLRM- und DCN v2-Rankingmodellen für Aufgaben wie die CTR-Vorhersage (Click-through-Rate, Klickrate).
-
Trainieren eines neuronalen Modells zur Zusammenarbeit in Cloud TPU (TF 2.x)
Implementierung des Frameworks „Neural Collaborative Filtering“ (NCF) mit dem Modell „Neural Matrix Factorization“ (NeuMF)
Verteilte Verarbeitung auf einem Pod
Natural Language Processing
Large Language Models
-
Mit Pax auf einer Einzelgerät-TPU trainieren
Anleitung zum Trainieren eines SPMD-Modells mit Pax auf einer Cloud TPU auf einem einzelnen Gerät
-
JetStream MaxText-Inferenz in Version 5e
Leitfaden zum Einrichten und Verwenden von JetStream mit MaxText für die Inferenz.
-
JetStream-PyTorch-Inferenz in Version 5e
Anleitung zum Einrichten und Verwenden von JetStream mit PyTorch für Inferenz
-
Llama 2 mit SAX in v5e bereitstellen
Anleitung zur Verwendung von SAX für die Bereitstellung der Llama 2-Familie mit Large Language Models.